۲۹ شهریور ۱۴۰۳

Techboy

اخبار و اطلاعات روز تکنولوژی

چگونه روی هوش مصنوعی سایه دست بگیریم

با اجازه دادن به استفاده از ابزارهای هوش مصنوعی که ایمن بودن آنها ثابت شده است، اما نیاز به استفاده از آنها در دستورالعمل‌های صریح، می‌توانید ناامیدی کارکنان و ریسک سازمانی را کاهش دهید.

با اجازه دادن به استفاده از ابزارهای هوش مصنوعی که ایمن بودن آنها ثابت شده است، اما نیاز به استفاده از آنها در دستورالعمل‌های صریح، می‌توانید ناامیدی کارکنان و ریسک سازمانی را کاهش دهید.

CIOs و CISOs مدت‌هاست که با چالش IT سایه‌ای دست و پنجه نرم می‌کنند – فناوری‌ای که در یک شرکت استفاده می‌شود اما به طور رسمی توسط بخش فناوری اطلاعات یا بخش امنیتی مورد تایید قرار نگرفته است. با توجه به

جای تعجب نیست که ما شاهد پدیده ای مشابه با ابزارهای هوش مصنوعی هستیم. کارمندان به طور فزاینده‌ای در حال آزمایش با افرادی مانند ChatGPT و Google Bard برای انجام کارهای خود هستند. و در حالی که این آزمایش و خلاقیت می تواند چیز خوبی باشد، مشکل این است که این ابزارها بدون دانش فناوری اطلاعات یا امنیت استفاده می شوند.

این منجر به چالشی می‌شود که CISO و سایر رهبران با آن روبرو هستند: چگونه کارمندان را قادر می‌سازید تا از ابزارهای هوش مصنوعی ترجیحی خود استفاده کنند و در عین حال خطرات احتمالی برای سازمان را کاهش داده و اطمینان حاصل کنید که آنها کابوس‌های امنیت سایبری ایجاد نمی‌کنند؟

ظهور سایه هوش مصنوعی

جای تعجب نیست که کارمندان بخواهند از هوش مصنوعی مولد، یادگیری ماشینی و مدل‌های زبان بزرگ استفاده کنند. این فناوری‌ها مزایای متعددی را به همراه دارند، از جمله پتانسیل بهبود قابل توجه کارایی فرآیند، بهره‌وری شخصی و حتی تعامل نسبتاً سریع با مشتری.

حوزه‌های زیادی وجود دارد، از جمله در فرآیندهای امنیتی، که در آن‌ها اعمال هوش مصنوعی بسیار منطقی است، مانند کمک به عملیات SOC، کاهش حجم کاری مهندسان و یکنواختی، و موارد دیگر—در واقع کارایی فرآیند است. چنین پیشرفت‌هایی برای سایر حوزه‌ها، صنایع، عملکردها و سازمان‌های سراسری در حال انجام است.

درک مزایا آسان است.

با این حال، آنچه اغلب اتفاق می افتد این است که کارمندان بدون عبور از کانال های مناسب شروع به استفاده از این ابزار می کنند. آنها فقط ابزارهایی را انتخاب می کنند که فکر می کنند کارساز هستند یا در مورد آنها شنیده اند و از آنها استفاده می کنند. آن‌ها شرایط سازمانی را برای درک موارد استفاده به دست نیاورده‌اند تا فناوری اطلاعات بتواند ابزارهای مناسبی را که باید استفاده شود، و همچنین زمانی که استفاده از آن‌ها مناسب است و زمانی که مناسب نیست، شناسایی کند. این می تواند منجر به خطرات زیادی شود.

آشنایی با Azure HPC

درک خطرات ابزارهای غیرمجاز

وقتی نوبت به IT سایه می‌رسد، خطرات به اشکال مختلف ظاهر می‌شوند. برخی از این خطرات به طور کلی به ابزارهای هوش مصنوعی مربوط می شود، تحریم شده یا غیر مجاز.

یکپارچگی اطلاعات یک خطر است. در حال حاضر هیچ مقررات و استانداردی برای ابزارهای مبتنی بر هوش مصنوعی وجود ندارد، بنابراین ممکن است با مشکل «آشغال در، زباله بیرون» مواجه شوید. نمی توانید به نتایجی که می گیرید اعتماد کنید. تعصب یک خطر دیگر است. بسته به نحوه آموزش هوش مصنوعی، می‌تواند سوگیری‌های تاریخی را شناسایی کند که منجر به اطلاعات نادرست شود.

نشت اطلاعات نیز یک نگرانی است. اطلاعات اختصاصی اغلب به این ابزارها وارد می شود و هیچ راهی برای بازگرداندن آن داده ها وجود ندارد. این می تواند با مقرراتی مانند GDPR که نیازمند حفظ حریم خصوصی داده ها و شفافیت دقیق برای شهروندان اتحادیه اروپا است، مغایرت داشته باشد. و قانون AI جدید مبتنی بر اتحادیه اروپا به معنای تنظیم دقیق سیستم‌های هوش مصنوعی است. عدم رعایت چنین قوانینی شرکت شما را در معرض خطر بیشتری قرار می‌دهد، چه رهبری شرکت از استفاده از هوش مصنوعی کارکنان مطلع باشد یا نه.

الزامات انطباق آتی یکی از «ناشناخته‌های ناشناخته» است که امروزه سازمان‌ها باید با آن مبارزه کنند. جامعه مدتی است که می‌دانست این خطر در راه است، اما اکنون با سرعت بسیار سریع‌تری در حال تکامل است – و تعداد کمی از سازمان‌ها واقعاً برای آن آماده هستند.

این چالش‌ها زمانی پیچیده‌تر می‌شوند که کارمندان از ابزارهای هوش مصنوعی استفاده می‌کنند بدون اینکه رهبران فناوری اطلاعات و امنیت کاملاً در جریان باشند. اگر فناوری اطلاعات یا امنیت از چه ابزاری یا چگونه استفاده می‌شوند، جلوگیری یا حتی کاهش خطر یکپارچگی اطلاعات و مسائل مربوط به نشت اطلاعات غیرممکن می‌شود.

استودیو Copilot به گردش‌های کاری مبتنی بر هوش مصنوعی روی می‌آورد

یک مصالحه با هوش مصنوعی برای جلوگیری از رفتار سرکش

تکنولوژی و پذیرش هوش مصنوعی با سرعت سرسام آوری در حال پیشرفت است. از منظر رهبری فناوری اطلاعات و امنیت، شما دو گزینه دارید. یکی این است که استفاده از هوش مصنوعی را به طور کامل ممنوع کنید و راهی برای اجرای آن محدودیت ها پیدا کنید. مورد دیگر پذیرش هوش مصنوعی و یافتن راه هایی برای رسیدگی به آن است.

واکنش تند تند تیم‌های امنیتی، جلوگیری از استفاده از هوش مصنوعی در سراسر سازمان است. تقریباً مطمئناً این رویکرد شکست خواهد خورد. کارمندان راه‌هایی برای دور زدن محدودیت‌ها پیدا می‌کنند، و این رویکرد همچنین می‌تواند باعث شود که از ناتوانی در استفاده از ابزارهایی که معتقدند بهترین کمک به آنها در انجام کار کمک می‌کند، احساس ناامیدی کنند.

بنابراین، گزینه دوم برای اکثر سازمان ها بهتر است، اما باید با دقت و وجدان انجام شود. برای یک چیز، همانطور که قبلا ذکر شد، در حال حاضر فقدان مقررات خارجی و استاندارد روشنی وجود ندارد که بتوان به دنبال راهنمایی بود. حتی مقرراتی که وجود دارد همیشه کمی عقب تر از زمان است. این فقط ماهیت سرعت پیشرفت فناوری در مقایسه با سرعت تطابق با آن است.

بهترین شیوه ها برای فعال کردن استفاده ایمن تر از ابزارهای هوش مصنوعی

یک مکان خوب برای شروع این است که بر روی دستیابی به درک ابزارهای هوش مصنوعی تمرکز کنید که استفاده از آنها برای موارد استفاده سازمان شما ارزشمند است. به دنبال فروشندگانی باشید که از قبل در فضا هستند و دمو دریافت کنید. وقتی ابزارهای مورد نیاز خود را پیدا کردید، اصول راهنما را برای استفاده از آنها ایجاد کنید.

به‌دست آوردن بینش در مورد استفاده از این ابزارها، بسته به بلوغ وضعیت فناوری اطلاعات و امنیت سازمان شما، ممکن است یک چالش باشد. شاید در جایی که افراد ادمین لپ‌تاپ خود نیستند، کنترل‌های قوی دارید، یا راه‌حل‌هایی مانند پیشگیری از از دست دادن داده (DLP) را دارید.

هوش مصنوعی با کد پایین با برنامه های Power و Power Automate

داشتن مجموعه ای از دستورالعمل ها و قوانین می تواند بسیار مفید باشد. این می تواند شامل بررسی عواملی مانند حریم خصوصی، مسئولیت پذیری، شفافیت، انصاف، ایمنی و امنیت باشد. این مرحله برای کمک به اطمینان از اینکه سازمان شما از هوش مصنوعی مسئولانه استفاده می کند، کلیدی است.

آموزش کارکنان شما بهترین روش بسیار مهم است. همانطور که در مورد امنیت سایبری وجود دارد، یک کارمند آگاه اولین خط دفاعی را در برابر استفاده نادرست هوش مصنوعی و خطر ایجاد می کند. مطمئن شوید که کارمندان به دستورالعمل‌های استفاده از هوش مصنوعی که ایجاد کرده‌اید کاملاً آشنا هستند.

هوش مصنوعی را از سایه بیرون بیاورید

به احتمال زیاد حداقل برخی از کارمندان شما در حال حاضر از ابزارهای غیرمجاز هوش مصنوعی برای کمک به مشاغل خود استفاده می کنند. این می‌تواند سردرد بزرگی از منظر امنیتی و خطر ایجاد کند. در عین حال، می‌خواهید مطمئن شوید که کارمندانتان می‌توانند از ابزارهایی که برای عملکرد در اوج نیاز دارند استفاده کنند. بهترین شرط برای پیشی گرفتن از خطرات هوش مصنوعی سایه این است که اجازه استفاده از ابزارهای اثبات شده ایمن را بدهید و از کارکنان بخواهید که از آنها در چارچوب دستورالعمل هایی که ایجاد کرده اید استفاده کنند. این امر هم ناامیدی کارکنان و هم ریسک سازمانی را کاهش می دهد.

کایلا ویلیامز CISO در Devo است.

Generative AI Insights مکانی را برای رهبران فناوری – از جمله فروشندگان و سایر اشخاص ثالث – فراهم می‌کند تا چالش‌ها و فرصت‌های هوش مصنوعی مولد را بررسی و بحث کنند. این انتخاب گسترده است، از غواصی عمیق فناوری گرفته تا مطالعات موردی گرفته تا نظرات متخصص، اما همچنین ذهنی است، بر اساس قضاوت ما در مورد اینکه کدام موضوعات و درمان‌ها به بهترین وجه به مخاطبان فنی پیشرفته InfoWorld خدمت می‌کنند. InfoWorld وثیقه بازاریابی را برای انتشار نمی پذیرد و حق ویرایش تمام محتوای ارائه شده را برای خود محفوظ می دارد. تماس با doug_dineley@foundryco.com.