با اجازه دادن به استفاده از ابزارهای هوش مصنوعی که ایمن بودن آنها ثابت شده است، اما نیاز به استفاده از آنها در دستورالعملهای صریح، میتوانید ناامیدی کارکنان و ریسک سازمانی را کاهش دهید.
CIOs و CISOs مدتهاست که با چالش IT سایهای دست و پنجه نرم میکنند – فناوریای که در یک شرکت استفاده میشود اما به طور رسمی توسط بخش فناوری اطلاعات یا بخش امنیتی مورد تایید قرار نگرفته است. با توجه به جای تعجب نیست که ما شاهد پدیده ای مشابه با ابزارهای هوش مصنوعی هستیم. کارمندان به طور فزایندهای در حال آزمایش با افرادی مانند ChatGPT و Google Bard برای انجام کارهای خود هستند. و در حالی که این آزمایش و خلاقیت می تواند چیز خوبی باشد، مشکل این است که این ابزارها بدون دانش فناوری اطلاعات یا امنیت استفاده می شوند. این منجر به چالشی میشود که CISO و سایر رهبران با آن روبرو هستند: چگونه کارمندان را قادر میسازید تا از ابزارهای هوش مصنوعی ترجیحی خود استفاده کنند و در عین حال خطرات احتمالی برای سازمان را کاهش داده و اطمینان حاصل کنید که آنها کابوسهای امنیت سایبری ایجاد نمیکنند؟ جای تعجب نیست که کارمندان بخواهند از هوش مصنوعی مولد، یادگیری ماشینی و مدلهای زبان بزرگ استفاده کنند. این فناوریها مزایای متعددی را به همراه دارند، از جمله پتانسیل بهبود قابل توجه کارایی فرآیند، بهرهوری شخصی و حتی تعامل نسبتاً سریع با مشتری. حوزههای زیادی وجود دارد، از جمله در فرآیندهای امنیتی، که در آنها اعمال هوش مصنوعی بسیار منطقی است، مانند کمک به عملیات SOC، کاهش حجم کاری مهندسان و یکنواختی، و موارد دیگر—در واقع کارایی فرآیند است. چنین پیشرفتهایی برای سایر حوزهها، صنایع، عملکردها و سازمانهای سراسری در حال انجام است. درک مزایا آسان است. با این حال، آنچه اغلب اتفاق می افتد این است که کارمندان بدون عبور از کانال های مناسب شروع به استفاده از این ابزار می کنند. آنها فقط ابزارهایی را انتخاب می کنند که فکر می کنند کارساز هستند یا در مورد آنها شنیده اند و از آنها استفاده می کنند. آنها شرایط سازمانی را برای درک موارد استفاده به دست نیاوردهاند تا فناوری اطلاعات بتواند ابزارهای مناسبی را که باید استفاده شود، و همچنین زمانی که استفاده از آنها مناسب است و زمانی که مناسب نیست، شناسایی کند. این می تواند منجر به خطرات زیادی شود. وقتی نوبت به IT سایه میرسد، خطرات به اشکال مختلف ظاهر میشوند. برخی از این خطرات به طور کلی به ابزارهای هوش مصنوعی مربوط می شود، تحریم شده یا غیر مجاز. یکپارچگی اطلاعات یک خطر است. در حال حاضر هیچ مقررات و استانداردی برای ابزارهای مبتنی بر هوش مصنوعی وجود ندارد، بنابراین ممکن است با مشکل «آشغال در، زباله بیرون» مواجه شوید. نمی توانید به نتایجی که می گیرید اعتماد کنید. تعصب یک خطر دیگر است. بسته به نحوه آموزش هوش مصنوعی، میتواند سوگیریهای تاریخی را شناسایی کند که منجر به اطلاعات نادرست شود. نشت اطلاعات نیز یک نگرانی است. اطلاعات اختصاصی اغلب به این ابزارها وارد می شود و هیچ راهی برای بازگرداندن آن داده ها وجود ندارد. این می تواند با مقرراتی مانند GDPR که نیازمند حفظ حریم خصوصی داده ها و شفافیت دقیق برای شهروندان اتحادیه اروپا است، مغایرت داشته باشد. و قانون AI جدید مبتنی بر اتحادیه اروپا به معنای تنظیم دقیق سیستمهای هوش مصنوعی است. عدم رعایت چنین قوانینی شرکت شما را در معرض خطر بیشتری قرار میدهد، چه رهبری شرکت از استفاده از هوش مصنوعی کارکنان مطلع باشد یا نه. الزامات انطباق آتی یکی از «ناشناختههای ناشناخته» است که امروزه سازمانها باید با آن مبارزه کنند. جامعه مدتی است که میدانست این خطر در راه است، اما اکنون با سرعت بسیار سریعتری در حال تکامل است – و تعداد کمی از سازمانها واقعاً برای آن آماده هستند. این چالشها زمانی پیچیدهتر میشوند که کارمندان از ابزارهای هوش مصنوعی استفاده میکنند بدون اینکه رهبران فناوری اطلاعات و امنیت کاملاً در جریان باشند. اگر فناوری اطلاعات یا امنیت از چه ابزاری یا چگونه استفاده میشوند، جلوگیری یا حتی کاهش خطر یکپارچگی اطلاعات و مسائل مربوط به نشت اطلاعات غیرممکن میشود. تکنولوژی و پذیرش هوش مصنوعی با سرعت سرسام آوری در حال پیشرفت است. از منظر رهبری فناوری اطلاعات و امنیت، شما دو گزینه دارید. یکی این است که استفاده از هوش مصنوعی را به طور کامل ممنوع کنید و راهی برای اجرای آن محدودیت ها پیدا کنید. مورد دیگر پذیرش هوش مصنوعی و یافتن راه هایی برای رسیدگی به آن است. واکنش تند تند تیمهای امنیتی، جلوگیری از استفاده از هوش مصنوعی در سراسر سازمان است. تقریباً مطمئناً این رویکرد شکست خواهد خورد. کارمندان راههایی برای دور زدن محدودیتها پیدا میکنند، و این رویکرد همچنین میتواند باعث شود که از ناتوانی در استفاده از ابزارهایی که معتقدند بهترین کمک به آنها در انجام کار کمک میکند، احساس ناامیدی کنند. بنابراین، گزینه دوم برای اکثر سازمان ها بهتر است، اما باید با دقت و وجدان انجام شود. برای یک چیز، همانطور که قبلا ذکر شد، در حال حاضر فقدان مقررات خارجی و استاندارد روشنی وجود ندارد که بتوان به دنبال راهنمایی بود. حتی مقرراتی که وجود دارد همیشه کمی عقب تر از زمان است. این فقط ماهیت سرعت پیشرفت فناوری در مقایسه با سرعت تطابق با آن است. یک مکان خوب برای شروع این است که بر روی دستیابی به درک ابزارهای هوش مصنوعی تمرکز کنید که استفاده از آنها برای موارد استفاده سازمان شما ارزشمند است. به دنبال فروشندگانی باشید که از قبل در فضا هستند و دمو دریافت کنید. وقتی ابزارهای مورد نیاز خود را پیدا کردید، اصول راهنما را برای استفاده از آنها ایجاد کنید. بهدست آوردن بینش در مورد استفاده از این ابزارها، بسته به بلوغ وضعیت فناوری اطلاعات و امنیت سازمان شما، ممکن است یک چالش باشد. شاید در جایی که افراد ادمین لپتاپ خود نیستند، کنترلهای قوی دارید، یا راهحلهایی مانند پیشگیری از از دست دادن داده (DLP) را دارید. داشتن مجموعه ای از دستورالعمل ها و قوانین می تواند بسیار مفید باشد. این می تواند شامل بررسی عواملی مانند حریم خصوصی، مسئولیت پذیری، شفافیت، انصاف، ایمنی و امنیت باشد. این مرحله برای کمک به اطمینان از اینکه سازمان شما از هوش مصنوعی مسئولانه استفاده می کند، کلیدی است. آموزش کارکنان شما بهترین روش بسیار مهم است. همانطور که در مورد امنیت سایبری وجود دارد، یک کارمند آگاه اولین خط دفاعی را در برابر استفاده نادرست هوش مصنوعی و خطر ایجاد می کند. مطمئن شوید که کارمندان به دستورالعملهای استفاده از هوش مصنوعی که ایجاد کردهاید کاملاً آشنا هستند. به احتمال زیاد حداقل برخی از کارمندان شما در حال حاضر از ابزارهای غیرمجاز هوش مصنوعی برای کمک به مشاغل خود استفاده می کنند. این میتواند سردرد بزرگی از منظر امنیتی و خطر ایجاد کند. در عین حال، میخواهید مطمئن شوید که کارمندانتان میتوانند از ابزارهایی که برای عملکرد در اوج نیاز دارند استفاده کنند. بهترین شرط برای پیشی گرفتن از خطرات هوش مصنوعی سایه این است که اجازه استفاده از ابزارهای اثبات شده ایمن را بدهید و از کارکنان بخواهید که از آنها در چارچوب دستورالعمل هایی که ایجاد کرده اید استفاده کنند. این امر هم ناامیدی کارکنان و هم ریسک سازمانی را کاهش می دهد. کایلا ویلیامز CISO در Devo است. — Generative AI Insights مکانی را برای رهبران فناوری – از جمله فروشندگان و سایر اشخاص ثالث – فراهم میکند تا چالشها و فرصتهای هوش مصنوعی مولد را بررسی و بحث کنند. این انتخاب گسترده است، از غواصی عمیق فناوری گرفته تا مطالعات موردی گرفته تا نظرات متخصص، اما همچنین ذهنی است، بر اساس قضاوت ما در مورد اینکه کدام موضوعات و درمانها به بهترین وجه به مخاطبان فنی پیشرفته InfoWorld خدمت میکنند. InfoWorld وثیقه بازاریابی را برای انتشار نمی پذیرد و حق ویرایش تمام محتوای ارائه شده را برای خود محفوظ می دارد. تماس با doug_dineley@foundryco.com a>. ظهور سایه هوش مصنوعی
درک خطرات ابزارهای غیرمجاز
یک مصالحه با هوش مصنوعی برای جلوگیری از رفتار سرکش
بهترین شیوه ها برای فعال کردن استفاده ایمن تر از ابزارهای هوش مصنوعی
هوش مصنوعی را از سایه بیرون بیاورید
پست های مرتبط
چگونه روی هوش مصنوعی سایه دست بگیریم
چگونه روی هوش مصنوعی سایه دست بگیریم
چگونه روی هوش مصنوعی سایه دست بگیریم