هوش مصنوعی مسئول واقعاً در مورد اصول، اخلاق، یا توضیح پذیری نیست. این می تواند کلید باز کردن ارزش هوش مصنوعی در مقیاس باشد، اما ابتدا باید برخی از افسانه ها را بشکنیم.
هوش مصنوعی (RAI) مسئول در حال حاضر بیش از هر زمان دیگری مورد نیاز است. این کلید هدایت همه چیز از اعتماد و پذیرش، تا مدیریت توهمات LLM و حذف محتوای سمی تولید AI است. با RAI موثر، شرکتها میتوانند سریعتر نوآوری کنند، بخشهای بیشتری از کسبوکار را متحول کنند، از مقررات آینده هوش مصنوعی پیروی کنند، و از جریمهها، آسیبهای اعتباری و رکود رقابتی جلوگیری کنند.
متأسفانه، سردرگمی در مورد اینکه RAI در واقع چیست، چه چیزی ارائه میکند و چگونه میتوان به آن دست یافت، با اثرات بالقوه فاجعهبار، حاکم است. ابتکارات RAI که بد انجام می شود، مانع از نوآوری می شود و موانعی را ایجاد می کند که تاخیر و هزینه ها را بدون افزایش ایمنی افزایش می دهد. افسانه های خوش نیت، اما نادرست، در مورد تعریف و هدف RAI فراوان است. اگر میخواهیم RAI را به نیرویی برای خلق ارزش مبتنی بر هوش مصنوعی تبدیل کنیم، سازمانها باید این افسانهها را بشکنند، بهجای یک زمان پرهزینه و بیاثر.
پس مخرب ترین افسانه های RAI کدامند؟ و چگونه باید RAI را به بهترین نحو تعریف کنیم تا ابتکارات خود را در مسیری پایدار به سوی موفقیت قرار دهیم؟ به من اجازه دهید افکارم را به اشتراک بگذارم.
افسانه ۱: هوش مصنوعی مسئول در مورد اصول است
به هر غول فناوری بروید و اصول RAI را پیدا خواهید کرد – مانند توضیح پذیری، انصاف، حریم خصوصی، فراگیر بودن، و شفافیت. آنها به قدری رایج هستند که فکر می کنید اصول در هسته RAI هستند، بخشیده می شوید. به هر حال، اینها دقیقاً شبیه همان اصولی هستند که ما در یک انسان مسئول به آن امیدواریم، بنابراین مطمئناً آنها برای اطمینان از هوش مصنوعی مسئولانه کلیدی هستند، درست است؟
اشتباه. همه سازمان ها از قبل اصولی دارند. معمولاً آنها دقیقاً همان اصولی هستند که برای RAI اعلام می شوند. بالاخره چند سازمان می گویند که مخالف عدالت، شفافیت و فراگیر بودن هستند؟ و اگر چنین بودند، آیا واقعاً میتوانید یک مجموعه از اصول را برای هوش مصنوعی و مجموعهای از اصول دیگر را برای بقیه سازمان حفظ کنید؟
علاوه بر این، اصول در ایجاد اعتماد به هوش مصنوعی مؤثرتر از افراد و سازمان ها نیستند. آیا اطمینان دارید که یک شرکت هواپیمایی تخفیفی به دلیل اصولی که دارد شما را با خیال راحت به مقصد برساند؟ یا به دلیل خلبانان آموزش دیده، تکنسین ها و کنترلرهای ترافیک هوایی که با استفاده از تجهیزاتی که به دقت آزمایش شده و مرتباً بازرسی می شوند، فرآیندهای اجرا شده را به شدت دنبال می کنند، به آنها اعتماد دارید؟
مانند سفرهای هوایی، این افراد، فرآیندها و فناوری هستند که اصول شما را که در قلب RAI قرار دارند، قادر میسازند و اجرا میکنند. شانس این است که شما از قبل اصول درستی دارید. این چالش است که این اصول را عملی می کند.
افسانه ۲: هوش مصنوعی مسئول در مورد اخلاق است
مطمئناً RAI در مورد استفاده اخلاقی از هوش مصنوعی است – اطمینان از اینکه مدلها منصفانه هستند و باعث تبعیض مضر نمیشوند، درست است؟ بله، اما در مورد خیلی بیشتر نیز هست.
تنها زیرمجموعه کوچکی از موارد استفاده از هوش مصنوعی در واقع دارای ملاحظات اخلاقی و عادلانه هستند، مانند مدلهایی که برای امتیازدهی اعتبار استفاده میشوند، رزومههای نمایش داده شده یا میتوانند منجر به از دست دادن شغل شوند. طبیعتاً، ما به RAI نیاز داریم تا اطمینان حاصل کنیم که با این موارد استفاده مسئولانه برخورد میشود، اما همچنین به RAI نیاز داریم تا اطمینان حاصل کنیم که همه راهحلهای هوش مصنوعی دیگر ما به صورت ایمن و قابل اعتماد توسعه یافته و استفاده میشوند و عملکرد و الزامات مالی سازمان را برآورده میکنند.
همان ابزارهایی که برای ارائه توضیح، بررسی تعصب و اطمینان از حریم خصوصی استفاده میکنید دقیقاً همان ابزارهایی هستند که برای اطمینان از دقت، قابلیت اطمینان و حفاظت از دادهها استفاده میکنید. RAI کمک می کند تا زمانی که ملاحظات عادلانه در خطر است از هوش مصنوعی به صورت اخلاقی استفاده شود، اما برای هر مورد دیگر استفاده از هوش مصنوعی نیز حیاتی است.
افسانه ۳: هوش مصنوعی مسئول در مورد توضیح پذیری است
این یک جملات رایج است که برای اینکه بتوانیم به هوش مصنوعی اعتماد کنیم و مسئولانه از آن استفاده کنیم، به توضیح پذیری یا تفسیرپذیری نیاز داریم. ما نداریم. برای اعتماد به هوش مصنوعی نیازی به توضیح بیشتر نیست تا اینکه بدانیم یک هواپیما چگونه کار می کند برای اعتماد به سفر هوایی ضروری است.
تصمیمات انسانی یک نمونه است. تقریباً همیشه میتوانیم تصمیمهایمان را توضیح دهیم، اما شواهد فراوان وجود دارد که اینها داستانهایی هستند که ما میسازیم و ارتباط چندانی با محرکهای واقعی رفتار تصمیمگیری ما ندارند.
در عوض، قابلیت توضیح هوش مصنوعی – استفاده از مدلهای “جعبه سفید” که به راحتی قابل درک است و روشهایی مانند LIME و ShAP- تا حد زیادی برای آزمایش درست کارکرد مدلهای شما مهم است. آنها به شناسایی همبستگی های جعلی و تبعیض ناعادلانه بالقوه کمک می کنند. در موارد استفاده ساده، جایی که الگوها به راحتی قابل تشخیص و توضیح هستند، می توانند میانبری برای اعتماد بیشتر باشند. با این حال، اگر آن الگوها به اندازه کافی پیچیده باشند، هر توضیحی در بهترین حالت نشانه هایی از نحوه اتخاذ یک تصمیم و در بدترین حالت بیهودگی کامل خواهد بود.
بهطور خلاصه، توضیحپذیری بسیار خوب است، اما اغلب غیرممکن است که به روشهایی ارائه شود که به طور معناداری اعتماد سهامداران را افزایش دهد. RAI در مورد اطمینان از اعتماد برای همه موارد استفاده از هوش مصنوعی است، که به معنای ارائه اعتماد از طریق افراد، فرآیندها و فناوری (به ویژه پلتفرمهایی) است که برای توسعه و عملیاتی کردن آنها استفاده میشود.
هوش مصنوعی مسئول مدیریت ریسک است
در پایان، RAI تمرین مدیریت ریسک هنگام توسعه و استفاده از مدلهای هوش مصنوعی و یادگیری ماشینی است. این شامل مدیریت ریسکهای تجاری (مانند مدلهای ضعیف یا غیرقابل اعتماد)، خطرات قانونی (مانند جریمههای قانونی و شکایتهای حقوقی مشتریان یا کارکنان) و حتی خطرات اجتماعی (مانند تبعیض یا آسیبهای زیست محیطی) است.
روشی که ما این ریسک را مدیریت میکنیم از طریق یک استراتژی چند لایه است که قابلیتهای RAI را در قالب افراد، فرآیندها و فناوری ایجاد میکند. از نظر افراد، این در مورد توانمندسازی رهبرانی است که مسئول RAI هستند (به عنوان مثال، افسران ارشد تجزیه و تحلیل داده، افسران ارشد هوش مصنوعی، روسای علوم داده، معاونان ML) و آموزش پزشکان و کاربران برای توسعه، مدیریت و استفاده مسئولانه از هوش مصنوعی. . از نظر فرآیند، این امر در مورد اداره و کنترل چرخه حیات پایان به انتها، از دسترسی به داده ها و آموزش مدل گرفته تا استقرار مدل، نظارت و آموزش مجدد است. و از نظر فناوری، پلتفرمها از اهمیت ویژهای برخوردار هستند، زیرا از افراد و فرآیندها در مقیاس پشتیبانی میکنند و آنها را قادر میسازند. آنها دسترسی به روشهای RAI را دموکراتیک میکنند – به عنوان مثال، برای توضیحپذیری، تشخیص سوگیری، کاهش تعصب، ارزیابی عادلانه، و نظارت بر رانش – و حاکمیت مصنوعات هوش مصنوعی، ردیابی اصل و نسب، اسناد خودکار، هماهنگسازی گردشهای کاری تایید، دادههای ایمن و همچنین تعداد بیشماری را اعمال میکنند. ویژگی هایی برای ساده سازی فرآیندهای RAI
اینها قابلیتهایی هستند که تیمهای پیشرفته هوش مصنوعی در صنایع به شدت تحت نظارت، مانند داروسازی، خدمات مالی، و بیمه، قبلاً از آنها ایجاد کردهاند و ارزش ایجاد کردهاند. آنها قابلیتهایی هستند که با مزایای اجرای سریعتر، پذیرش بیشتر، عملکرد بهتر و قابلیت اطمینان بهبود یافته، اعتماد را به تمام هوش مصنوعی یا به طور خاص هوش مصنوعی مولد در مقیاس ایجاد میکنند. آنها کمک می کنند تا ابتکارات هوش مصنوعی خود را از مقررات آینده هوش مصنوعی اثبات کنند و مهمتر از همه، همه ما را ایمن تر می کنند. هوش مصنوعی مسئول می تواند کلید باز کردن ارزش هوش مصنوعی در مقیاس باشد، اما ابتدا باید برخی از افسانه ها را از بین ببرید.
کجل کارلسون رئیس استراتژی هوش مصنوعی در آزمایشگاه داده دومینو است.
—
Generative AI Insights مکانی را برای رهبران فناوری – از جمله فروشندگان و سایر مشارکتکنندگان خارجی – فراهم میکند تا چالشها و فرصتهای هوش مصنوعی مولد را بررسی و بحث کنند. این انتخاب گسترده است، از غواصی عمیق فناوری گرفته تا مطالعات موردی گرفته تا نظرات متخصص، اما همچنین ذهنی است، بر اساس قضاوت ما در مورد اینکه کدام موضوعات و درمان ها به بهترین وجه به مخاطبان فنی پیشرفته InfoWorld خدمت می کنند. InfoWorld وثیقه بازاریابی را برای انتشار نمی پذیرد و حق ویرایش تمام محتوای ارائه شده را برای خود محفوظ می دارد. تماس با doug_dineley@foundryco.com a>.
پست های مرتبط
۳ افسانه مخرب هوش مصنوعی مسئول
۳ افسانه مخرب هوش مصنوعی مسئول
۳ افسانه مخرب هوش مصنوعی مسئول