۲۹ شهریور ۱۴۰۳

Techboy

اخبار و اطلاعات روز تکنولوژی

۳ افسانه مخرب هوش مصنوعی مسئول

هوش مصنوعی مسئول واقعاً در مورد اصول، اخلاق، یا توضیح پذیری نیست. این می تواند کلید باز کردن ارزش هوش مصنوعی در مقیاس باشد، اما ابتدا باید برخی از افسانه ها را بشکنیم.

هوش مصنوعی مسئول واقعاً در مورد اصول، اخلاق، یا توضیح پذیری نیست. این می تواند کلید باز کردن ارزش هوش مصنوعی در مقیاس باشد، اما ابتدا باید برخی از افسانه ها را بشکنیم.

هوش مصنوعی (RAI) مسئول در حال حاضر بیش از هر زمان دیگری مورد نیاز است. این کلید هدایت همه چیز از اعتماد و پذیرش، تا مدیریت توهمات LLM و حذف محتوای سمی تولید AI است. با RAI موثر، شرکت‌ها می‌توانند سریع‌تر نوآوری کنند، بخش‌های بیشتری از کسب‌وکار را متحول کنند، از مقررات آینده هوش مصنوعی پیروی کنند، و از جریمه‌ها، آسیب‌های اعتباری و رکود رقابتی جلوگیری کنند.

متأسفانه، سردرگمی در مورد اینکه RAI در واقع چیست، چه چیزی ارائه می‌کند و چگونه می‌توان به آن دست یافت، با اثرات بالقوه فاجعه‌بار، حاکم است. ابتکارات RAI که بد انجام می شود، مانع از نوآوری می شود و موانعی را ایجاد می کند که تاخیر و هزینه ها را بدون افزایش ایمنی افزایش می دهد. افسانه های خوش نیت، اما نادرست، در مورد تعریف و هدف RAI فراوان است. اگر می‌خواهیم RAI را به نیرویی برای خلق ارزش مبتنی بر هوش مصنوعی تبدیل کنیم، سازمان‌ها باید این افسانه‌ها را بشکنند، به‌جای یک زمان پرهزینه و بی‌اثر.

پس مخرب ترین افسانه های RAI کدامند؟ و چگونه باید RAI را به بهترین نحو تعریف کنیم تا ابتکارات خود را در مسیری پایدار به سوی موفقیت قرار دهیم؟ به من اجازه دهید افکارم را به اشتراک بگذارم.

افسانه ۱: هوش مصنوعی مسئول در مورد اصول است

به هر غول فناوری بروید و اصول RAI را پیدا خواهید کرد – مانند توضیح پذیری، انصاف، حریم خصوصی، فراگیر بودن، و شفافیت. آنها به قدری رایج هستند که فکر می کنید اصول در هسته RAI هستند، بخشیده می شوید. به هر حال، اینها دقیقاً شبیه همان اصولی هستند که ما در یک انسان مسئول به آن امیدواریم، بنابراین مطمئناً آنها برای اطمینان از هوش مصنوعی مسئولانه کلیدی هستند، درست است؟

اشتباه. همه سازمان ها از قبل اصولی دارند. معمولاً آنها دقیقاً همان اصولی هستند که برای RAI اعلام می شوند. بالاخره چند سازمان می گویند که مخالف عدالت، شفافیت و فراگیر بودن هستند؟ و اگر چنین بودند، آیا واقعاً می‌توانید یک مجموعه از اصول را برای هوش مصنوعی و مجموعه‌ای از اصول دیگر را برای بقیه سازمان حفظ کنید؟

نبرد نزدیک بر سر اینکه سیستم‌های هوش مصنوعی مولد کجا اجرا می‌شوند

علاوه بر این، اصول در ایجاد اعتماد به هوش مصنوعی مؤثرتر از افراد و سازمان ها نیستند. آیا اطمینان دارید که یک شرکت هواپیمایی تخفیفی به دلیل اصولی که دارد شما را با خیال راحت به مقصد برساند؟ یا به دلیل خلبانان آموزش دیده، تکنسین ها و کنترلرهای ترافیک هوایی که با استفاده از تجهیزاتی که به دقت آزمایش شده و مرتباً بازرسی می شوند، فرآیندهای اجرا شده را به شدت دنبال می کنند، به آنها اعتماد دارید؟

مانند سفرهای هوایی، این افراد، فرآیندها و فناوری هستند که اصول شما را که در قلب RAI قرار دارند، قادر می‌سازند و اجرا می‌کنند. شانس این است که شما از قبل اصول درستی دارید. این چالش است که این اصول را عملی می کند.

افسانه ۲: هوش مصنوعی مسئول در مورد اخلاق است

مطمئناً RAI در مورد استفاده اخلاقی از هوش مصنوعی است – اطمینان از اینکه مدل‌ها منصفانه هستند و باعث تبعیض مضر نمی‌شوند، درست است؟ بله، اما در مورد خیلی بیشتر نیز هست.

تنها زیرمجموعه کوچکی از موارد استفاده از هوش مصنوعی در واقع دارای ملاحظات اخلاقی و عادلانه هستند، مانند مدل‌هایی که برای امتیازدهی اعتبار استفاده می‌شوند، رزومه‌های نمایش داده شده یا می‌توانند منجر به از دست دادن شغل شوند. طبیعتاً، ما به RAI نیاز داریم تا اطمینان حاصل کنیم که با این موارد استفاده مسئولانه برخورد می‌شود، اما همچنین به RAI نیاز داریم تا اطمینان حاصل کنیم که همه راه‌حل‌های هوش مصنوعی دیگر ما به صورت ایمن و قابل اعتماد توسعه یافته و استفاده می‌شوند و عملکرد و الزامات مالی سازمان را برآورده می‌کنند.

همان ابزارهایی که برای ارائه توضیح، بررسی تعصب و اطمینان از حریم خصوصی استفاده می‌کنید دقیقاً همان ابزارهایی هستند که برای اطمینان از دقت، قابلیت اطمینان و حفاظت از داده‌ها استفاده می‌کنید. RAI کمک می کند تا زمانی که ملاحظات عادلانه در خطر است از هوش مصنوعی به صورت اخلاقی استفاده شود، اما برای هر مورد دیگر استفاده از هوش مصنوعی نیز حیاتی است.

افسانه ۳: هوش مصنوعی مسئول در مورد توضیح پذیری است 

این یک جملات رایج است که برای اینکه بتوانیم به هوش مصنوعی اعتماد کنیم و مسئولانه از آن استفاده کنیم، به توضیح پذیری یا تفسیرپذیری نیاز داریم. ما نداریم. برای اعتماد به هوش مصنوعی نیازی به توضیح بیشتر نیست تا اینکه بدانیم یک هواپیما چگونه کار می کند برای اعتماد به سفر هوایی ضروری است.

Visual Studio Code 1.75 پروفایل های پیکربندی را به ارمغان می آورد

تصمیمات انسانی یک نمونه است. تقریباً همیشه می‌توانیم تصمیم‌هایمان را توضیح دهیم، اما شواهد فراوان وجود دارد که اینها داستان‌هایی هستند که ما می‌سازیم و ارتباط چندانی با محرک‌های واقعی رفتار تصمیم‌گیری ما ندارند.

در عوض، قابلیت توضیح هوش مصنوعی – استفاده از مدل‌های “جعبه سفید” که به راحتی قابل درک است و روش‌هایی مانند LIME و ShAP- تا حد زیادی برای آزمایش درست کارکرد مدل‌های شما مهم است. آنها به شناسایی همبستگی های جعلی و تبعیض ناعادلانه بالقوه کمک می کنند. در موارد استفاده ساده، جایی که الگوها به راحتی قابل تشخیص و توضیح هستند، می توانند میانبری برای اعتماد بیشتر باشند. با این حال، اگر آن الگوها به اندازه کافی پیچیده باشند، هر توضیحی در بهترین حالت نشانه هایی از نحوه اتخاذ یک تصمیم و در بدترین حالت بیهودگی کامل خواهد بود.

به‌طور خلاصه، توضیح‌پذیری بسیار خوب است، اما اغلب غیرممکن است که به روش‌هایی ارائه شود که به طور معناداری اعتماد سهامداران را افزایش دهد. RAI در مورد اطمینان از اعتماد برای همه موارد استفاده از هوش مصنوعی است، که به معنای ارائه اعتماد از طریق افراد، فرآیندها و فناوری (به ویژه پلتفرم‌هایی) است که برای توسعه و عملیاتی کردن آنها استفاده می‌شود.

هوش مصنوعی مسئول مدیریت ریسک است

در پایان، RAI تمرین مدیریت ریسک هنگام توسعه و استفاده از مدل‌های هوش مصنوعی و یادگیری ماشینی است. این شامل مدیریت ریسک‌های تجاری (مانند مدل‌های ضعیف یا غیرقابل اعتماد)، خطرات قانونی (مانند جریمه‌های قانونی و شکایت‌های حقوقی مشتریان یا کارکنان) و حتی خطرات اجتماعی (مانند تبعیض یا آسیب‌های زیست محیطی) است.

روشی که ما این ریسک را مدیریت می‌کنیم از طریق یک استراتژی چند لایه است که قابلیت‌های RAI را در قالب افراد، فرآیندها و فناوری ایجاد می‌کند. از نظر افراد، این در مورد توانمندسازی رهبرانی است که مسئول RAI هستند (به عنوان مثال، افسران ارشد تجزیه و تحلیل داده، افسران ارشد هوش مصنوعی، روسای علوم داده، معاونان ML) و آموزش پزشکان و کاربران برای توسعه، مدیریت و استفاده مسئولانه از هوش مصنوعی. . از نظر فرآیند، این امر در مورد اداره و کنترل چرخه حیات پایان به انتها، از دسترسی به داده ها و آموزش مدل گرفته تا استقرار مدل، نظارت و آموزش مجدد است. و از نظر فناوری، پلتفرم‌ها از اهمیت ویژه‌ای برخوردار هستند، زیرا از افراد و فرآیندها در مقیاس پشتیبانی می‌کنند و آن‌ها را قادر می‌سازند. آن‌ها دسترسی به روش‌های RAI را دموکراتیک می‌کنند – به عنوان مثال، برای توضیح‌پذیری، تشخیص سوگیری، کاهش تعصب، ارزیابی عادلانه، و نظارت بر رانش – و حاکمیت مصنوعات هوش مصنوعی، ردیابی اصل و نسب، اسناد خودکار، هماهنگ‌سازی گردش‌های کاری تایید، داده‌های ایمن و همچنین تعداد بیشماری را اعمال می‌کنند. ویژگی هایی برای ساده سازی فرآیندهای RAI

هوش مصنوعی مولد و مهاجرت به ابر عمومی

اینها قابلیت‌هایی هستند که تیم‌های پیشرفته هوش مصنوعی در صنایع به شدت تحت نظارت، مانند داروسازی، خدمات مالی، و بیمه، قبلاً از آن‌ها ایجاد کرده‌اند و ارزش ایجاد کرده‌اند. آن‌ها قابلیت‌هایی هستند که با مزایای اجرای سریع‌تر، پذیرش بیشتر، عملکرد بهتر و قابلیت اطمینان بهبود یافته، اعتماد را به تمام هوش مصنوعی یا به طور خاص هوش مصنوعی مولد در مقیاس ایجاد می‌کنند. آنها کمک می کنند تا ابتکارات هوش مصنوعی خود را از مقررات آینده هوش مصنوعی اثبات کنند و مهمتر از همه، همه ما را ایمن تر می کنند. هوش مصنوعی مسئول می تواند کلید باز کردن ارزش هوش مصنوعی در مقیاس باشد، اما ابتدا باید برخی از افسانه ها را از بین ببرید.

کجل کارلسون رئیس استراتژی هوش مصنوعی در آزمایشگاه داده دومینو است.

Generative AI Insights مکانی را برای رهبران فناوری – از جمله فروشندگان و سایر مشارکت‌کنندگان خارجی – فراهم می‌کند تا چالش‌ها و فرصت‌های هوش مصنوعی مولد را بررسی و بحث کنند. این انتخاب گسترده است، از غواصی عمیق فناوری گرفته تا مطالعات موردی گرفته تا نظرات متخصص، اما همچنین ذهنی است، بر اساس قضاوت ما در مورد اینکه کدام موضوعات و درمان ها به بهترین وجه به مخاطبان فنی پیشرفته InfoWorld خدمت می کنند. InfoWorld وثیقه بازاریابی را برای انتشار نمی پذیرد و حق ویرایش تمام محتوای ارائه شده را برای خود محفوظ می دارد. تماس با doug_dineley@foundryco.com.

شاید به این مطالب علاقمند باشید