۳۰ آذر ۱۴۰۳

Techboy

اخبار و اطلاعات روز تکنولوژی

چگونه در برابر تعصب هوش مصنوعی اقدام کنیم

در حالی که استفاده از هوش مصنوعی همچنان در حال پیشرفت است، انسان ها باید نگهبان حفظ داده های با کیفیت باشند.

در حالی که استفاده از هوش مصنوعی همچنان در حال پیشرفت است، انسان ها باید نگهبان حفظ داده های با کیفیت باشند.

هوش مصنوعی از زمان پیدایش خود در دهه ۱۹۵۰ پیشرفت چشمگیری داشته است. امروز، ما شاهد ظهور عصر جدیدی از هوش مصنوعی، هوش مصنوعی مولد هستیم. کسب و کارها با ابزارهایی مانند DALL-E 2 و ChatGPT، و پذیرش هوش مصنوعی در بین مشاغل در هر اندازه‌ای سرعت می‌گیرد. در واقع، Forrester پیش بینی می کند که هزینه نرم افزار هوش مصنوعی در سال ۲۰۲۵ به ۶۴ میلیارد دلار خواهد رسید که تقریباً دو برابر ۳۳ میلیارد دلار در سال ۲۰۲۱ است.

اگرچه ابزارهای هوش مصنوعی مولد به رشد بازار هوش مصنوعی کمک می‌کنند، اما مشکلی را تشدید می‌کنند که کسب‌وکارهایی که از هوش مصنوعی استقبال می‌کنند باید فوراً به آن رسیدگی کنند: تعصب هوش مصنوعی. تعصب هوش مصنوعی زمانی اتفاق می‌افتد که یک مدل هوش مصنوعی، پیش‌بینی‌ها، طبقه‌بندی‌ها، یا (در مورد هوش مصنوعی مولد) محتوایی را بر اساس مجموعه‌های داده‌ای که حاوی سوگیری‌های انسانی است تولید می‌کند.

اگرچه تعصب هوش مصنوعی جدید نیست، اما با ظهور ابزارهای هوش مصنوعی مولد به طور فزاینده ای برجسته می شود. در این مقاله، برخی از محدودیت‌ها و خطرات هوش مصنوعی و اینکه چگونه کسب‌وکارها می‌توانند با حصول اطمینان از اینکه دانشمندان داده به‌عنوان «نگهبان» برای حفظ داده‌های با کیفیت بالا عمل می‌کنند، جلوتر از تعصب هوش مصنوعی صحبت می‌کنم. 

تعصب هوش مصنوعی شهرت تجاری را در معرض خطر قرار می دهد

اگر سوگیری هوش مصنوعی به درستی مورد توجه قرار نگیرد، شهرت شرکت ها می تواند به شدت تحت تاثیر قرار گیرد. هوش مصنوعی می‌تواند پیش‌بینی‌های نادرستی ایجاد کند که منجر به تصمیم‌گیری ضعیف می‌شود. همچنین خطر مشکلات کپی رایت و سرقت ادبی را در نتیجه آموزش هوش مصنوعی بر روی داده ها یا محتوای موجود در دامنه عمومی معرفی می کند. مدل‌های هوش مصنوعی مولد همچنین می‌توانند نتایج اشتباهی را در صورت آموزش روی مجموعه داده‌هایی که حاوی نمونه‌هایی از محتوای نادرست یا نادرست در سراسر اینترنت هستند ایجاد کنند.

8 زبان برنامه نویسی که دوست داریم از آنها متنفر باشیم - اما نمی توانیم بدون آنها زندگی کنیم

به عنوان مثال، یک مطالعه از ​NIST (موسسه ملی استاندارد و فناوری) به این نتیجه رسید که هوش مصنوعی تشخیص چهره اغلب افراد رنگین پوست را به اشتباه شناسایی می کند. یک مطالعه ۲۰۲۱ در مورد وام های رهنی نشان داد که مدل های پیش بینی هوش مصنوعی که برای پذیرش یا رد وام ها استفاده می شود، توصیه های دقیقی برای وام به اقلیت ها ارائه نمی دهد. سایر نمونه‌هایی از تعصب و تبعیض هوش مصنوعی فراوان .

بسیاری از شرکت‌ها در این فکر هستند که چگونه می‌توانند کنترل مناسبی بر هوش مصنوعی داشته باشند و بهترین شیوه‌هایی را که می‌توانند برای انجام این کار ایجاد کنند. آنها باید یک رویکرد پیشگیرانه برای مدیریت کیفیت داده های آموزشی اتخاذ کنند و این کاملاً در دست انسان است.

داده های با کیفیت بالا به مشارکت انسانی نیاز دارد

بر اساس گزارش ربات داده. با این حال، نزدیک به سه چهارم کسب‌وکارها هنوز اقداماتی برای کاهش سوگیری در مجموعه‌های داده انجام نداده‌اند.

با توجه به محبوبیت فزاینده ChatGPT و هوش مصنوعی مولد، و ظهور داده های مصنوعی (یا اطلاعات ساخته شده مصنوعی)، دانشمندان داده باید نگهبان داده ها باشند. آموزش دانشمندان داده برای مدیریت بهتر داده‌ها و اجرای شیوه‌های اخلاقی برای جمع‌آوری و تمیز کردن داده‌ها یک گام ضروری خواهد بود.

تست برای تعصب هوش مصنوعی به سادگی سایر انواع آزمایش نیست، جایی که مشخص است برای چه چیزی باید آزمایش شود و نتیجه به خوبی تعریف شده است. برای محدود کردن سوگیری هوش مصنوعی سه حوزه کلی وجود دارد که باید مراقب آنها بود: سوگیری داده (یا سوگیری مجموعه نمونه)، سوگیری الگوریتم و سوگیری انسانی. فرآیند آزمایش هر منطقه به ابزارها، مجموعه مهارت ها و فرآیندهای متفاوتی نیاز دارد. ابزارهایی مانند LIME (مدل قابل تفسیر محلی- توضیحات Agnostic) و T2IAT (تست ارتباط متن به تصویر) می توانند به کشف سوگیری کمک کنند. انسان ها هنوز هم می توانند ناخواسته تعصب ایجاد کنند. تیم های علم داده باید در این فرآیند هوشیار باشند و به طور مداوم تعصب را بررسی کنند.

Deno مدیریت وابستگی را با JSR تقویت می کند

همچنین باز نگه داشتن داده‌ها برای جمعیت متنوعی از دانشمندان داده بسیار مهم است، بنابراین بازنمایی گسترده‌تری از افرادی که داده‌ها را نمونه‌برداری می‌کنند و سوگیری‌هایی را که دیگران ممکن است از دست داده‌اند شناسایی کنند. فراگیر بودن و تجربه انسانی در نهایت جای خود را به مدل‌های هوش مصنوعی می‌دهد که بازرسی داده‌ها را خودکار می‌کنند و یاد می‌گیرند به تنهایی سوگیری را تشخیص دهند، زیرا انسان‌ها به سادگی نمی‌توانند حجم بالای داده‌ها را بدون کمک ماشین‌ها دنبال کنند. در این بین، دانشمندان داده باید رهبری را بر عهده بگیرند.

برپایی نرده های محافظ در برابر تعصب هوش مصنوعی

با توجه به افزایش سریع پذیرش هوش مصنوعی، بسیار مهم است که نرده‌های محافظ و فرآیندهای جدید ایجاد شوند. چنین دستورالعمل‌هایی فرآیندی را برای توسعه‌دهندگان، دانشمندان داده و هر کسی که در فرآیند تولید هوش مصنوعی دخیل است ایجاد می‌کند تا از آسیب احتمالی به کسب‌وکارها و مشتریان آن‌ها جلوگیری کند.

یک روشی که شرکت‌ها می‌توانند قبل از انتشار هر سرویس مجهز به هوش مصنوعی معرفی کنند، تیم قرمز در مقابل تیم آبی مورد استفاده در زمینه امنیتی. برای هوش مصنوعی، شرکت‌ها می‌توانند یک تیم قرمز و یک تیم آبی را جفت کنند تا سوگیری را آشکار کنند و قبل از ارائه محصول به بازار آن را اصلاح کنند. مهم است که این فرآیند را به تلاشی مداوم تبدیل کنیم تا به کار بر علیه گنجاندن سوگیری در داده‌ها و الگوریتم‌ها ادامه دهیم.

سازمان‌ها باید قبل از استقرار هر مدلی، داده‌ها را آزمایش کنند و بعد از استقرار مدل، آن را آزمایش کنند. دانشمندان داده باید تصدیق کنند که گستره تعصبات هوش مصنوعی گسترده است و علیرغم بهترین نیت آنها می تواند عواقب ناخواسته ای داشته باشد. بنابراین، آنها باید متخصصان بیشتری در حوزه خود شوند و محدودیت‌های خود را درک کنند تا به آنها کمک کند در تنظیم داده‌ها و الگوریتم‌های خود مسئولیت‌پذیرتر شوند.

Quarkus: با جاوا بومی Kubernetes شروع کنید

NIST دانشمندان داده را تشویق می‌کند تا با دانشمندان علوم اجتماعی (که مدت‌هاست هوش مصنوعی اخلاقی را مطالعه کرده‌اند) کار کنند و از آموخته‌های آنها (مانند نحوه مدیریت داده‌ها) برای مهندسی مدل‌ها و الگوریتم‌ها استفاده کنند. وقتی کل تیم در توجه دقیق به کیفیت داده ها هوشیار باشد، جای کمتری برای تعصب و لکه دار کردن اعتبار یک برند وجود دارد.

سرعت تغییرات و پیشرفت‌های هوش مصنوعی در حال تاول زدن است و شرکت‌ها در تلاش برای ادامه دادن هستند. با این وجود، زمان پرداختن به تعصب هوش مصنوعی و تأثیرات منفی بالقوه آن، اکنون فرا رسیده است، قبل از اینکه فرآیندهای یادگیری ماشین و هوش مصنوعی به کار گرفته شوند و منابع سوگیری وارد شوند. و بر روی کیفیت داده ها به منظور کاهش خطرات سوگیری هوش مصنوعی متمرکز شده است.

راوی مایورام مدیر ارشد فناوری اطلاعات Couchbase، ارائه دهنده یک پلت فرم پایگاه داده ابری پیشرو برای برنامه های کاربردی سازمانی که ۳۰٪ از Fortune 100 به آن وابسته است. او یک مدیر مهندسی ماهر با اشتیاق به ایجاد و ارائه محصولات تغییر دهنده بازی برای شرکت های پیشرو در صنعت از استارتاپ ها تا Fortune 500 است.

Generative AI Insights مکانی را برای رهبران فناوری – از جمله فروشندگان و سایر اشخاص ثالث – فراهم می‌کند تا چالش‌ها و فرصت‌های هوش مصنوعی مولد را بررسی و بحث کنند. این انتخاب گسترده است، از غواصی عمیق فناوری گرفته تا مطالعات موردی گرفته تا نظرات متخصص، اما همچنین ذهنی است، بر اساس قضاوت ما در مورد اینکه کدام موضوعات و درمان‌ها به بهترین وجه به مخاطبان فنی پیشرفته InfoWorld خدمت می‌کنند. InfoWorld وثیقه بازاریابی را برای انتشار نمی پذیرد و حق ویرایش تمام محتوای ارائه شده را برای خود محفوظ می دارد. تماس با doug_dineley@foundryco.com.