در حالی که استفاده از هوش مصنوعی همچنان در حال پیشرفت است، انسان ها باید نگهبان حفظ داده های با کیفیت باشند.
هوش مصنوعی از زمان پیدایش خود در دهه ۱۹۵۰ پیشرفت چشمگیری داشته است. امروز، ما شاهد ظهور عصر جدیدی از هوش مصنوعی، هوش مصنوعی مولد هستیم. کسب و کارها با ابزارهایی مانند DALL-E 2 و ChatGPT، و پذیرش هوش مصنوعی در بین مشاغل در هر اندازهای سرعت میگیرد. در واقع، Forrester پیش بینی می کند که هزینه نرم افزار هوش مصنوعی در سال ۲۰۲۵ به ۶۴ میلیارد دلار خواهد رسید که تقریباً دو برابر ۳۳ میلیارد دلار در سال ۲۰۲۱ است.
اگرچه ابزارهای هوش مصنوعی مولد به رشد بازار هوش مصنوعی کمک میکنند، اما مشکلی را تشدید میکنند که کسبوکارهایی که از هوش مصنوعی استقبال میکنند باید فوراً به آن رسیدگی کنند: تعصب هوش مصنوعی. تعصب هوش مصنوعی زمانی اتفاق میافتد که یک مدل هوش مصنوعی، پیشبینیها، طبقهبندیها، یا (در مورد هوش مصنوعی مولد) محتوایی را بر اساس مجموعههای دادهای که حاوی سوگیریهای انسانی است تولید میکند.
اگرچه تعصب هوش مصنوعی جدید نیست، اما با ظهور ابزارهای هوش مصنوعی مولد به طور فزاینده ای برجسته می شود. در این مقاله، برخی از محدودیتها و خطرات هوش مصنوعی و اینکه چگونه کسبوکارها میتوانند با حصول اطمینان از اینکه دانشمندان داده بهعنوان «نگهبان» برای حفظ دادههای با کیفیت بالا عمل میکنند، جلوتر از تعصب هوش مصنوعی صحبت میکنم.
تعصب هوش مصنوعی شهرت تجاری را در معرض خطر قرار می دهد
اگر سوگیری هوش مصنوعی به درستی مورد توجه قرار نگیرد، شهرت شرکت ها می تواند به شدت تحت تاثیر قرار گیرد. هوش مصنوعی میتواند پیشبینیهای نادرستی ایجاد کند که منجر به تصمیمگیری ضعیف میشود. همچنین خطر مشکلات کپی رایت و سرقت ادبی را در نتیجه آموزش هوش مصنوعی بر روی داده ها یا محتوای موجود در دامنه عمومی معرفی می کند. مدلهای هوش مصنوعی مولد همچنین میتوانند نتایج اشتباهی را در صورت آموزش روی مجموعه دادههایی که حاوی نمونههایی از محتوای نادرست یا نادرست در سراسر اینترنت هستند ایجاد کنند.
به عنوان مثال، یک مطالعه از NIST (موسسه ملی استاندارد و فناوری) به این نتیجه رسید که هوش مصنوعی تشخیص چهره اغلب افراد رنگین پوست را به اشتباه شناسایی می کند. یک مطالعه ۲۰۲۱ در مورد وام های رهنی نشان داد که مدل های پیش بینی هوش مصنوعی که برای پذیرش یا رد وام ها استفاده می شود، توصیه های دقیقی برای وام به اقلیت ها ارائه نمی دهد. سایر نمونههایی از تعصب و تبعیض هوش مصنوعی فراوان .
بسیاری از شرکتها در این فکر هستند که چگونه میتوانند کنترل مناسبی بر هوش مصنوعی داشته باشند و بهترین شیوههایی را که میتوانند برای انجام این کار ایجاد کنند. آنها باید یک رویکرد پیشگیرانه برای مدیریت کیفیت داده های آموزشی اتخاذ کنند و این کاملاً در دست انسان است.
داده های با کیفیت بالا به مشارکت انسانی نیاز دارد
بر اساس گزارش ربات داده. با این حال، نزدیک به سه چهارم کسبوکارها هنوز اقداماتی برای کاهش سوگیری در مجموعههای داده انجام ندادهاند.
با توجه به محبوبیت فزاینده ChatGPT و هوش مصنوعی مولد، و ظهور داده های مصنوعی (یا اطلاعات ساخته شده مصنوعی)، دانشمندان داده باید نگهبان داده ها باشند. آموزش دانشمندان داده برای مدیریت بهتر دادهها و اجرای شیوههای اخلاقی برای جمعآوری و تمیز کردن دادهها یک گام ضروری خواهد بود.
تست برای تعصب هوش مصنوعی به سادگی سایر انواع آزمایش نیست، جایی که مشخص است برای چه چیزی باید آزمایش شود و نتیجه به خوبی تعریف شده است. برای محدود کردن سوگیری هوش مصنوعی سه حوزه کلی وجود دارد که باید مراقب آنها بود: سوگیری داده (یا سوگیری مجموعه نمونه)، سوگیری الگوریتم و سوگیری انسانی. فرآیند آزمایش هر منطقه به ابزارها، مجموعه مهارت ها و فرآیندهای متفاوتی نیاز دارد. ابزارهایی مانند LIME (مدل قابل تفسیر محلی- توضیحات Agnostic) و T2IAT (تست ارتباط متن به تصویر) می توانند به کشف سوگیری کمک کنند. انسان ها هنوز هم می توانند ناخواسته تعصب ایجاد کنند. تیم های علم داده باید در این فرآیند هوشیار باشند و به طور مداوم تعصب را بررسی کنند.
همچنین باز نگه داشتن دادهها برای جمعیت متنوعی از دانشمندان داده بسیار مهم است، بنابراین بازنمایی گستردهتری از افرادی که دادهها را نمونهبرداری میکنند و سوگیریهایی را که دیگران ممکن است از دست دادهاند شناسایی کنند. فراگیر بودن و تجربه انسانی در نهایت جای خود را به مدلهای هوش مصنوعی میدهد که بازرسی دادهها را خودکار میکنند و یاد میگیرند به تنهایی سوگیری را تشخیص دهند، زیرا انسانها به سادگی نمیتوانند حجم بالای دادهها را بدون کمک ماشینها دنبال کنند. در این بین، دانشمندان داده باید رهبری را بر عهده بگیرند.
برپایی نرده های محافظ در برابر تعصب هوش مصنوعی
با توجه به افزایش سریع پذیرش هوش مصنوعی، بسیار مهم است که نردههای محافظ و فرآیندهای جدید ایجاد شوند. چنین دستورالعملهایی فرآیندی را برای توسعهدهندگان، دانشمندان داده و هر کسی که در فرآیند تولید هوش مصنوعی دخیل است ایجاد میکند تا از آسیب احتمالی به کسبوکارها و مشتریان آنها جلوگیری کند.
یک روشی که شرکتها میتوانند قبل از انتشار هر سرویس مجهز به هوش مصنوعی معرفی کنند، تیم قرمز در مقابل تیم آبی مورد استفاده در زمینه امنیتی. برای هوش مصنوعی، شرکتها میتوانند یک تیم قرمز و یک تیم آبی را جفت کنند تا سوگیری را آشکار کنند و قبل از ارائه محصول به بازار آن را اصلاح کنند. مهم است که این فرآیند را به تلاشی مداوم تبدیل کنیم تا به کار بر علیه گنجاندن سوگیری در دادهها و الگوریتمها ادامه دهیم.
سازمانها باید قبل از استقرار هر مدلی، دادهها را آزمایش کنند و بعد از استقرار مدل، آن را آزمایش کنند. دانشمندان داده باید تصدیق کنند که گستره تعصبات هوش مصنوعی گسترده است و علیرغم بهترین نیت آنها می تواند عواقب ناخواسته ای داشته باشد. بنابراین، آنها باید متخصصان بیشتری در حوزه خود شوند و محدودیتهای خود را درک کنند تا به آنها کمک کند در تنظیم دادهها و الگوریتمهای خود مسئولیتپذیرتر شوند.
NIST دانشمندان داده را تشویق میکند تا با دانشمندان علوم اجتماعی (که مدتهاست هوش مصنوعی اخلاقی را مطالعه کردهاند) کار کنند و از آموختههای آنها (مانند نحوه مدیریت دادهها) برای مهندسی مدلها و الگوریتمها استفاده کنند. وقتی کل تیم در توجه دقیق به کیفیت داده ها هوشیار باشد، جای کمتری برای تعصب و لکه دار کردن اعتبار یک برند وجود دارد.
سرعت تغییرات و پیشرفتهای هوش مصنوعی در حال تاول زدن است و شرکتها در تلاش برای ادامه دادن هستند. با این وجود، زمان پرداختن به تعصب هوش مصنوعی و تأثیرات منفی بالقوه آن، اکنون فرا رسیده است، قبل از اینکه فرآیندهای یادگیری ماشین و هوش مصنوعی به کار گرفته شوند و منابع سوگیری وارد شوند. و بر روی کیفیت داده ها به منظور کاهش خطرات سوگیری هوش مصنوعی متمرکز شده است.
راوی مایورام مدیر ارشد فناوری اطلاعات Couchbase، ارائه دهنده یک پلت فرم پایگاه داده ابری پیشرو برای برنامه های کاربردی سازمانی که ۳۰٪ از Fortune 100 به آن وابسته است. او یک مدیر مهندسی ماهر با اشتیاق به ایجاد و ارائه محصولات تغییر دهنده بازی برای شرکت های پیشرو در صنعت از استارتاپ ها تا Fortune 500 است.
—
Generative AI Insights مکانی را برای رهبران فناوری – از جمله فروشندگان و سایر اشخاص ثالث – فراهم میکند تا چالشها و فرصتهای هوش مصنوعی مولد را بررسی و بحث کنند. این انتخاب گسترده است، از غواصی عمیق فناوری گرفته تا مطالعات موردی گرفته تا نظرات متخصص، اما همچنین ذهنی است، بر اساس قضاوت ما در مورد اینکه کدام موضوعات و درمانها به بهترین وجه به مخاطبان فنی پیشرفته InfoWorld خدمت میکنند. InfoWorld وثیقه بازاریابی را برای انتشار نمی پذیرد و حق ویرایش تمام محتوای ارائه شده را برای خود محفوظ می دارد. تماس با doug_dineley@foundryco.com a>.
پست های مرتبط
چگونه در برابر تعصب هوش مصنوعی اقدام کنیم
چگونه در برابر تعصب هوش مصنوعی اقدام کنیم
چگونه در برابر تعصب هوش مصنوعی اقدام کنیم