سیستم های هوش مصنوعی مولد برای کسب و کار به طرز هشداردهنده ای نادرست هستند. داده ها نیاز به توجه جدی دارند تا از اطلاعات اشتباه، سوگیری یا مشکلات قانونی جلوگیری شود.
این مقاله Axios آنچه را قبلاً میدانیم بیان میکند: پاسخهایی که از بسیاری از سیستمهای هوش مصنوعی مولد (genAI) میآیند گمراهکننده هستند، نه آنچه کاربران درخواست میکنند، یا صرفاً اشتباه هستند. مشکل عمومی این است که شین جونز رهبری مهندسی نرم افزار مایکروسافت نامههای ارسال شده به رئیس FTC لینا خان و هیئت مدیره مایکروسافت در ۶ مارس گفت که تولید کننده تصویر هوش مصنوعی مایکروسافت تصاویر خشونت آمیز و جنسی و در صورت درخواست خاص از تصاویر دارای حق نسخه برداری استفاده می کند.
البته، مدلهای زبان بزرگ (LLM) عظیم و قابل دسترس عموم بیشترین توجه منفی را به خود جلب میکنند. در مورد برنامههای تجاری که از هوش مصنوعی مولد استفاده میکنند چطور؟ مطمئناً تمرکز کوچکتر پاسخ های با کیفیت بهتری را به همراه خواهد داشت. نه.
جایی که هوش مصنوعی مولد اشتباه می کند
بسیاری به من می گویند که فکر می کنند هوش مصنوعی مولد قرار است بهترین شانس را برای یک پاسخ اطلاعاتی و مفید ارائه دهد. به نظر می رسد این فناوری آن انتظار را برآورده نمی کند. چه اتفاقی می افتد؟
هوش مصنوعی مولد همان محدودیتهایی را دارد که همه سیستمهای هوش مصنوعی دارند: این به دادههای مورد استفاده برای آموزش مدل بستگی دارد. دادههای ناقص مدلهای هوش مصنوعی بد خلق میکنند. بدتر از آن، پاسخ های اشتباه یا پاسخ هایی دریافت می کنید که ممکن است شما را به مشکلات قانونی وارد کند. مهم است که محدودیتهای ذاتی این سیستمها را بپذیریم و درک کنیم که در مواقعی، آنها میتوانند چیزی را که منطقاً «حماقت» نامیده میشود، نشان دهند. این حماقت می تواند شما را از کار بیاندازد یا از شما به عصر حجر شکایت کند.
مدلهای هوش مصنوعی مولد، از جمله مدلهایی مانند GPT، بر اساس الگوها و تداعیهای آموختهشده از مجموعه دادههای گسترده عمل میکنند. اگرچه این مدلها میتوانند پاسخهای منسجم و مرتبط با زمینه ایجاد کنند، اما فاقد درک و آگاهی مناسب هستند که منجر به خروجیهایی میشود که ممکن است گیجکننده یا بیمعنی به نظر برسند.
شما می توانید از یک مدل زبان بزرگ عمومی بخواهید که یک مقاله تاریخی ایجاد کند و توضیح دهد که ناپلئون در جنگ داخلی ایالات متحده شرکت کرده است. این خطا به راحتی قابل تشخیص است، اما اشتباهات انجام شده در یک سیستم بهینه سازی زنجیره تامین جدید با قابلیت genAI ممکن است به راحتی قابل تشخیص نباشد. و این خطاها ممکن است باعث از دست رفتن میلیونها دلار درآمد شود.
متوجه شدهام که کاربران این سیستمها پاسخ را بیشتر از سایر سیستمها به عنوان انجیل میپذیرند. اشتباهات اغلب تا زمانی که صدمات زیادی وارد نشود، شناسایی نمی شوند، گاهی اوقات چند ماه بعد.
داده است، احمقانه
بیشتر مشکلات تجاری با هوش مصنوعی مولد ناشی از داده های ناکافی است. شرکتها تمام وقت خود را صرف انتخاب ابزارهای هوش مصنوعی، از جمله سرویسهای ابری عمومی میکنند، اما زمان کافی را صرف شکلدهی بهتر دادههای خود برای ارائه دادههای آموزشی جامد برای این مدلهای هوش مصنوعی نمیکنند. سیستمها «دادههای کثیف» را مصرف میکنند و در نهایت با انواع مشکلات ناشی از این LLMهای تازه ساخته یا مدلهای زبان کوچک (SLM) مواجه میشوند.
کسبوکارها این مشکل را درک میکنند، اما به نظر میرسد مشکلی ندارند که با سیستمهای هوش مصنوعی مولد بدون اصلاح دادههای دریافت شده به جلو حرکت کنند. آنها اغلب تصور میکنند که ابزارهای هوش مصنوعی دادههای ناقص و اشتباه را پیدا میکنند و آنها را از نظر حذف میکنند.
سیستمهای هوش مصنوعی میتوانند این کار را انجام دهند، تا زمانی که قبل از مشاهده دادهها از یک مدل خاص که قابل اعتماد نیست، فرآیند تأیید انجام شود. فرآیند تأیید میتواند دادههایی را پیدا کند و حذف کند، اما همه دادههای ناکافی به نظر دادههای بد نیستند. اگر داده های اشتباه به عنوان داده های آموزشی وارد شوند، سیستم هوش مصنوعی تولیدی شما احمقانه و احمقانه تر می شود.
بیشتر مشکلاتی که شرکتها با هوش مصنوعی مولد دارند مربوط به دادهها یا دادههایی با کیفیت پایین است که از ابتدا نباید استفاده میشد. اگرچه فکر میکنید که رفع مشکلات دادهها آسان است، اما برای اکثر شرکتها، میلیونها دلار و ماهها یا سالها برای دریافت دادهها در حالتی بکر صحبت میکنید. در عوض، پول صرف هوش مصنوعی می شود نه داده ها. چگونه نتیجه ممکن است متفاوت باشد؟
علاوه بر این، سیستمهای هوش مصنوعی مولد در معرض سوگیری هستند. اگر دادههای آموزشی آنها دارای سوگیری یا نادرستی باشد، مدل ممکن است به طور ناخواسته آنها را در محتوای تولید شده تداوم یا تقویت کند یا مشاوره خودکار با سایر برنامهها و/یا انسانها ارائه دهد. زمانی که سوگیری در مدلها تعبیه شد، برای از بین بردن تعصب کار میشود. بخشهای مختلف مدل ممکن است مسموم شده و جداسازی و حذف آن چالش برانگیز باشد.
مشکلات دیگر با هوش مصنوعی مولد
فقدان عقل سلیم یکی از عوامل اصلی در ایجاد “حماقت” درک شده هوش مصنوعی است. برخلاف انسانها، این سیستمها دانش ذاتی درباره جهان ندارند. آنها بر الگوهای آماری آموخته شده در طول آموزش تکیه می کنند. این نتیجه می تواند پاسخ هایی باشد که ممکن است به درک عمیق تری از دنیای واقعی نیاز داشته باشد.
جنبه دیگری که باید در نظر گرفت حساسیت هوش مصنوعی مولد به عبارت ورودی است. این سیستم بر اساس ورودی هایی که از انسان ها از طریق یک اعلان یا از برنامه های کاربردی با استفاده از API دریافت می کند، پاسخ ها را تولید می کند. تغییرات جزئی در جمله بندی می تواند به نتایج بسیار متفاوتی منجر شود. به دلیل این حساسیت، کاربران ممکن است متوجه شوند که هوش مصنوعی گهگاه پاسخهای غیرمنتظره یا نامربوطی را ایجاد میکند. بسیاری از ارزش های هوش مصنوعی را می توان تنها با پرسیدن سؤالات مناسب و استفاده از روش های مناسب باز کرد.
علاوه بر این، ناتوانی در تشخیص داده های کسب و کار از داده هایی که ممکن است مشمول حق نسخه برداری باشد یا مسائل مربوط به مالکیت IP آشکار می شود. به عنوان مثال، نامه ای سرگشاده از انجمن نویسندگان که توسط بیش از ۸۵۰۰ نویسنده امضا شده است، از شرکت های فناوری مسئول برنامه های کاربردی هوش مصنوعی مانند OpenAI (ChatGPT) و Google (Gemini، که قبلاً با نام Bard شناخته می شد) می خواهد استفاده از آثار خود را بدون مجوز مناسب متوقف کنند. یا جبران خسارت من سؤالات بزرگی از LLMهای عمومی پرسیده ام و چند بار تکه هایی از کارهایم به صورت طوطی وار به من بازگردانده شده است. مطمئنم از کتاب ها و هزاران مقاله من (شاید از این سایت) به عنوان داده های آموزشی برای این LLM ها استفاده شده است.
کسبوکارهایی که از این LLMها برای بخشهایی از پردازش کسبوکار خود استفاده میکنند، میتوانند در صورت استفاده از مالکیت معنوی شخص دیگری برای اهداف تجاری ارزشمند، خود را در معرض شکایت قرار دهند. به عنوان مثال، LLM ممکن است ندانسته از فرآیندهایی برای مدیریت زنجیره تامین استفاده کند که در یک متن دارای حق چاپ توضیح داده شده است تا زنجیره تامین شما را بهینه کند، از جمله الگوریتم های منتشر شده. به همین دلیل است که اکثر شرکتها استفاده از سیستمهای هوش مصنوعی مولد عمومی را برای اهداف تجاری منع میکنند. این یک خطر قابل توجه است.
همانطور که به این سفر برای یافتن نیروانای هوش مصنوعی مولد ادامه میدهیم، متقاعد شدهام که ابتدا باید یاد بگیریم که چگونه به این مسائل و مسائل دیگر رسیدگی کنیم. با عرض پوزش از این که حرفی برای گفتن دارم.
پست های مرتبط
چرا سیستم های هوش مصنوعی مولد احمقانه هستند؟
چرا سیستم های هوش مصنوعی مولد احمقانه هستند؟
چرا سیستم های هوش مصنوعی مولد احمقانه هستند؟