۳۰ شهریور ۱۴۰۳

Techboy

اخبار و اطلاعات روز تکنولوژی

چرا سیستم های هوش مصنوعی مولد احمقانه هستند؟

سیستم های هوش مصنوعی مولد برای کسب و کار به طرز هشداردهنده ای نادرست هستند. داده ها نیاز به توجه جدی دارند تا از اطلاعات اشتباه، سوگیری یا مشکلات قانونی جلوگیری شود.

سیستم های هوش مصنوعی مولد برای کسب و کار به طرز هشداردهنده ای نادرست هستند. داده ها نیاز به توجه جدی دارند تا از اطلاعات اشتباه، سوگیری یا مشکلات قانونی جلوگیری شود.

این مقاله Axios آنچه را قبلاً می‌دانیم بیان می‌کند: پاسخ‌هایی که از بسیاری از سیستم‌های هوش مصنوعی مولد (genAI) می‌آیند گمراه‌کننده هستند، نه آنچه کاربران درخواست می‌کنند، یا صرفاً اشتباه هستند. مشکل عمومی این است که شین جونز رهبری مهندسی نرم افزار مایکروسافت نامه‌های ارسال شده به رئیس FTC لینا خان و هیئت مدیره مایکروسافت در ۶ مارس گفت که تولید کننده تصویر هوش مصنوعی مایکروسافت تصاویر خشونت آمیز و جنسی و در صورت درخواست خاص از تصاویر دارای حق نسخه برداری استفاده می کند.

البته، مدل‌های زبان بزرگ (LLM) عظیم و قابل دسترس عموم بیشترین توجه منفی را به خود جلب می‌کنند. در مورد برنامه‌های تجاری که از هوش مصنوعی مولد استفاده می‌کنند چطور؟ مطمئناً تمرکز کوچکتر پاسخ های با کیفیت بهتری را به همراه خواهد داشت. نه.

جایی که هوش مصنوعی مولد اشتباه می کند

بسیاری به من می گویند که فکر می کنند هوش مصنوعی مولد قرار است بهترین شانس را برای یک پاسخ اطلاعاتی و مفید ارائه دهد. به نظر می رسد این فناوری آن انتظار را برآورده نمی کند. چه اتفاقی می افتد؟

هوش مصنوعی مولد همان محدودیت‌هایی را دارد که همه سیستم‌های هوش مصنوعی دارند: این به داده‌های مورد استفاده برای آموزش مدل بستگی دارد. داده‌های ناقص مدل‌های هوش مصنوعی بد خلق می‌کنند. بدتر از آن، پاسخ های اشتباه یا پاسخ هایی دریافت می کنید که ممکن است شما را به مشکلات قانونی وارد کند. مهم است که محدودیت‌های ذاتی این سیستم‌ها را بپذیریم و درک کنیم که در مواقعی، آن‌ها می‌توانند چیزی را که منطقاً «حماقت» نامیده می‌شود، نشان دهند. این حماقت می تواند شما را از کار بیاندازد یا از شما به عصر حجر شکایت کند.

مدل‌های هوش مصنوعی مولد، از جمله مدل‌هایی مانند GPT، بر اساس الگوها و تداعی‌های آموخته‌شده از مجموعه داده‌های گسترده عمل می‌کنند. اگرچه این مدل‌ها می‌توانند پاسخ‌های منسجم و مرتبط با زمینه ایجاد کنند، اما فاقد درک و آگاهی مناسب هستند که منجر به خروجی‌هایی می‌شود که ممکن است گیج‌کننده یا بی‌معنی به نظر برسند.

پس از کاهش مشاغل، MariaDB با آینده مالی نامشخصی روبرو است

شما می توانید از یک مدل زبان بزرگ عمومی بخواهید که یک مقاله تاریخی ایجاد کند و توضیح دهد که ناپلئون در جنگ داخلی ایالات متحده شرکت کرده است. این خطا به راحتی قابل تشخیص است، اما اشتباهات انجام شده در یک سیستم بهینه سازی زنجیره تامین جدید با قابلیت genAI ممکن است به راحتی قابل تشخیص نباشد. و این خطاها ممکن است باعث از دست رفتن میلیون‌ها دلار درآمد شود.

متوجه شده‌ام که کاربران این سیستم‌ها پاسخ را بیشتر از سایر سیستم‌ها به عنوان انجیل می‌پذیرند. اشتباهات اغلب تا زمانی که صدمات زیادی وارد نشود، شناسایی نمی شوند، گاهی اوقات چند ماه بعد.

داده است، احمقانه

بیشتر مشکلات تجاری با هوش مصنوعی مولد ناشی از داده های ناکافی است. شرکت‌ها تمام وقت خود را صرف انتخاب ابزارهای هوش مصنوعی، از جمله سرویس‌های ابری عمومی می‌کنند، اما زمان کافی را صرف شکل‌دهی بهتر داده‌های خود برای ارائه داده‌های آموزشی جامد برای این مدل‌های هوش مصنوعی نمی‌کنند. سیستم‌ها «داده‌های کثیف» را مصرف می‌کنند و در نهایت با انواع مشکلات ناشی از این LLM‌های تازه ساخته یا مدل‌های زبان کوچک (SLM) مواجه می‌شوند.

کسب‌وکارها این مشکل را درک می‌کنند، اما به نظر می‌رسد مشکلی ندارند که با سیستم‌های هوش مصنوعی مولد بدون اصلاح داده‌های دریافت شده به جلو حرکت کنند. آن‌ها اغلب تصور می‌کنند که ابزارهای هوش مصنوعی داده‌های ناقص و اشتباه را پیدا می‌کنند و آن‌ها را از نظر حذف می‌کنند.

سیستم‌های هوش مصنوعی می‌توانند این کار را انجام دهند، تا زمانی که قبل از مشاهده داده‌ها از یک مدل خاص که قابل اعتماد نیست، فرآیند تأیید انجام شود. فرآیند تأیید می‌تواند داده‌هایی را پیدا کند و حذف کند، اما همه داده‌های ناکافی به نظر داده‌های بد نیستند. اگر داده های اشتباه به عنوان داده های آموزشی وارد شوند، سیستم هوش مصنوعی تولیدی شما احمقانه و احمقانه تر می شود.

چگونه حاکمیت داده باید برای مقابله با چالش هوش مصنوعی مولد تکامل یابد

بیشتر مشکلاتی که شرکت‌ها با هوش مصنوعی مولد دارند مربوط به داده‌ها یا داده‌هایی با کیفیت پایین است که از ابتدا نباید استفاده می‌شد. اگرچه فکر می‌کنید که رفع مشکلات داده‌ها آسان است، اما برای اکثر شرکت‌ها، میلیون‌ها دلار و ماه‌ها یا سال‌ها برای دریافت داده‌ها در حالتی بکر صحبت می‌کنید. در عوض، پول صرف هوش مصنوعی می شود نه داده ها. چگونه نتیجه ممکن است متفاوت باشد؟

علاوه بر این، سیستم‌های هوش مصنوعی مولد در معرض سوگیری هستند. اگر داده‌های آموزشی آن‌ها دارای سوگیری یا نادرستی باشد، مدل ممکن است به طور ناخواسته آنها را در محتوای تولید شده تداوم یا تقویت کند یا مشاوره خودکار با سایر برنامه‌ها و/یا انسان‌ها ارائه دهد. زمانی که سوگیری در مدل‌ها تعبیه شد، برای از بین بردن تعصب کار می‌شود. بخش‌های مختلف مدل ممکن است مسموم شده و جداسازی و حذف آن چالش برانگیز باشد.

مشکلات دیگر با هوش مصنوعی مولد

فقدان عقل سلیم یکی از عوامل اصلی در ایجاد “حماقت” درک شده هوش مصنوعی است. برخلاف انسان‌ها، این سیستم‌ها دانش ذاتی درباره جهان ندارند. آنها بر الگوهای آماری آموخته شده در طول آموزش تکیه می کنند. این نتیجه می تواند پاسخ هایی باشد که ممکن است به درک عمیق تری از دنیای واقعی نیاز داشته باشد.

جنبه دیگری که باید در نظر گرفت حساسیت هوش مصنوعی مولد به عبارت ورودی است. این سیستم بر اساس ورودی هایی که از انسان ها از طریق یک اعلان یا از برنامه های کاربردی با استفاده از API دریافت می کند، پاسخ ها را تولید می کند. تغییرات جزئی در جمله بندی می تواند به نتایج بسیار متفاوتی منجر شود. به دلیل این حساسیت، کاربران ممکن است متوجه شوند که هوش مصنوعی گهگاه پاسخ‌های غیرمنتظره یا نامربوطی را ایجاد می‌کند. بسیاری از ارزش های هوش مصنوعی را می توان تنها با پرسیدن سؤالات مناسب و استفاده از روش های مناسب باز کرد.

Snowflake برای افزودن ابزارهای توسعه دهنده به Snowpark، ویژگی مدیریت هزینه را برنامه ریزی می کند

علاوه بر این، ناتوانی در تشخیص داده های کسب و کار از داده هایی که ممکن است مشمول حق نسخه برداری باشد یا مسائل مربوط به مالکیت IP آشکار می شود. به عنوان مثال، نامه ای سرگشاده از انجمن نویسندگان که توسط بیش از ۸۵۰۰ نویسنده امضا شده است، از شرکت های فناوری مسئول برنامه های کاربردی هوش مصنوعی مانند OpenAI (ChatGPT) و Google (Gemini، که قبلاً با نام Bard شناخته می شد) می خواهد استفاده از آثار خود را بدون مجوز مناسب متوقف کنند. یا جبران خسارت من سؤالات بزرگی از LLMهای عمومی پرسیده ام و چند بار تکه هایی از کارهایم به صورت طوطی وار به من بازگردانده شده است. مطمئنم از کتاب ها و هزاران مقاله من (شاید از این سایت) به عنوان داده های آموزشی برای این LLM ها استفاده شده است.

کسب‌وکارهایی که از این LLM‌ها برای بخش‌هایی از پردازش کسب‌وکار خود استفاده می‌کنند، می‌توانند در صورت استفاده از مالکیت معنوی شخص دیگری برای اهداف تجاری ارزشمند، خود را در معرض شکایت قرار دهند. به عنوان مثال، LLM ممکن است ندانسته از فرآیندهایی برای مدیریت زنجیره تامین استفاده کند که در یک متن دارای حق چاپ توضیح داده شده است تا زنجیره تامین شما را بهینه کند، از جمله الگوریتم های منتشر شده. به همین دلیل است که اکثر شرکت‌ها استفاده از سیستم‌های هوش مصنوعی مولد عمومی را برای اهداف تجاری منع می‌کنند. این یک خطر قابل توجه است.

همانطور که به این سفر برای یافتن نیروانای هوش مصنوعی مولد ادامه می‌دهیم، متقاعد شده‌ام که ابتدا باید یاد بگیریم که چگونه به این مسائل و مسائل دیگر رسیدگی کنیم. با عرض پوزش از این که حرفی برای گفتن دارم.