توهمات مدل های زبانی بزرگ عمدتاً ناشی از کمبود در مجموعه داده ها و آموزش است. اینها را می توان با تولید افزوده بازیابی و داده های زمان واقعی کاهش داد.
هوش مصنوعی شاید تاثیرگذارترین فناوری دوران مدرن باشد. پیشرفتهای اخیر در فناوری ترانسفورماتور و هوش مصنوعی مولد پتانسیل را برای باز کردن نوآوری و نبوغ در مقیاس نشان داده است.
با این حال، هوش مصنوعی مولد بدون چالش نیست، که می تواند به طور قابل توجهی مانع پذیرش و ارزشی شود که می توان با چنین فناوری تحول آفرینی ایجاد کرد. با افزایش پیچیدگی و توانایی مدلهای هوش مصنوعی، چالشهای منحصربهفردی از جمله تولید خروجیهایی که در دادههای ورودی مبتنی نیستند را نیز ارائه میکنند.
این به اصطلاح «توهم» مواردی هستند که مدلها خروجیهایی تولید میکنند که اگرچه منسجم هستند، اما ممکن است از واقعیت واقعی یا از زمینه ورودی جدا باشند. این مقاله به طور مختصر به بررسی تأثیرات تحولآفرین هوش مصنوعی مولد میپردازد، کاستیها و چالشهای این فناوری را بررسی میکند و تکنیکهای موجود برای کاهش توهمات را مورد بحث قرار میدهد.
اثر دگرگونی هوش مصنوعی مولد
مدل های هوش مصنوعی مولد از یک فرآیند محاسباتی پیچیده به نام یادگیری عمیق برای شناسایی الگوها در مجموعه های بزرگ داده استفاده می کنند و سپس از این اطلاعات برای ایجاد استفاده می کنند. خروجی های جدید و قانع کننده مدلها این کار را با ترکیب تکنیکهای یادگیری ماشینی معروف به شبکههای عصبی انجام میدهند، که به طور ضعیفی از روشی که مغز انسان اطلاعات را پردازش و تفسیر میکند و سپس در طول زمان از آنها یاد میگیرد، الهام میگیرد.
مدل های هوش مصنوعی مولد مانند GPT-4 OpenAI و Google’s Palm 2 پتانسیل تسریع نوآوریها در اتوماسیون، تجزیه و تحلیل دادهها و تجربه کاربر را دارد. این مدل ها می توانند کد بنویسند، مقالات را خلاصه کنند و حتی به تشخیص بیماری ها کمک کنند. با این حال، دوام و ارزش نهایی این مدل ها به دقت و قابلیت اطمینان آنها بستگی دارد. در بخشهای حیاتی مانند مراقبتهای بهداشتی، مالی، یا خدمات حقوقی، دقت قابل اعتماد از اهمیت بالایی برخوردار است. اما برای همه کاربران، برای باز کردن پتانسیل کامل هوش مصنوعی مولد، باید به این چالش ها رسیدگی شود.
کاستیهای مدلهای زبان بزرگ
LLMها اساساً احتمالی و غیر قطعی هستند. آنها متنی را بر اساس احتمال ظاهر شدن یک توالی خاص از کلمات بعدی تولید می کنند. LLM ها مفهومی از دانش ندارند و صرفاً بر پیمایش در مجموعه آموزش دیده داده ها به عنوان موتور توصیه تکیه می کنند. آنها متنی را تولید می کنند که عموماً از قواعد دستور زبان و معناشناسی پیروی می کند، اما صرفاً مبتنی بر سازگاری آماری رضایت بخش با دستور است.
این ماهیت احتمالی LLM می تواند هم نقطه قوت و هم ضعف باشد. اگر هدف تولید پاسخ صحیح یا اتخاذ تصمیمات حیاتی بر اساس پاسخ باشد، توهم بد است و حتی می تواند آسیب زا باشد. با این حال، اگر هدف یک تلاش خلاقانه باشد، می توان از LLM برای پرورش خلاقیت هنری برای تولید آثار هنری، داستان ها و فیلمنامه ها نسبتاً سریع استفاده کرد.
اما، صرف نظر از هدف، عدم اعتماد به خروجی مدل LLM می تواند عواقب جدی داشته باشد. این نه تنها اعتماد به قابلیتهای این سیستمها را از بین میبرد، بلکه تأثیری را که هوش مصنوعی میتواند بر تسریع بهرهوری و نوآوری انسان بگذارد، بهطور قابلتوجهی کاهش میدهد.
در نهایت، هوش مصنوعی به اندازه داده هایی است که روی آن آموزش دیده است. توهمات یک LLM عمدتاً ناشی از کمبود مجموعه داده و آموزش است، از جمله موارد زیر.
- تناسب بیش از حد: تطبیق بیش از حد زمانی اتفاق میافتد که یک مدل دادههای آموزشی، از جمله نویز و نقاط پرت را به خوبی یاد بگیرد. پیچیدگی مدل، داده های آموزشی پر سر و صدا، یا داده های آموزشی ناکافی منجر به بیش از حد برازش می شود. این باعث تشخیص الگوی با کیفیت پایین می شود و از تعمیم مدل به خوبی به داده های جدید جلوگیری می کند که منجر به خطاهای طبقه بندی و پیش بینی، خروجی نادرست واقعی، خروجی با نسبت سیگنال به نویز پایین یا توهمات آشکار می شود.
- کیفیت دادهها: برچسبگذاری نادرست و دستهبندی اشتباه دادههای مورد استفاده برای آموزش میتواند نقش مهمی در توهم داشته باشد. دادههای مغرضانه یا فقدان دادههای مرتبط در واقع میتواند منجر به خروجیهایی از مدل شود که ممکن است دقیق به نظر برسند اما میتوانند مضر باشند، بسته به محدوده تصمیمگیری توصیههای مدل.
- پراکندگی داده ها: تنگی داده ها یا نیاز به داده های تازه یا مرتبط یکی از مشکلات مهمی است که منجر به توهم می شود و مانع پذیرش می شود. هوش مصنوعی مولد در شرکت ها تازه کردن داده ها با جدیدترین محتوا و داده های متنی می تواند به کاهش توهمات و سوگیری ها کمک کند.
پرداختن به توهمات در مدل های زبان بزرگ
راههای مختلفی برای رسیدگی به توهمات در LLM وجود دارد، از جمله تکنیکهایی مانند تنظیم دقیق، مهندسی سریع، و تولید تقویتشده با بازیابی (RAG).
- تنظیم دقیق به بازآموزی مدل با دامنه اشاره دارد. – مجموعه دادههای خاص برای تولید دقیقتر محتوای مرتبط با دامنه. با این حال، بازآموزی یا تنظیم دقیق مدل زمان بیشتری می برد و علاوه بر این، بدون آموزش مداوم، داده ها می توانند به سرعت قدیمی شوند. همچنین، مدل های بازآموزی بار هزینه ای قابل توجهی دارند.
- مهندسی سریع کمک به LLM در تولید محصولات بالا نتایج با کیفیت با ارائه ویژگی های توصیفی و شفاف تر در ورودی به LLM به عنوان یک اعلان است. دادن زمینه اضافی به مدل و ایجاد آن در حقیقت، احتمال توهم را در آن کمتر می کند.
- نسل تقویت شده بازیابی (RAG) یک چارچوب است که بر پایه گذاری LLM ها با دقیق ترین و به روزترین اطلاعات تمرکز دارد. با تغذیه مدل با حقایق از یک مخزن دانش خارجی در زمان واقعی، می توانید پاسخ های LLM را بهبود بخشید.
هدف
تولید افزوده شده بازیابی و داده های زمان واقعی
تولید تقویت شده بازیابی یکی از امیدوارکننده ترین تکنیک ها برای بهبود دقت مدل های زبان بزرگ است. RAG همراه با داده های زمان واقعی ثابت کرده است که به طور قابل توجهی توهمات را کاهش می دهد.
RAG سازمان ها را قادر می سازد تا از LLM ها با داده های اختصاصی و متنی که تازه هستند استفاده کنند. علاوه بر کاهش توهم، RAG به مدلهای زبانی کمک میکند تا با غنیسازی ورودی با اطلاعات مربوط به زمینه، پاسخهای دقیقتر و مرتبطتری تولید کنند. تنظیم دقیق اغلب در یک محیط شرکتی غیرعملی است، اما RAG یک جایگزین کم هزینه و با بازده بالا برای ارائه تجربیات کاربر شخصی شده و آگاهانه ارائه می دهد.
برای افزایش اثربخشی مدل RAG، لازم است RAG را با یک ذخیرهسازی داده عملیاتی ترکیب کرد که قابلیت ذخیره دادهها را به زبان مادری LLMها دارد—یعنی، بردارهای ریاضی با ابعاد بالا به نام embeddings که معنای متن را رمزگذاری می کند. پایگاه داده در صورت درخواست، درخواست کاربر را به یک بردار عددی تبدیل می کند. این امر پایگاه داده برداری را قادر میسازد تا برای متن مربوطه پرس و جو شود، صرف نظر از اینکه آیا آنها عبارتهای یکسانی را شامل میشوند یا خیر.
پایگاه داده ای که بسیار در دسترس، کارآمد و قادر به ذخیره و پرس و جو مقادیر عظیمی از داده های بدون ساختار با استفاده از جستجوی معنایی است، جزء حیاتی فرآیند RAG است.
راهول پرادان معاون محصول و استراتژی در Couchbase است، ارائه دهنده یک پایگاه داده مدرن پیشرو برای برنامه های کاربردی سازمانی. Rahul دارای ۲۰ سال تجربه رهبری و مدیریت تیم های مهندسی و محصول با تمرکز بر پایگاه داده، ذخیره سازی، شبکه و فناوری های امنیتی در فضای ابری است.
—
Generative AI Insights مکانی را برای رهبران فناوری – از جمله فروشندگان و سایر مشارکتکنندگان خارجی – فراهم میکند تا چالشها و فرصتهای هوش مصنوعی مولد را بررسی و بحث کنند. این انتخاب گسترده است، از غواصی عمیق فناوری گرفته تا مطالعات موردی گرفته تا نظرات متخصص، اما همچنین ذهنی است، بر اساس قضاوت ما در مورد اینکه کدام موضوعات و درمانها به بهترین وجه به مخاطبان فنی پیشرفته InfoWorld خدمت میکنند. InfoWorld وثیقه بازاریابی را برای انتشار نمی پذیرد و حق ویرایش تمام محتوای ارائه شده را برای خود محفوظ می دارد. تماس با doug_dineley@foundryco.com a>.
پست های مرتبط
پرداختن به توهمات هوش مصنوعی با نسل افزوده بازیابی
پرداختن به توهمات هوش مصنوعی با نسل افزوده بازیابی
پرداختن به توهمات هوش مصنوعی با نسل افزوده بازیابی