۳۰ شهریور ۱۴۰۳

Techboy

اخبار و اطلاعات روز تکنولوژی

پرداختن به توهمات هوش مصنوعی با نسل افزوده بازیابی

توهمات مدل های زبانی بزرگ عمدتاً ناشی از کمبود در مجموعه داده ها و آموزش است. اینها را می توان با تولید افزوده بازیابی و داده های زمان واقعی کاهش داد.

توهمات مدل های زبانی بزرگ عمدتاً ناشی از کمبود در مجموعه داده ها و آموزش است. اینها را می توان با تولید افزوده بازیابی و داده های زمان واقعی کاهش داد.

هوش مصنوعی شاید تاثیرگذارترین فناوری دوران مدرن باشد. پیشرفت‌های اخیر در فناوری ترانسفورماتور و هوش مصنوعی مولد پتانسیل را برای باز کردن نوآوری و نبوغ در مقیاس نشان داده است.

با این حال، هوش مصنوعی مولد بدون چالش نیست، که می تواند به طور قابل توجهی مانع پذیرش و ارزشی شود که می توان با چنین فناوری تحول آفرینی ایجاد کرد. با افزایش پیچیدگی و توانایی مدل‌های هوش مصنوعی، چالش‌های منحصربه‌فردی از جمله تولید خروجی‌هایی که در داده‌های ورودی مبتنی نیستند را نیز ارائه می‌کنند.

این به اصطلاح «توهم» مواردی هستند که مدل‌ها خروجی‌هایی تولید می‌کنند که اگرچه منسجم هستند، اما ممکن است از واقعیت واقعی یا از زمینه ورودی جدا باشند. این مقاله به طور مختصر به بررسی تأثیرات تحول‌آفرین هوش مصنوعی مولد می‌پردازد، کاستی‌ها و چالش‌های این فناوری را بررسی می‌کند و تکنیک‌های موجود برای کاهش توهمات را مورد بحث قرار می‌دهد.

اثر دگرگونی هوش مصنوعی مولد

مدل های هوش مصنوعی مولد از یک فرآیند محاسباتی پیچیده به نام یادگیری عمیق برای شناسایی الگوها در مجموعه های بزرگ داده استفاده می کنند و سپس از این اطلاعات برای ایجاد استفاده می کنند. خروجی های جدید و قانع کننده مدل‌ها این کار را با ترکیب تکنیک‌های یادگیری ماشینی معروف به شبکه‌های عصبی انجام می‌دهند، که به طور ضعیفی از روشی که مغز انسان اطلاعات را پردازش و تفسیر می‌کند و سپس در طول زمان از آن‌ها یاد می‌گیرد، الهام می‌گیرد.

مدل های هوش مصنوعی مولد مانند GPT-4 OpenAI و Google’s Palm 2 پتانسیل تسریع نوآوری‌ها در اتوماسیون، تجزیه و تحلیل داده‌ها و تجربه کاربر را دارد. این مدل ها می توانند کد بنویسند، مقالات را خلاصه کنند و حتی به تشخیص بیماری ها کمک کنند. با این حال، دوام و ارزش نهایی این مدل ها به دقت و قابلیت اطمینان آنها بستگی دارد. در بخش‌های حیاتی مانند مراقبت‌های بهداشتی، مالی، یا خدمات حقوقی، دقت قابل اعتماد از اهمیت بالایی برخوردار است. اما برای همه کاربران، برای باز کردن پتانسیل کامل هوش مصنوعی مولد، باید به این چالش ها رسیدگی شود.

مایکروسافت پسوند Visual Studio IDE را برای ارتقاء دات نت ارائه می دهد

کاستی‌های مدل‌های زبان بزرگ

LLMها اساساً احتمالی و غیر قطعی هستند. آنها متنی را بر اساس احتمال ظاهر شدن یک توالی خاص از کلمات بعدی تولید می کنند. LLM ها مفهومی از دانش ندارند و صرفاً بر پیمایش در مجموعه آموزش دیده داده ها به عنوان موتور توصیه تکیه می کنند. آنها متنی را تولید می کنند که عموماً از قواعد دستور زبان و معناشناسی پیروی می کند، اما صرفاً مبتنی بر سازگاری آماری رضایت بخش با دستور است.

این ماهیت احتمالی LLM می تواند هم نقطه قوت و هم ضعف باشد. اگر هدف تولید پاسخ صحیح یا اتخاذ تصمیمات حیاتی بر اساس پاسخ باشد، توهم بد است و حتی می تواند آسیب زا باشد. با این حال، اگر هدف یک تلاش خلاقانه باشد، می توان از LLM برای پرورش خلاقیت هنری برای تولید آثار هنری، داستان ها و فیلمنامه ها نسبتاً سریع استفاده کرد.

اما، صرف نظر از هدف، عدم اعتماد به خروجی مدل LLM می تواند عواقب جدی داشته باشد. این نه تنها اعتماد به قابلیت‌های این سیستم‌ها را از بین می‌برد، بلکه تأثیری را که هوش مصنوعی می‌تواند بر تسریع بهره‌وری و نوآوری انسان بگذارد، به‌طور قابل‌توجهی کاهش می‌دهد.

در نهایت، هوش مصنوعی به اندازه داده هایی است که روی آن آموزش دیده است. توهمات یک LLM عمدتاً ناشی از کمبود مجموعه داده و آموزش است، از جمله موارد زیر.

  • تناسب بیش از حد: تطبیق بیش از حد زمانی اتفاق می‌افتد که یک مدل داده‌های آموزشی، از جمله نویز و نقاط پرت را به خوبی یاد بگیرد. پیچیدگی مدل، داده های آموزشی پر سر و صدا، یا داده های آموزشی ناکافی منجر به بیش از حد برازش می شود. این باعث تشخیص الگوی با کیفیت پایین می شود و از تعمیم مدل به خوبی به داده های جدید جلوگیری می کند که منجر به خطاهای طبقه بندی و پیش بینی، خروجی نادرست واقعی، خروجی با نسبت سیگنال به نویز پایین یا توهمات آشکار می شود.
  • کیفیت داده‌ها: برچسب‌گذاری نادرست و دسته‌بندی اشتباه داده‌های مورد استفاده برای آموزش می‌تواند نقش مهمی در توهم داشته باشد. داده‌های مغرضانه یا فقدان داده‌های مرتبط در واقع می‌تواند منجر به خروجی‌هایی از مدل شود که ممکن است دقیق به نظر برسند اما می‌توانند مضر باشند، بسته به محدوده تصمیم‌گیری توصیه‌های مدل.
  • پراکندگی داده ها: تنگی داده ها یا نیاز به داده های تازه یا مرتبط یکی از مشکلات مهمی است که منجر به توهم می شود و مانع پذیرش می شود. هوش مصنوعی مولد در شرکت ها تازه کردن داده ها با جدیدترین محتوا و داده های متنی می تواند به کاهش توهمات و سوگیری ها کمک کند.
پشته توسعه ابر دات نت Aspire راه اندازی شد

پرداختن به توهمات در مدل های زبان بزرگ

راه‌های مختلفی برای رسیدگی به توهمات در LLM وجود دارد، از جمله تکنیک‌هایی مانند تنظیم دقیق، مهندسی سریع، و تولید تقویت‌شده با بازیابی (RAG).

  • تنظیم دقیق به بازآموزی مدل با دامنه اشاره دارد. – مجموعه داده‌های خاص برای تولید دقیق‌تر محتوای مرتبط با دامنه. با این حال، بازآموزی یا تنظیم دقیق مدل زمان بیشتری می برد و علاوه بر این، بدون آموزش مداوم، داده ها می توانند به سرعت قدیمی شوند. همچنین، مدل های بازآموزی بار هزینه ای قابل توجهی دارند.
  • هدف

  • مهندسی سریع کمک به LLM در تولید محصولات بالا نتایج با کیفیت با ارائه ویژگی های توصیفی و شفاف تر در ورودی به LLM به عنوان یک اعلان است. دادن زمینه اضافی به مدل و ایجاد آن در حقیقت، احتمال توهم را در آن کمتر می کند.
  • نسل تقویت شده بازیابی (RAG) یک چارچوب است که بر پایه گذاری LLM ها با دقیق ترین و به روزترین اطلاعات تمرکز دارد. با تغذیه مدل با حقایق از یک مخزن دانش خارجی در زمان واقعی، می توانید پاسخ های LLM را بهبود بخشید.

تولید افزوده شده بازیابی و داده های زمان واقعی

تولید تقویت شده بازیابی یکی از امیدوارکننده ترین تکنیک ها برای بهبود دقت مدل های زبان بزرگ است. RAG همراه با داده های زمان واقعی ثابت کرده است که به طور قابل توجهی توهمات را کاهش می دهد.

RAG سازمان ها را قادر می سازد تا از LLM ها با داده های اختصاصی و متنی که تازه هستند استفاده کنند. علاوه بر کاهش توهم، RAG به مدل‌های زبانی کمک می‌کند تا با غنی‌سازی ورودی با اطلاعات مربوط به زمینه، پاسخ‌های دقیق‌تر و مرتبط‌تری تولید کنند. تنظیم دقیق اغلب در یک محیط شرکتی غیرعملی است، اما RAG یک جایگزین کم هزینه و با بازده بالا برای ارائه تجربیات کاربر شخصی شده و آگاهانه ارائه می دهد.

مقدمه ای بر مکانیسم های اجماع بلاک چین

برای افزایش اثربخشی مدل RAG، لازم است RAG را با یک ذخیره‌سازی داده عملیاتی ترکیب کرد که قابلیت ذخیره داده‌ها را به زبان مادری LLMها دارد—یعنی، بردارهای ریاضی با ابعاد بالا به نام embeddings که معنای متن را رمزگذاری می کند. پایگاه داده در صورت درخواست، درخواست کاربر را به یک بردار عددی تبدیل می کند. این امر پایگاه داده برداری را قادر می‌سازد تا برای متن مربوطه پرس و جو شود، صرف نظر از اینکه آیا آنها عبارت‌های یکسانی را شامل می‌شوند یا خیر.

پایگاه داده ای که بسیار در دسترس، کارآمد و قادر به ذخیره و پرس و جو مقادیر عظیمی از داده های بدون ساختار با استفاده از جستجوی معنایی است، جزء حیاتی فرآیند RAG است.

راهول پرادان معاون محصول و استراتژی در Couchbase است، ارائه دهنده یک پایگاه داده مدرن پیشرو برای برنامه های کاربردی سازمانی. Rahul دارای ۲۰ سال تجربه رهبری و مدیریت تیم های مهندسی و محصول با تمرکز بر پایگاه داده، ذخیره سازی، شبکه و فناوری های امنیتی در فضای ابری است.

Generative AI Insights مکانی را برای رهبران فناوری – از جمله فروشندگان و سایر مشارکت‌کنندگان خارجی – فراهم می‌کند تا چالش‌ها و فرصت‌های هوش مصنوعی مولد را بررسی و بحث کنند. این انتخاب گسترده است، از غواصی عمیق فناوری گرفته تا مطالعات موردی گرفته تا نظرات متخصص، اما همچنین ذهنی است، بر اساس قضاوت ما در مورد اینکه کدام موضوعات و درمان‌ها به بهترین وجه به مخاطبان فنی پیشرفته InfoWorld خدمت می‌کنند. InfoWorld وثیقه بازاریابی را برای انتشار نمی پذیرد و حق ویرایش تمام محتوای ارائه شده را برای خود محفوظ می دارد. تماس با doug_dineley@foundryco.com.