سه رویکرد قدرتمند برای بهبود قابلیت اطمینان مدلهای زبانی بزرگ با توسعه یک لایه حقیقتسنجی برای پشتیبانی از آنها پدیدار شدهاند.
به عنوان اولین سال مهم ChatGPT به پایان می رسد، واضح است که هوش مصنوعی مولد (genAI) و مدل های زبان بزرگ (LLM) هستند فن آوری های هیجان انگیز اما آیا آنها برای استفاده سازمانی در زمان نخست آماده هستند؟
چالشهایی با ChatGPT وجود دارد که پاسخهای آن دقت ضعیفی دارند. ChatGPT علیرغم اینکه مبتنی بر مدلهای کامپیوتری پیچیده دانش بشری مانند GPT-4 است، به ندرت میخواهد به نادانی خود اعتراف کند. ، پدیده ای به نام توهمات هوش مصنوعی نامیده می شود و اغلب با استدلال منطقی دست و پنجه نرم می کند. البته این به این دلیل است که ChatGPT دلیل ندارد—عمل می کند مانند یک سیستم تکمیل خودکار متن پیشرفته.
پذیرش این امر برای کاربران دشوار است. از این گذشته، GPT-4 یک سیستم چشمگیر است: می تواند در یک آزمون وکالت شبیه سازی شده شرکت کند و با نمره ای در ۱۰ درصد از شرکت کنندگان برتر قبول شود. چشم انداز به کارگیری چنین سیستم هوشمندی برای بازجویی از پایگاه های دانش شرکتی بدون شک جذاب است. اما ما باید از اعتماد بیش از حد و حماقت آن محافظت کنیم.
برای مبارزه با این موارد، سه رویکرد جدید قدرتمند ظاهر شدهاند و میتوانند راهی برای افزایش قابلیت اطمینان ارائه دهند. در حالی که این رویکردها ممکن است در تأکیدشان متفاوت باشند، اما یک مفهوم اساسی مشترک دارند: نگرش به LLM به عنوان یک “جعبه بسته”. به عبارت دیگر، تمرکز لزوماً روی تکمیل خود LLM نیست (اگرچه مهندسان هوش مصنوعی به بهبود قابل توجه مدلهای خود ادامه میدهند) بلکه روی ایجاد یک لایه بررسی واقعیت برای پشتیبانی از آن است. هدف این لایه فیلتر کردن پاسخ های نادرست و القای سیستم با “عقل سلیم” است.
بیایید هر کدام را به ترتیب بررسی کنیم و ببینیم چگونه.
قابلیت جستجوی گستردهتر
یکی از این رویکردها شامل پذیرش گسترده جستجوی برداری< /a>. این در حال حاضر یکی از ویژگی های مشترک بسیاری از پایگاه های داده است، از جمله برخی از پایگاه های داده که صرفاً بردار هستند.
یک پایگاه داده برداری به گونه ای در نظر گرفته شده است که بتواند داده های بدون ساختار مانند متن یا تصاویر را فهرست بندی کند و آنها را در فضایی با ابعاد بالا برای جستجو، بازیابی و نزدیکی قرار دهد. به عنوان مثال، جستجوی عبارت “سیب” ممکن است اطلاعاتی در مورد یک میوه پیدا کند، اما در نزدیکی “فضای برداری” ممکن است نتایجی در مورد یک شرکت فناوری یا یک برچسب ضبط وجود داشته باشد.
بردارها چسب مفیدی برای هوش مصنوعی هستند زیرا میتوانیم از آنها برای مرتبط کردن نقاط داده در مؤلفههایی مانند پایگاههای داده و LLM استفاده کنیم، و نه فقط از آنها به عنوان کلید در پایگاه داده برای آموزش مدلهای یادگیری ماشین استفاده کنیم.
از RAG تا ثروت
تولید افزوده شده با بازیابی یا RAG، یک روش رایج برای افزودن زمینه به تعامل با یک LLM است. در زیر کاپوت، RAG محتوای تکمیلی را از یک سیستم پایگاه داده بازیابی میکند تا پاسخی از یک LLM را متنی کند. دادههای متنی میتوانند شامل ابردادهها مانند مهر زمانی، موقعیت جغرافیایی، مرجع و شناسه محصول باشند، اما در تئوری میتوانند نتایج جستجوهای پایگاه داده پیچیده دلخواه باشند.
این اطلاعات زمینه ای به سیستم کلی کمک می کند تا پاسخ های مرتبط و دقیق ایجاد کند. ماهیت این رویکرد در به دست آوردن دقیق ترین و به روزترین اطلاعات موجود در یک موضوع معین در یک پایگاه داده است و در نتیجه پاسخ های مدل را اصلاح می کند. یک محصول جانبی مفید این رویکرد این است که، بر خلاف عملکرد داخلی غیرشفاف GPT-4، اگر RAG پایه و اساس کسب و کار LLM را تشکیل دهد، کاربر تجاری بینش شفاف تری در مورد نحوه رسیدن سیستم به پاسخ ارائه شده به دست می آورد. p>
اگر پایگاه داده زیربنایی دارای قابلیتهای برداری باشد، پاسخ LLM که شامل بردارهای جاسازی شده است، میتواند برای یافتن دادههای مرتبط از پایگاه داده برای بهبود دقت پاسخ استفاده شود.
قدرت نمودار دانش
با این حال، حتی پیشرفتهترین عملکرد جستجوی مبتنی بر بردار و تقویتشده با RAG برای اطمینان از قابلیت اطمینان حیاتی ChatGPT برای تجارت، کافی نیست. برای مثال، بردارها به تنهایی تنها یکی از راههای فهرستنویسی دادهها هستند و مطمئناً غنیترین مدلهای داده نیستند.
در عوض، نمودارهای دانش به عنوان پایگاه داده منتخب RAG جذابیت قابل توجهی به دست آورده اند. گراف دانش یک شبکه غنی معنایی از اطلاعات به هم پیوسته است که اطلاعات را از ابعاد مختلف در یک ساختار داده واحد جمع می کند (بسیار مانند کاری که وب برای انسان ها انجام داده است). از آنجایی که یک نمودار دانش محتوای شفاف و مدیریت شده را در خود جای می دهد، می توان از کیفیت آن اطمینان داشت.
ما می توانیم LLM و نمودار دانش را با استفاده از بردارها نیز به هم گره بزنیم. اما در این مورد، هنگامی که بردار به یک گره در نمودار دانش تفکیک شد، توپولوژی گراف را می توان برای بررسی واقعیت، جستجوهای نزدیک و تطبیق الگوی کلی استفاده کرد تا اطمینان حاصل شود که آنچه به کاربر بازگردانده می شود دقیق است.< /p>
این تنها راهی نیست که از نمودارهای دانش استفاده می شود. مفهوم جالبی در دانشگاه واشنگتن توسط یک محقق هوش مصنوعی به نام پروفسور یژین چوی، که بیل گیتس اخیراً مصاحبه کرده است. پروفسور چوی و تیم او یک پایگاه دانش تالیف شده توسط ماشین ساخته اند که به LLM کمک می کند تا با پرسیدن سوالات و سپس فقط اضافه کردن (به عنوان قوانین) پاسخ هایی که به طور مداوم بررسی می شود، دانش خوب را از بد جدا کند.
کار چوی از یک هوش مصنوعی به نام «منتقد» استفاده میکند که استدلال منطقی یک LLM را بررسی میکند تا یک نمودار دانش متشکل از استدلال خوب و حقایق خوب بسازد. اگر از ChatGPT (3.5) بپرسید، اگر خشک کردن یک پیراهن یک ساعت طول بکشد، چقدر طول می کشد تا پنج پیراهن زیر نور خورشید خشک شوند، یک مثال واضح از استدلال ناقص مشهود است. در حالی که عقل سلیم حکم میکند که اگر یک ساعت طول بکشد تا یک پیراهن خشک شود، باز هم بدون توجه به کمیت، یک ساعت طول میکشد، هوش مصنوعی سعی کرد ریاضیات پیچیدهای را برای حل مسئله انجام دهد و رویکرد خود را با نشان دادن عملکرد (نادرست) آن توجیه کند! p>
در حالی که مهندسان هوش مصنوعی برای حل این مشکلات سخت کار می کنند (و ChatGPT 4 در اینجا شکست نمی خورد)، رویکرد Choi برای تقطیر نمودار دانش یک راه حل همه منظوره ارائه می دهد. به ویژه مناسب است که این نمودار دانش برای آموزش یک LLM استفاده شود، که با وجود کوچکتر بودن، دقت بسیار بالاتری دارد.
بازگرداندن متن
ما دیدهایم که نمودارهای دانش سیستمهای GPT را با ارائه بافت و ساختار بیشتر از طریق RAG بهبود میبخشند. ما همچنین شواهدی را مشاهده کردهایم که با استفاده از ترکیبی از بردار و جستجوی معنایی مبتنی بر نمودار (مترادف نمودارهای دانش)، سازمانها به طور مداوم به نتایجی با دقت بالا دست مییابند.
با ترکیب معماری که ترکیبی از بردارها، RAG و یک نمودار دانش را برای پشتیبانی از یک مدل زبان بزرگ به کار میگیرد، میتوانیم برنامههای تجاری بسیار ارزشمندی را بدون نیاز به تخصص در فرآیندهای پیچیده ساخت، آموزش و تنظیم دقیق بسازیم. یک LLM.
این ترکیبی است که به این معنی است که ما میتوانیم با «درک» اساسیتری که یک کامپیوتر (LLM) میتواند به آن دست یابد، یک درک غنی و متنی از یک مفهوم اضافه کنیم. بدیهی است که شرکت ها می توانند از این رویکرد سود ببرند. جایی که نمودارها در پاسخ به سؤالات بزرگ موفق می شوند: چه چیزی در داده ها مهم است؟ چه چیز غیرعادی است؟ مهمتر از همه، با توجه به الگوهای داده ها، نمودارها می توانند اتفاقات بعدی را پیش بینی کنند.
این مهارت واقعی همراه با عنصر مولد LLM قانعکننده است و کاربرد وسیعی دارد. همانطور که به سمت سال ۲۰۲۴ پیش می رویم، پیش بینی می کنم که شاهد پذیرش گسترده این روش قدرتمند برای تبدیل LLMها به ابزارهای تجاری حیاتی باشیم.
جیم وبر است دانشمند ارشد پایگاه داده گراف و رهبر تجزیه و تحلیل Neo4j.< em> او نویسنده مشترک پایگاههای داده گراف است. (نسخه اول و دوم، اوریلی)، پایگاه داده نمودار برای Dummies (Wiley) و ساختن نمودارهای دانش (O’Reilly).
—
Generative AI Insights مکانی را برای رهبران فناوری – از جمله فروشندگان و سایر مشارکتکنندگان خارجی – فراهم میکند تا چالشها و فرصتهای هوش مصنوعی مولد را بررسی و بحث کنند. این انتخاب گسترده است، از غواصی عمیق فناوری گرفته تا مطالعات موردی گرفته تا نظرات متخصص، اما همچنین ذهنی است، بر اساس قضاوت ما در مورد اینکه کدام موضوعات و درمانها به بهترین وجه به مخاطبان فنی پیشرفته InfoWorld خدمت میکنند. InfoWorld وثیقه بازاریابی را برای انتشار نمی پذیرد و حق ویرایش تمام محتوای ارائه شده را برای خود محفوظ می دارد. تماس با doug_dineley@foundryco.com a>.
پست های مرتبط
کمک برای هوش مصنوعی مولد در راه است
کمک برای هوش مصنوعی مولد در راه است
کمک برای هوش مصنوعی مولد در راه است