۲۹ شهریور ۱۴۰۳

Techboy

اخبار و اطلاعات روز تکنولوژی

کمک برای هوش مصنوعی مولد در راه است

سه رویکرد قدرتمند برای بهبود قابلیت اطمینان مدل‌های زبانی بزرگ با توسعه یک لایه حقیقت‌سنجی برای پشتیبانی از آنها پدیدار شده‌اند.

سه رویکرد قدرتمند برای بهبود قابلیت اطمینان مدل‌های زبانی بزرگ با توسعه یک لایه حقیقت‌سنجی برای پشتیبانی از آنها پدیدار شده‌اند.

به عنوان اولین سال مهم ChatGPT به پایان می رسد، واضح است که هوش مصنوعی مولد (genAI) و مدل های زبان بزرگ (LLM) هستند فن آوری های هیجان انگیز اما آیا آنها برای استفاده سازمانی در زمان نخست آماده هستند؟

چالش‌هایی با ChatGPT وجود دارد که پاسخ‌های آن دقت ضعیفی دارند. ChatGPT علیرغم اینکه مبتنی بر مدل‌های کامپیوتری پیچیده دانش بشری مانند GPT-4 است، به ندرت می‌خواهد به نادانی خود اعتراف کند. ، پدیده ای به نام توهمات هوش مصنوعی نامیده می شود و اغلب با استدلال منطقی دست و پنجه نرم می کند. البته این به این دلیل است که ChatGPT دلیل ندارد—عمل می کند مانند یک سیستم تکمیل خودکار متن پیشرفته.

پذیرش این امر برای کاربران دشوار است. از این گذشته، GPT-4 یک سیستم چشمگیر است: می تواند در یک آزمون وکالت شبیه سازی شده شرکت کند و با نمره ای در ۱۰ درصد از شرکت کنندگان برتر قبول شود. چشم انداز به کارگیری چنین سیستم هوشمندی برای بازجویی از پایگاه های دانش شرکتی بدون شک جذاب است. اما ما باید از اعتماد بیش از حد و حماقت آن محافظت کنیم.

برای مبارزه با این موارد، سه رویکرد جدید قدرتمند ظاهر شده‌اند و می‌توانند راهی برای افزایش قابلیت اطمینان ارائه دهند. در حالی که این رویکردها ممکن است در تأکیدشان متفاوت باشند، اما یک مفهوم اساسی مشترک دارند: نگرش به LLM به عنوان یک “جعبه بسته”. به عبارت دیگر، تمرکز لزوماً روی تکمیل خود LLM نیست (اگرچه مهندسان هوش مصنوعی به بهبود قابل توجه مدل‌های خود ادامه می‌دهند) بلکه روی ایجاد یک لایه بررسی واقعیت برای پشتیبانی از آن است. هدف این لایه فیلتر کردن پاسخ های نادرست و القای سیستم با “عقل سلیم” است.

بیایید هر کدام را به ترتیب بررسی کنیم و ببینیم چگونه.

قابلیت جستجوی گسترده‌تر

یکی از این رویکردها شامل پذیرش گسترده جستجوی برداری< /a>. این در حال حاضر یکی از ویژگی های مشترک بسیاری از پایگاه های داده است، از جمله برخی از پایگاه های داده که صرفاً بردار هستند.

یک پایگاه داده برداری به گونه ای در نظر گرفته شده است که بتواند داده های بدون ساختار مانند متن یا تصاویر را فهرست بندی کند و آنها را در فضایی با ابعاد بالا برای جستجو، بازیابی و نزدیکی قرار دهد. به عنوان مثال، جستجوی عبارت “سیب” ممکن است اطلاعاتی در مورد یک میوه پیدا کند، اما در نزدیکی “فضای برداری” ممکن است نتایجی در مورد یک شرکت فناوری یا یک برچسب ضبط وجود داشته باشد.

وراثت جاوا در مقابل ترکیب: نحوه انتخاب

بردارها چسب مفیدی برای هوش مصنوعی هستند زیرا می‌توانیم از آن‌ها برای مرتبط کردن نقاط داده در مؤلفه‌هایی مانند پایگاه‌های داده و LLM استفاده کنیم، و نه فقط از آنها به عنوان کلید در پایگاه داده برای آموزش مدل‌های یادگیری ماشین استفاده کنیم.

از RAG تا ثروت

تولید افزوده شده با بازیابی یا RAG، یک روش رایج برای افزودن زمینه به تعامل با یک LLM است. در زیر کاپوت، RAG محتوای تکمیلی را از یک سیستم پایگاه داده بازیابی می‌کند تا پاسخی از یک LLM را متنی کند. داده‌های متنی می‌توانند شامل ابرداده‌ها مانند مهر زمانی، موقعیت جغرافیایی، مرجع و شناسه محصول باشند، اما در تئوری می‌توانند نتایج جستجوهای پایگاه داده پیچیده دلخواه باشند.

این اطلاعات زمینه ای به سیستم کلی کمک می کند تا پاسخ های مرتبط و دقیق ایجاد کند. ماهیت این رویکرد در به دست آوردن دقیق ترین و به روزترین اطلاعات موجود در یک موضوع معین در یک پایگاه داده است و در نتیجه پاسخ های مدل را اصلاح می کند. یک محصول جانبی مفید این رویکرد این است که، بر خلاف عملکرد داخلی غیرشفاف GPT-4، اگر RAG پایه و اساس کسب و کار LLM را تشکیل دهد، کاربر تجاری بینش شفاف تری در مورد نحوه رسیدن سیستم به پاسخ ارائه شده به دست می آورد. p>

اگر پایگاه داده زیربنایی دارای قابلیت‌های برداری باشد، پاسخ LLM که شامل بردارهای جاسازی شده است، می‌تواند برای یافتن داده‌های مرتبط از پایگاه داده برای بهبود دقت پاسخ استفاده شود.

قدرت نمودار دانش

با این حال، حتی پیشرفته‌ترین عملکرد جستجوی مبتنی بر بردار و تقویت‌شده با RAG برای اطمینان از قابلیت اطمینان حیاتی ChatGPT برای تجارت، کافی نیست. برای مثال، بردارها به تنهایی تنها یکی از راه‌های فهرست‌نویسی داده‌ها هستند و مطمئناً غنی‌ترین مدل‌های داده نیستند.

در عوض، نمودارهای دانش به عنوان پایگاه داده منتخب RAG جذابیت قابل توجهی به دست آورده اند. گراف دانش یک شبکه غنی معنایی از اطلاعات به هم پیوسته است که اطلاعات را از ابعاد مختلف در یک ساختار داده واحد جمع می کند (بسیار مانند کاری که وب برای انسان ها انجام داده است). از آنجایی که یک نمودار دانش محتوای شفاف و مدیریت شده را در خود جای می دهد، می توان از کیفیت آن اطمینان داشت.

10 نکته برای افزایش سرعت برنامه های پایتون

ما می توانیم LLM و نمودار دانش را با استفاده از بردارها نیز به هم گره بزنیم. اما در این مورد، هنگامی که بردار به یک گره در نمودار دانش تفکیک شد، توپولوژی گراف را می توان برای بررسی واقعیت، جستجوهای نزدیک و تطبیق الگوی کلی استفاده کرد تا اطمینان حاصل شود که آنچه به کاربر بازگردانده می شود دقیق است.< /p>

این تنها راهی نیست که از نمودارهای دانش استفاده می شود. مفهوم جالبی در دانشگاه واشنگتن توسط یک محقق هوش مصنوعی به نام پروفسور یژین چوی، که بیل گیتس اخیراً مصاحبه کرده است. پروفسور چوی و تیم او یک پایگاه دانش تالیف شده توسط ماشین ساخته اند که به LLM کمک می کند تا با پرسیدن سوالات و سپس فقط اضافه کردن (به عنوان قوانین) پاسخ هایی که به طور مداوم بررسی می شود، دانش خوب را از بد جدا کند.

کار چوی از یک هوش مصنوعی به نام «منتقد» استفاده می‌کند که استدلال منطقی یک LLM را بررسی می‌کند تا یک نمودار دانش متشکل از استدلال خوب و حقایق خوب بسازد. اگر از ChatGPT (3.5) بپرسید، اگر خشک کردن یک پیراهن یک ساعت طول بکشد، چقدر طول می کشد تا پنج پیراهن زیر نور خورشید خشک شوند، یک مثال واضح از استدلال ناقص مشهود است. در حالی که عقل سلیم حکم می‌کند که اگر یک ساعت طول بکشد تا یک پیراهن خشک شود، باز هم بدون توجه به کمیت، یک ساعت طول می‌کشد، هوش مصنوعی سعی کرد ریاضیات پیچیده‌ای را برای حل مسئله انجام دهد و رویکرد خود را با نشان دادن عملکرد (نادرست) آن توجیه کند!

در حالی که مهندسان هوش مصنوعی برای حل این مشکلات سخت کار می کنند (و ChatGPT 4 در اینجا شکست نمی خورد)، رویکرد Choi برای تقطیر نمودار دانش یک راه حل همه منظوره ارائه می دهد. به ویژه مناسب است که این نمودار دانش برای آموزش یک LLM استفاده شود، که با وجود کوچکتر بودن، دقت بسیار بالاتری دارد.

آیا هوش مصنوعی ما را به فناوری بزرگ وابسته می کند؟

بازگرداندن متن

ما دیده‌ایم که نمودارهای دانش سیستم‌های GPT را با ارائه بافت و ساختار بیشتر از طریق RAG بهبود می‌بخشند. ما همچنین شواهدی را مشاهده کرده‌ایم که با استفاده از ترکیبی از بردار و جستجوی معنایی مبتنی بر نمودار (مترادف نمودارهای دانش)، سازمان‌ها به طور مداوم به نتایجی با دقت بالا دست می‌یابند.

با ترکیب معماری که ترکیبی از بردارها، RAG و یک نمودار دانش را برای پشتیبانی از یک مدل زبان بزرگ به کار می‌گیرد، می‌توانیم برنامه‌های تجاری بسیار ارزشمندی را بدون نیاز به تخصص در فرآیندهای پیچیده ساخت، آموزش و تنظیم دقیق بسازیم. یک LLM.

این ترکیبی است که به این معنی است که ما می‌توانیم با «درک» اساسی‌تری که یک کامپیوتر (LLM) می‌تواند به آن دست یابد، یک درک غنی و متنی از یک مفهوم اضافه کنیم. بدیهی است که شرکت ها می توانند از این رویکرد سود ببرند. جایی که نمودارها در پاسخ به سؤالات بزرگ موفق می شوند: چه چیزی در داده ها مهم است؟ چه چیز غیرعادی است؟ مهمتر از همه، با توجه به الگوهای داده ها، نمودارها می توانند اتفاقات بعدی را پیش بینی کنند.

این مهارت واقعی همراه با عنصر مولد LLM قانع‌کننده است و کاربرد وسیعی دارد. همانطور که به سمت سال ۲۰۲۴ پیش می رویم، پیش بینی می کنم که شاهد پذیرش گسترده این روش قدرتمند برای تبدیل LLMها به ابزارهای تجاری حیاتی باشیم.

جیم وبر است دانشمند ارشد پایگاه داده گراف و رهبر تجزیه و تحلیل Neo4j.< em> او نویسنده مشترک پایگاه‌های داده گراف است. (نسخه اول و دوم، اوریلی)، پایگاه داده نمودار برای Dummies (Wiley) و ساختن نمودارهای دانش (O’Reilly).

Generative AI Insights مکانی را برای رهبران فناوری – از جمله فروشندگان و سایر مشارکت‌کنندگان خارجی – فراهم می‌کند تا چالش‌ها و فرصت‌های هوش مصنوعی مولد را بررسی و بحث کنند. این انتخاب گسترده است، از غواصی عمیق فناوری گرفته تا مطالعات موردی گرفته تا نظرات متخصص، اما همچنین ذهنی است، بر اساس قضاوت ما در مورد اینکه کدام موضوعات و درمان‌ها به بهترین وجه به مخاطبان فنی پیشرفته InfoWorld خدمت می‌کنند. InfoWorld وثیقه بازاریابی را برای انتشار نمی پذیرد و حق ویرایش تمام محتوای ارائه شده را برای خود محفوظ می دارد. تماس با doug_dineley@foundryco.com.