۲۹ شهریور ۱۴۰۳

Techboy

اخبار و اطلاعات روز تکنولوژی

هوش مصنوعی Vertex Google Cloud گزینه‌های زمینی جدیدی را دریافت می‌کند

این شرکت می‌گوید ویژگی‌های پایه‌گذاری جدید به شرکت‌ها کمک می‌کند تا توهمات را در برنامه‌ها و عوامل مبتنی بر هوش مصنوعی کاهش دهند.

این شرکت می‌گوید ویژگی‌های پایه‌گذاری جدید به شرکت‌ها کمک می‌کند تا توهمات را در برنامه‌ها و عوامل مبتنی بر هوش مصنوعی کاهش دهند.

Google Cloud مجموعه جدیدی از گزینه‌های زمینی را معرفی می‌کند که به شرکت‌ها امکان می‌دهد تا توهمات را در برنامه‌ها و عوامل مبتنی بر هوش مصنوعی مولد خود کاهش دهند.

مدل‌های زبان بزرگ (LLM) که زیربنای این برنامه‌ها و عوامل مبتنی بر هوش مصنوعی هستند، ممکن است با افزایش پیچیدگی، شروع به تولید خروجی یا پاسخ‌های معیوب کنند. این خروجی های معیوب به عنوان توهم نامیده می شوند زیرا خروجی در داده های ورودی زمین نمی باشد.

بازیابی نسل افزوده (RAG) یکی از چندین تکنیک مورد استفاده برای رسیدگی به توهمات است: سایر روش‌ها تنظیم دقیق و مهندسی سریع هستند. RAG LLM را با تغذیه واقعیت های مدل از یک منبع دانش خارجی یا مخزن برای بهبود پاسخ به یک پرس و جو خاص، مستقر می کند.

مجموعه جدیدی از گزینه‌های زمینی که در AI Google Cloud معرفی شده‌اند. a>خدمات یادگیری ماشینی، Vertex AI، شامل بازیابی پویا، حالت “وفاداری بالا”، و پایه گذاری با مجموعه داده های شخص ثالث است که همه آنها را می توان به عنوان بسط < مشاهده کرد. a>ویژگی های Vertex AI در کنفرانس سالانه Cloud Next در ماه آوریل رونمایی شد.

بازیابی پویا برای ایجاد تعادل بین هزینه و دقت

به گفته گوگل، قابلیت جدید بازیابی پویا، که به زودی به عنوان بخشی از ویژگی Vertex AI برای LLM های زمینی در جستجوی Google ارائه می شود، به نظر می رسد تعادلی بین کارایی هزینه و کیفیت پاسخ ایجاد کند.

موردی برای متوقف کردن هوش مصنوعی مولد

از آنجایی که LLM های زمینی در جستجوی Google هزینه های پردازش اضافی را برای شرکت ها افزایش می دهد، بازیابی پویا به جمینی< بوراک گوکتورک، مدیر کل هوش مصنوعی ابری در Google Cloud، در یک پست وبلاگ نوشت: /a> برای اینکه به صورت پویا انتخاب کنید که آیا درخواست‌های کاربر نهایی را در جستجوی Google پایه‌گذاری کنید یا از دانش ذاتی مدل‌ها استفاده کنید.

گوکتورک توضیح داد:

انتخاب به Gemini واگذار می‌شود، زیرا ممکن است همه پرسش‌ها نیازی به پایه نداشته باشند، و افزود که دانش آموزشی Gemini بسیار توانمند است.

جمینی، به نوبه خود، با تفکیک هر درخواست یا درخواست به سه دسته بر اساس نحوه تغییر پاسخ‌ها در طول زمان – هرگز تغییر نمی‌کند، به آهستگی تغییر می‌کند و به سرعت تغییر می‌کند، تصمیم می‌گیرد تا یک درخواست را در جستجوی Google پایه‌گذاری کند.

این بدان معناست که اگر از Gemini در مورد آخرین فیلم سؤالی پرسیده شود، به نظر می رسد که پاسخ را در جستجوی Google مستقر کند، اما پاسخ به سؤالی مانند “پایتخت فرانسه چیست؟” را ثابت نمی کند. ” زیرا احتمال تغییر آن کمتر است و جوزا از قبل پاسخ آن را می داند.

حالت وفاداری بالا با هدف بخش‌های مراقبت‌های بهداشتی و خدمات مالی

Google Cloud همچنین می‌خواهد به شرکت‌ها کمک کند تا LLM‌ها را در داده‌های شرکت خصوصی خود ثابت کنند و برای انجام این کار مجموعه‌ای از API را تحت نام APIs برای RAG به عنوان بخشی از Vertex AI در آوریل به نمایش گذاشت.< /p>

APIهای RAG، که به طور کلی در دسترس قرار گرفته‌اند، شامل APIهایی برای تجزیه سند، تولید جاسازی، رتبه‌بندی معنایی، و تولید پاسخ مبتنی بر پایه، و یک سرویس بررسی واقعیت به نام check-grounding است.

مردم و پایتون در هوش مصنوعی

آزمایش با وفاداری بالا

به‌عنوان بخشی از یک برنامه افزودنی برای API تولید پاسخ زمینی، که از ذخیره‌های داده جستجوی Vertex AI، منابع داده سفارشی و جستجوی Google برای زمین‌بندی پاسخ به درخواست کاربر استفاده می‌کند، Google در حال معرفی یک گزینه آزمایشی زمین‌سازی به نام زمین‌سازی است. با حالت وفاداری بالا.

گزینه زمینی جدید، طبق گفته شرکت، با هدف پایه گذاری بیشتر پاسخ به یک پرس و جو از طریق وادار کردن LLM به بازیابی پاسخ ها نه تنها با درک زمینه در پرس و جو بلکه همچنین منبع یابی پاسخ از یک منبع داده سفارشی ارائه شده است. .

این گزینه اتصال به زمین از فلش Gemini 1.5 استفاده می کند. گوکتورک توضیح داد: /a> مدلی که برای تمرکز بر زمینه یک اعلان به خوبی تنظیم شده است، و افزود که این گزینه منابع پیوست شده به جملات موجود در پاسخ را همراه با امتیازهای پایه ارائه می دهد.

زمینه‌سازی با حالت وفاداری بالا در حال حاضر از موارد استفاده کلیدی مانند خلاصه‌سازی در چندین سند یا استخراج داده در برابر مجموعه‌ای از داده‌های مالی پشتیبانی می‌کند.

به گفته گوکتورک، این گزینه پایه‌گذاری، برای شرکت‌هایی در بخش‌های مراقبت‌های بهداشتی و خدمات مالی در نظر گرفته شده است، زیرا این شرکت‌ها نمی‌توانند توهمات و منابع ارائه‌شده در پاسخ‌های پرس و جو را در ایجاد اعتماد در کاربر نهایی مبتنی بر هوش مصنوعی مولد کمک کنند. برنامه.

5 نکته که قبل از استقرار LLM باید در نظر بگیرید

سایر ارائه‌دهندگان خدمات ابری بزرگ، مانند AWS و Microsoft Azure، در حال حاضر ویژگی دقیقی ندارند که با حالت وفاداری بالا مطابقت داشته باشد، اما هر یک از آنها سیستمی برای ارزیابی قابلیت اطمینان برنامه‌های RAG از جمله نقشه‌برداری دارند. معیارهای تولید پاسخ.

در حالی که مایکروسافت از Groundedness Detection API استفاده می‌کند تا بررسی کند که آیا پاسخ‌های متنی مدل‌های زبان بزرگ (LLM) بر اساس منابع ارائه‌شده توسط کاربران است یا خیر، Amazon Bedrock سرویس از چندین معیار برای انجام یک کار استفاده می کند.

به‌عنوان بخشی از ارزیابی و قابلیت مشاهده‌پذیری RAG Bedrock، AWS از معیارهایی مانند وفاداری، ارتباط پاسخ، و شباهت معنایی پاسخ برای محک زدن پاسخ پرسش استفاده می‌کند.

AWS گفت که متریک وفاداری نشان می‌دهد که آیا پاسخ تولید شده توسط سیستم RAG به اطلاعات موجود در قسمت‌های بازیابی شده وفادار است یا خیر، و افزود که هدف این است که از توهمات اجتناب شود و اطمینان حاصل شود که خروجی با زمینه ارائه شده به عنوان ورودی توجیه می‌شود. سیستم RAG  

فعال کردن داده های شخص ثالث برای RAG از طریق Vertex AI

در راستای برنامه‌های اعلام‌شده خود در Cloud Next در ماه آوریل، این شرکت اعلام کرد که در حال برنامه‌ریزی برای معرفی سرویس جدیدی در Vertex AI از سه ماهه آینده است تا به شرکت‌ها اجازه دهد مدل‌ها و عوامل هوش مصنوعی خود را با داده‌های شخص ثالث تخصصی مستقر کنند.

Google گفت که قبلاً با ارائه دهندگان داده مانند Moody’s، MSCI، Thomson Reuters و Zoominfo کار می کرد تا داده های آنها را به این سرویس بیاورد.