۲۹ شهریور ۱۴۰۳

Techboy

اخبار و اطلاعات روز تکنولوژی

گوگل از پروژه های منبع باز برای هوش مصنوعی رونمایی می کند

گوگل یک موتور استنتاج LLM، کتابخانه ای از مدل های انتشار مرجع و بهینه سازی های TPU برای مدل های ترانسفورماتور در Google Cloud Next معرفی کرد.

گوگل یک موتور استنتاج LLM، کتابخانه ای از مدل های انتشار مرجع و بهینه سازی های TPU برای مدل های ترانسفورماتور در Google Cloud Next معرفی کرد.

Google در Google Cloud Next 24 از سه پروژه منبع باز برای ساخت و اجرای مدل های هوش مصنوعی مولد پرده برداری کرد. این شرکت همچنین مدل‌های زبان بزرگ جدیدی را به پروژه MaxText JAX-built خود معرفی کرد. LLMs.

شرکت گفت: مدل‌های جدید LLM در MaxText شامل Gemma، GPT-3، Llama 2، و Mistral هستند که در هر دو TPU Google Cloud و GPUهای Nvidia پشتیبانی می‌شوند.

پروژه‌های منبع باز تازه رونمایی شده MaxDiffusion، JetStream، و Optimum-TPU.

تست نرم افزار: نصب خودکار و تست های عملکردی

MaxDiffusion مجموعه ای از پیاده سازی های مرجع با کارایی بالا و مقیاس پذیر برای مدل های انتشار مانند Stable Diffusion است. مانند مدل‌های MaxText، مدل‌های MaxDiffusion بر روی JAX ساخته شده‌اند که چارچوبی برای محاسبات عددی با کارایی بالا و یادگیری ماشینی در مقیاس بزرگ است.

JAX به نوبه خود با کامپایلر OpenXLA ادغام شده است، که توابع عددی را بهینه می‌کند و عملکرد عالی را در مقیاس ارائه می‌دهد، به سازندگان مدل اجازه می‌دهد تا روی ریاضیات تمرکز کنند و به نرم‌افزار اجازه می‌دهند کارآمدترین پیاده‌سازی را انجام دهند.

DataStax جریان داده در زمان واقعی را به سرویس مدیریت شده AstraDB اضافه می کند

Google گفت: «ما عملکرد JAX و OpenXLA را در Cloud TPU به‌شدت بهینه‌سازی کرده‌ایم و با انویدیا همکاری نزدیک داریم تا عملکرد OpenXLA را در خوشه‌های بزرگ Cloud GPU بهینه کنیم.

این شرکت همچنین Jetstream را معرفی کرد که یک موتور استنتاج LLM بهینه شده منبع باز است که از کامپایلرهای XLA پشتیبانی می کند.

«از آنجایی که مشتریان بارهای کاری هوش مصنوعی خود را به تولید می‌رسانند، تقاضای فزاینده‌ای برای استنتاج مقرون‌به‌صرفه وجود دارد که عملکرد بالایی ارائه می‌دهد. Mark Lohmeyer، مدیر کل زیرساخت های محاسباتی و ML در Google Cloud گفت: JetStream به این نیاز کمک می کند و از مدل های آموزش دیده با JAX و PyTorch/XLA پشتیبانی می کند و شامل بهینه سازی هایی برای مدل های باز محبوب مانند Llama 2 و Gemma است.

6 خطر پنهان کم کد

در نهایت، اعلامیه های منبع باز Google شامل راه اندازی Optimum-TPU برای PyTorch کاربران صورت در آغوش . Optimum-TPU بهینه سازی عملکرد TPU Google Cloud را هم برای آموزش و هم برای استنتاج به ارمغان می آورد. گوگل گفت که اکنون از مدل Gemma 2b و به زودی از Llama و Mistral پشتیبانی می کند.