۲۹ شهریور ۱۴۰۳

Techboy

اخبار و اطلاعات روز تکنولوژی

چرا Meta’s Llama 3.1 یک موهبت برای شرکت ها و یک آفت برای سایر فروشندگان LLM است

تحلیلگران و کارشناسان می گویند که باز بودن و دقت مدل های خانواده Llama 3.1 یک تهدید وجودی برای ارائه دهندگان مدل های زبان بزرگ اختصاصی بسته است.

تحلیلگران و کارشناسان می گویند که باز بودن و دقت مدل های خانواده Llama 3.1 یک تهدید وجودی برای ارائه دهندگان مدل های زبان بزرگ اختصاصی بسته است.

خانواده Llama 3.1 که به تازگی رونمایی شده است از زبان بزرگ تحلیلگران و کارشناسان می گویند models (LLMs)، که شامل یک مدل پارامتر ۴۰۵ میلیاردی و همچنین ۷۰ میلیارد پارامتر و ۸ میلیارد متغیر پارامتر است، برای شرکت ها موهبت است و برای فروشندگان اختصاصی LLM بلای جان است.

 “در حالی که در یک انتها وزن های باز به روز شده Tobias Zwingmann، شریک مدیریت در AI پلت فرم خدمات نمونه سازی اولیه Rapyd.AI.

چگونه Llama 3.1 به شرکت ها و توسعه دهندگان کمک خواهد کرد؟

مزایای مدل‌های خانواده Llama 3.1 برای شرکت‌ها و توسعه‌دهندگان در وزن باز و کارایی عملکرد آن در تست‌های معیار در مقایسه با LLM‌های اختصاصی بسته، مانند GPT-4o OpenAI و Gemma 2 Google.

«ارائه یک مدل زبان با وزن‌های باز به کسب‌وکارها این امکان را می‌دهد تا راه‌حل‌های هوش مصنوعی سفارشی برای موارد استفاده خود بدون دریافت هزینه‌های گزاف مجوز از استفاده از مدل‌های اختصاصی بسازند. در حالی که شرکت‌ها از صرفه‌جویی در هزینه و افزایش انعطاف‌پذیری سود می‌برند، توسعه‌دهندگان می‌توانند با استفاده از یک پایه محکم، نوآوری را تسریع بخشند.»  

آرنال دایاراتنا، معاون تحقیقات IDC گفت که شرکت‌ها می‌توانند یک مدل باز از خانواده Llama 3.1 را با استفاده از داده‌های اختصاصی خود تنظیم کنند، بدون اینکه نگران باشند داده‌ها و مالکیت معنوی آنها با فروشنده دیگری به اشتراک گذاشته شود.

دایاراتنا افزود: «این کار همچنین به شرکت‌ها و توسعه‌دهندگان امکان می‌دهد از قفل شدن فروشنده جلوگیری کنند.

به گفته بردلی شیمین، تحلیلگر ارشد، انتشار مدل پارامتر بزرگتر ۴۰۵ میلیاردی، حتی برای شرکت ها مهم تر است زیرا اکنون می توانند به یک LLM رایگان دسترسی داشته باشند که با کارایی عملکرد یا هوشمندی مدل ها مطابقت دارد، مانند GPT-4، جمینی و Claude.

متا در یک پست وبلاگ گفت که مدل بزرگتر ۴۰۵B Llama 3.1 از مدل هایی مانند به عنوان Nemotron-4 340B Instruct، GPT-4، و غزل کلود ۳.۵ در تست های محک مانند چالش MMLU، ریاضی، GSM8K و ARC. عملکرد آن در این تست ها نیز نزدیک به GPT-4o بود. برای زمینه، GPT-4o امتیاز ۸۸.۷ را در معیار MMLU و Llama 3.1 405B امتیاز ۸۸.۶ را کسب کرد.

MMLU، MATH، GSM8K، و چالش ARC معیارهایی هستند که LLMها را در زمینه‌های هوش عمومی، ریاضیات و استدلال آزمایش می‌کنند.

متا در پست وبلاگ گفت:

مدل‌های کوچکتر Llama 3.1 8B و ۷۰B که با پنجره‌های زمینه بزرگ‌تر و پشتیبانی از چندین زبان به‌روزرسانی شده‌اند، نیز در همان تست‌های معیار عملکرد بهتر یا نزدیک به LLM‌های اختصاصی داشتند.

اوایل ماه آوریل، متا نسخه‌های قبلی مدل‌های Llama 3 8B و Llama 3 70B که دارای پیشرفت‌های معماری نسبت به Llama 2 و تکنیک‌های بهبود یافته، مانند استاندارد معماری ترانسفورماتور فقط رمزگشا، توجه به پرسش گروهی (GQA)، و همچنین مجموعه داده های آموزشی با کیفیت بالاتر. 

به گفته آنتون مک گونل، رهبر محصول در مولد AI سیستم های SambaNova پلت فرم، می تواند دقت بهتری را برای وظایف عمومی ارائه دهد و این به شرکت ها اجازه می دهد تا بهبودها را در موارد استفاده کارکنان و مشتریان تسریع کنند.

مک‌گونل گفت: «ما انتظار داریم که توسعه‌دهندگان از تکنیک‌هایی مانند رمزگشایی گمانه‌زنی استفاده کنند، که در آن مدل‌های پیچیده‌تر بخش عمده پردازش را انجام می‌دهند، و سپس از مدل بزرگ‌تر برای تأیید کار و تصحیح خطاها در صورت نیاز استفاده می‌کنند.» روشی کارآمد برای اجرای مدل‌های هوش مصنوعی زیرا راه‌های جدیدی را برای بهینه‌سازی منابع محاسباتی باز می‌کند و پاسخ‌ها را در برنامه‌های هم‌زمان افزایش می‌دهد.

علاوه بر این، دایاراتنا از IDC اشاره کرد که مدل Llama 3.1 405B می تواند تولید داده مصنوعی و همچنین تقطیر مدل را انجام دهد، به این معنی که دانش را از یک مدل بزرگتر به مدل کوچکتر منتقل می کند.

دایاراتنا افزود:

این قابلیت‌ها شرکت‌ها را قادر می‌سازد تا جریان‌های کاری تحلیلی بیشتری را اجرا کنند.

آیا Llama 3.1 برای استقرار برای شرکت ها بسیار گران است؟

تحلیلگران معتقدند در حالی که Llama 3.1 نسبتاً هوشمندتر از نسخه های قبلی خود است، استقرار این مدل ممکن است برای شرکت های کوچک و متوسط ​​بسیار گران باشد.

نسخه Llama 3.1 405B به دلیل نیاز به دو Nvidia H100 (۱۶ GPU) برای اجرای مدل اصلاح نشده. پاتل خاطرنشان کرد که این بسیار گران‌تر از مدل‌های گذشته است که روی یک GPU رده پایین (Llama 8B) یا دو GPU سطح بالا (Llama 70B) قرار می‌گیرند.

پاتل گفت: «اجاره دو سرور H100 برای یک سال تقریباً بیش از ۳۰۰۰۰۰ دلار در سال هزینه دارد، بنابراین استقرار Llama 3.1 405B در محل برای شرکت‌های کوچک بسیار گران است.

مک گونل از SambaNova Systems گفت: دلیل افزایش هزینه‌های زیرساخت، افزایش پارامترهای مدل است که نتایج دقیق‌تری ارائه می‌دهد.

به طور معمول، هر ارائه‌دهنده LLM چندین مدل از مدل‌ها را منتشر می‌کند تا به شرکت‌ها اجازه دهد بسته به موارد استفاده، بین تأخیر و دقت انتخاب کنند. در حالی که مدلی با پارامترهای بیشتر می‌تواند دقیق‌تر باشد، مدلی که پارامترهای کمتری دارد به محاسبات کمتری نیاز دارد، زمان کمتری برای پاسخ دادن نیاز دارد و بنابراین هزینه اجرای آن کمتر است.

با این حال، پاتل و مک‌گونل هر دو اشاره کردند که اکثر شرکت‌های بزرگ احتمالاً از مزیت مدل Llama 3.1 405B استفاده می‌کنند، چه برای تنظیم دقیق و آموزش مدل های دیگر یا موارد استفاده در تولید مانند ربات های گفتگو.

پاتل گفت: «شرکت‌های بزرگ ممکن است هزینه اجرای مدل ۴۰۵B را با توجه به سطح هوشمندی و سودمندی که این مدل به ارمغان می‌آورد، گران بدانند.

علاوه بر این، تحلیلگران گفتند که راه دیگری برای کاهش هزینه اجرای مدل بزرگتر وجود دارد. چندین ارائه‌دهنده خدمات ابری بزرگ، به همراه سایر فروشندگان خدمات مدل، در حال حاضر در تلاش هستند تا مدل جدید را به مشتریان خود ارائه دهند.

“بیشتر شرکت ها به ابر متکی هستند API برای استفاده از Llama 3.1 405B. هر ارائه دهنده بزرگ ابری مدل را ارائه می دهد. پاتل افزود: استفاده از API به شرکت‌ها امکان می‌دهد به منابع محاسباتی لازم بر اساس پرداخت هزینه دسترسی داشته باشند و سرمایه‌گذاری‌های اولیه را کاهش دهند.

متا گفت که با شرکت‌هایی مانند Accenture شریک شده است، AWS، AMD، Anyscale، Cloudflare، Databricks، دل، Deloitte، Fireworks.ai، Google Cloud، Groq، صورت در آغوش گرفته، IBM watsonx، Infosys، Intel، Kaggle، Microsoft Azure، Nvidia DGX Cloud، OctoAI، Oracle Cloud، PwC، Replicate، Sarvam AI، Scale.AI، SNCF، Snowflake، Together AI، و پروژه UC Berkeley vLLM برای ساخت خانواده مدل های Llama 3.1 در دسترس و استفاده ساده تر.  

در حالی که ارائه‌دهندگان خدمات ابری مانند AWS و Oracle جدیدترین مدل‌ها را ارائه می‌کنند، شرکای مانند Groq، Dell و Nvidia به توسعه‌دهندگان اجازه می‌دهند از تولید داده‌های مصنوعی و تکنیک های بازیابی نسل افزوده (RAG) و افزود که Groq استنتاج با تاخیر کم را برای استقرار ابری، و اینکه Dell بهینه سازی های مشابهی را برای سیستم های on-prem به دست آورده است.

سایر مدل‌های بزرگ، مانند Claude، Gemini، و GPT-4o نیز از طریق APIها ارائه می‌شوند.

به‌علاوه، مک‌گونل خاطرنشان کرد که در دسترس بودن Llama 3.1 رقابتی را در میان ارائه‌دهندگان خدمات ابری هوش مصنوعی و فروشندگان مدل ارائه می‌کند تا کارآمدترین و مقرون‌به‌صرفه‌ترین راه‌حل‌های API را برای استقرار Llama 3.1 405B ارائه دهند.

TogetherAI و Fireworks.ai که هر دو شرکای متا در گسترش جدیدترین مدل آن هستند، به گفته پاتل، نوآورانه‌ترین بهینه‌سازی‌های استنتاج را برای کاهش قابل توجه هزینه‌ها ارائه می‌کنند.

آیا Llama 3.1 برای ارائه دهندگان رقیب LLM عذاب خواهد داشت؟

به اعتقاد کارشناسان و تحلیلگران، انتشار یک LLM تا حدودی باز که می تواند عملکرد بهتر یا به خوبی LLM های اختصاصی بسته داشته باشد، چالش مهمی برای ارائه دهندگان LLM رقیب، بزرگ یا کوچک است.

«شرکت‌هایی مانند Cohere، Aleph Alpha و استارت‌آپ‌های مشابهی که LLM‌های اختصاصی را توسعه می‌دهند، احتمالاً در یکی دو سال آینده وجود نخواهند داشت یا فقط به شکلی بسیار کوچکتر و گران‌تر زنده می‌مانند. زوینگمن از Rapyd.AI گفت: زمانی که جهان به سمت ویندوز، مک و لینوکس گرایش پیدا کرد، مانند شرط بندی روی سولاریس است.

علاوه بر این، مک گونل خاطرنشان کرد که از آنجایی که LLM ها به دلیل ماهیت بازشان شروع به کالایی شدن می کنند، ارائه دهندگان اختصاصی مانند OpenAI یا باید بر سر کاهش هزینه های خود یا بهبود عملکرد خود با یکدیگر رقابت کنند.

مک گانل در SambaNova Systems گفت: «ما شاهد شروع انتشار نسخه‌های ارزان‌تر GPT-4 OpenAI هستیم که نشان می‌دهد آنها بر کاهش هزینه‌ها تمرکز کرده‌اند.

علاوه بر این، در عرض ۲۴ ساعت پس از انتشار به‌روزرسانی Llama 3.1 متا، OpenAI همچنین به توییتر رفت و اکنون به نام X تغییر نام داده است. ، برای هشدار به مشتریان خود در مورد انتشار یک ردیف رایگان برای سفارشی کردن مدل مینی GPT-4o.

Zwingmann از Rapyd.AI گفت که این نبرد بین LLM های باز و اختصاصی به نفع شرکت ها خواهد بود. انتظار می‌رود که هزینه‌های رمزی برای LLM حتی بیشتر کاهش یابد. شریک مدیریت توضیح داد که دیگر خندق بزرگی وجود ندارد که به هر فروشنده ای اجازه دهد به طور قابل توجهی بیشتر از میانگین بازار هزینه کند.

توکن‌ها واحدهایی هستند که برای اندازه‌گیری مقدار متن پردازش شده توسط LLM API هنگامی که درخواستی از کاربر را تجزیه می‌کند، استفاده می‌شود.

به گفته بردلی شیمین، تحلیلگر صنعتی در Omdia، خانواده مدل های Llama در حال حاضر بر LLM های مستقیم و بزرگتر آن، به ویژه مدل های اختصاصی Google، Anthropic و OpenAI تسلط دارند. تحقیقات Omdia مبتنی بر بررسی و جمع‌آوری پست‌های شغلی است که به دنبال مهارت‌هایی برای کار بر روی خانواده متا LLM هستند.

وزن باز در مقابل منبع باز

اگرچه متا و مدیرعامل آن مارک زاکربرگ آخرین خانواده مدل های لاما را به عنوان منبع باز، چندین تحلیلگر التماس کردند که متفاوت باشند. Shimmin از Omdia گفت که مدل‌های Meta واقعاً منبع باز نیستند، همانطور که تعریف شده توسط Open Source Initiative.

«همه مدل‌های Llama در واقع منبع باز نیستند، همانطور که با نرم‌افزارهای دارای مجوز تحت قراردادهای MIT یا Apache می‌بینیم. من ترجیح می‌دهم بگویم که این یک مجوز جامعه باز و مجاز است که به متخصصان هوش مصنوعی هر آنچه را که برای ایجاد نتایج هوش مصنوعی برای استفاده تجاری نیاز دارند، می‌دهد.

شیمین گفت که اگرچه متا وزن مدل را برای همه LLM های خود ارائه می دهد، این شرکت شفافیت کاملی را در مورد داده های مورد استفاده برای پیش آموزش LLM ها ارائه نمی دهد.

به گفته کارشناسان، بخش بزرگ‌تر مشکل این است که در حال حاضر هیچ تعریفی از LLM منبع باز وجود ندارد یا باید باشد.