تحلیلگران و کارشناسان می گویند که باز بودن و دقت مدل های خانواده Llama 3.1 یک تهدید وجودی برای ارائه دهندگان مدل های زبان بزرگ اختصاصی بسته است.
خانواده Llama 3.1 که به تازگی رونمایی شده است از زبان بزرگ تحلیلگران و کارشناسان می گویند models (LLMs)، که شامل یک مدل پارامتر ۴۰۵ میلیاردی و همچنین ۷۰ میلیارد پارامتر و ۸ میلیارد متغیر پارامتر است، برای شرکت ها موهبت است و برای فروشندگان اختصاصی LLM بلای جان است.
“در حالی که در یک انتها وزن های باز به روز شده Tobias Zwingmann، شریک مدیریت در AI پلت فرم خدمات نمونه سازی اولیه Rapyd.AI.
چگونه Llama 3.1 به شرکت ها و توسعه دهندگان کمک خواهد کرد؟
مزایای مدلهای خانواده Llama 3.1 برای شرکتها و توسعهدهندگان در وزن باز و کارایی عملکرد آن در تستهای معیار در مقایسه با LLMهای اختصاصی بسته، مانند GPT-4o OpenAI و Gemma 2 Google.
«ارائه یک مدل زبان با وزنهای باز به کسبوکارها این امکان را میدهد تا راهحلهای هوش مصنوعی سفارشی برای موارد استفاده خود بدون دریافت هزینههای گزاف مجوز از استفاده از مدلهای اختصاصی بسازند. در حالی که شرکتها از صرفهجویی در هزینه و افزایش انعطافپذیری سود میبرند، توسعهدهندگان میتوانند با استفاده از یک پایه محکم، نوآوری را تسریع بخشند.»
آرنال دایاراتنا، معاون تحقیقات IDC گفت که شرکتها میتوانند یک مدل باز از خانواده Llama 3.1 را با استفاده از دادههای اختصاصی خود تنظیم کنند، بدون اینکه نگران باشند دادهها و مالکیت معنوی آنها با فروشنده دیگری به اشتراک گذاشته شود.
دایاراتنا افزود: «این کار همچنین به شرکتها و توسعهدهندگان امکان میدهد از قفل شدن فروشنده جلوگیری کنند.
به گفته بردلی شیمین، تحلیلگر ارشد، انتشار مدل پارامتر بزرگتر ۴۰۵ میلیاردی، حتی برای شرکت ها مهم تر است زیرا اکنون می توانند به یک LLM رایگان دسترسی داشته باشند که با کارایی عملکرد یا هوشمندی مدل ها مطابقت دارد، مانند GPT-4، جمینی و Claude.
متا در یک پست وبلاگ گفت که مدل بزرگتر ۴۰۵B Llama 3.1 از مدل هایی مانند به عنوان Nemotron-4 340B Instruct، GPT-4، و غزل کلود ۳.۵ در تست های محک مانند چالش MMLU، ریاضی، GSM8K و ARC. عملکرد آن در این تست ها نیز نزدیک به GPT-4o بود. برای زمینه، GPT-4o امتیاز ۸۸.۷ را در معیار MMLU و Llama 3.1 405B امتیاز ۸۸.۶ را کسب کرد.
MMLU، MATH، GSM8K، و چالش ARC معیارهایی هستند که LLMها را در زمینههای هوش عمومی، ریاضیات و استدلال آزمایش میکنند.
متا در پست وبلاگ گفت:
مدلهای کوچکتر Llama 3.1 8B و ۷۰B که با پنجرههای زمینه بزرگتر و پشتیبانی از چندین زبان بهروزرسانی شدهاند، نیز در همان تستهای معیار عملکرد بهتر یا نزدیک به LLMهای اختصاصی داشتند. p>
اوایل ماه آوریل، متا نسخههای قبلی مدلهای Llama 3 8B و Llama 3 70B که دارای پیشرفتهای معماری نسبت به Llama 2 و تکنیکهای بهبود یافته، مانند استاندارد معماری ترانسفورماتور فقط رمزگشا، توجه به پرسش گروهی (GQA)، و همچنین مجموعه داده های آموزشی با کیفیت بالاتر.
به گفته آنتون مک گونل، رهبر محصول در مولد AI سیستم های SambaNova پلت فرم، می تواند دقت بهتری را برای وظایف عمومی ارائه دهد و این به شرکت ها اجازه می دهد تا بهبودها را در موارد استفاده کارکنان و مشتریان تسریع کنند.
مکگونل گفت: «ما انتظار داریم که توسعهدهندگان از تکنیکهایی مانند رمزگشایی گمانهزنی استفاده کنند، که در آن مدلهای پیچیدهتر بخش عمده پردازش را انجام میدهند، و سپس از مدل بزرگتر برای تأیید کار و تصحیح خطاها در صورت نیاز استفاده میکنند.» روشی کارآمد برای اجرای مدلهای هوش مصنوعی زیرا راههای جدیدی را برای بهینهسازی منابع محاسباتی باز میکند و پاسخها را در برنامههای همزمان افزایش میدهد.
علاوه بر این، دایاراتنا از IDC اشاره کرد که مدل Llama 3.1 405B می تواند تولید داده مصنوعی و همچنین تقطیر مدل را انجام دهد، به این معنی که دانش را از یک مدل بزرگتر به مدل کوچکتر منتقل می کند.
دایاراتنا افزود:
این قابلیتها شرکتها را قادر میسازد تا جریانهای کاری تحلیلی بیشتری را اجرا کنند.
آیا Llama 3.1 برای استقرار برای شرکت ها بسیار گران است؟
تحلیلگران معتقدند در حالی که Llama 3.1 نسبتاً هوشمندتر از نسخه های قبلی خود است، استقرار این مدل ممکن است برای شرکت های کوچک و متوسط بسیار گران باشد.
نسخه Llama 3.1 405B به دلیل نیاز به دو Nvidia H100 (۱۶ GPU) برای اجرای مدل اصلاح نشده. پاتل خاطرنشان کرد که این بسیار گرانتر از مدلهای گذشته است که روی یک GPU رده پایین (Llama 8B) یا دو GPU سطح بالا (Llama 70B) قرار میگیرند.
پاتل گفت: «اجاره دو سرور H100 برای یک سال تقریباً بیش از ۳۰۰۰۰۰ دلار در سال هزینه دارد، بنابراین استقرار Llama 3.1 405B در محل برای شرکتهای کوچک بسیار گران است.
مک گونل از SambaNova Systems گفت: دلیل افزایش هزینههای زیرساخت، افزایش پارامترهای مدل است که نتایج دقیقتری ارائه میدهد.
به طور معمول، هر ارائهدهنده LLM چندین مدل از مدلها را منتشر میکند تا به شرکتها اجازه دهد بسته به موارد استفاده، بین تأخیر و دقت انتخاب کنند. در حالی که مدلی با پارامترهای بیشتر میتواند دقیقتر باشد، مدلی که پارامترهای کمتری دارد به محاسبات کمتری نیاز دارد، زمان کمتری برای پاسخ دادن نیاز دارد و بنابراین هزینه اجرای آن کمتر است.
با این حال، پاتل و مکگونل هر دو اشاره کردند که اکثر شرکتهای بزرگ احتمالاً از مزیت مدل Llama 3.1 405B استفاده میکنند، چه برای تنظیم دقیق و آموزش مدل های دیگر یا موارد استفاده در تولید مانند ربات های گفتگو.
پاتل گفت: «شرکتهای بزرگ ممکن است هزینه اجرای مدل ۴۰۵B را با توجه به سطح هوشمندی و سودمندی که این مدل به ارمغان میآورد، گران بدانند.
علاوه بر این، تحلیلگران گفتند که راه دیگری برای کاهش هزینه اجرای مدل بزرگتر وجود دارد. چندین ارائهدهنده خدمات ابری بزرگ، به همراه سایر فروشندگان خدمات مدل، در حال حاضر در تلاش هستند تا مدل جدید را به مشتریان خود ارائه دهند.
“بیشتر شرکت ها به ابر متکی هستند API برای استفاده از Llama 3.1 405B. هر ارائه دهنده بزرگ ابری مدل را ارائه می دهد. پاتل افزود: استفاده از API به شرکتها امکان میدهد به منابع محاسباتی لازم بر اساس پرداخت هزینه دسترسی داشته باشند و سرمایهگذاریهای اولیه را کاهش دهند.
متا گفت که با شرکتهایی مانند Accenture شریک شده است، AWS، AMD، Anyscale، Cloudflare، Databricks، دل، Deloitte، Fireworks.ai، Google Cloud، Groq، صورت در آغوش گرفته، IBM watsonx، Infosys، Intel، Kaggle، Microsoft Azure، Nvidia DGX Cloud، OctoAI، Oracle Cloud، PwC، Replicate، Sarvam AI، Scale.AI، SNCF، Snowflake، Together AI، و پروژه UC Berkeley vLLM برای ساخت خانواده مدل های Llama 3.1 در دسترس و استفاده ساده تر.
در حالی که ارائهدهندگان خدمات ابری مانند AWS و Oracle جدیدترین مدلها را ارائه میکنند، شرکای مانند Groq، Dell و Nvidia به توسعهدهندگان اجازه میدهند از تولید دادههای مصنوعی و تکنیک های بازیابی نسل افزوده (RAG) و افزود که Groq استنتاج با تاخیر کم را برای استقرار ابری، و اینکه Dell بهینه سازی های مشابهی را برای سیستم های on-prem به دست آورده است.
سایر مدلهای بزرگ، مانند Claude، Gemini، و GPT-4o نیز از طریق APIها ارائه میشوند.
بهعلاوه، مکگونل خاطرنشان کرد که در دسترس بودن Llama 3.1 رقابتی را در میان ارائهدهندگان خدمات ابری هوش مصنوعی و فروشندگان مدل ارائه میکند تا کارآمدترین و مقرونبهصرفهترین راهحلهای API را برای استقرار Llama 3.1 405B ارائه دهند.
TogetherAI و Fireworks.ai که هر دو شرکای متا در گسترش جدیدترین مدل آن هستند، به گفته پاتل، نوآورانهترین بهینهسازیهای استنتاج را برای کاهش قابل توجه هزینهها ارائه میکنند.
آیا Llama 3.1 برای ارائه دهندگان رقیب LLM عذاب خواهد داشت؟
به اعتقاد کارشناسان و تحلیلگران، انتشار یک LLM تا حدودی باز که می تواند عملکرد بهتر یا به خوبی LLM های اختصاصی بسته داشته باشد، چالش مهمی برای ارائه دهندگان LLM رقیب، بزرگ یا کوچک است.
«شرکتهایی مانند Cohere، Aleph Alpha و استارتآپهای مشابهی که LLMهای اختصاصی را توسعه میدهند، احتمالاً در یکی دو سال آینده وجود نخواهند داشت یا فقط به شکلی بسیار کوچکتر و گرانتر زنده میمانند. زوینگمن از Rapyd.AI گفت: زمانی که جهان به سمت ویندوز، مک و لینوکس گرایش پیدا کرد، مانند شرط بندی روی سولاریس است.
علاوه بر این، مک گونل خاطرنشان کرد که از آنجایی که LLM ها به دلیل ماهیت بازشان شروع به کالایی شدن می کنند، ارائه دهندگان اختصاصی مانند OpenAI یا باید بر سر کاهش هزینه های خود یا بهبود عملکرد خود با یکدیگر رقابت کنند.
مک گانل در SambaNova Systems گفت: «ما شاهد شروع انتشار نسخههای ارزانتر GPT-4 OpenAI هستیم که نشان میدهد آنها بر کاهش هزینهها تمرکز کردهاند.
علاوه بر این، در عرض ۲۴ ساعت پس از انتشار بهروزرسانی Llama 3.1 متا، OpenAI همچنین به توییتر رفت و اکنون به نام X تغییر نام داده است. ، برای هشدار به مشتریان خود در مورد انتشار یک ردیف رایگان برای سفارشی کردن مدل مینی GPT-4o.
Zwingmann از Rapyd.AI گفت که این نبرد بین LLM های باز و اختصاصی به نفع شرکت ها خواهد بود. انتظار میرود که هزینههای رمزی برای LLM حتی بیشتر کاهش یابد. شریک مدیریت توضیح داد که دیگر خندق بزرگی وجود ندارد که به هر فروشنده ای اجازه دهد به طور قابل توجهی بیشتر از میانگین بازار هزینه کند.
توکنها واحدهایی هستند که برای اندازهگیری مقدار متن پردازش شده توسط LLM API هنگامی که درخواستی از کاربر را تجزیه میکند، استفاده میشود.
به گفته بردلی شیمین، تحلیلگر صنعتی در Omdia، خانواده مدل های Llama در حال حاضر بر LLM های مستقیم و بزرگتر آن، به ویژه مدل های اختصاصی Google، Anthropic و OpenAI تسلط دارند. تحقیقات Omdia مبتنی بر بررسی و جمعآوری پستهای شغلی است که به دنبال مهارتهایی برای کار بر روی خانواده متا LLM هستند.
وزن باز در مقابل منبع باز
اگرچه متا و مدیرعامل آن مارک زاکربرگ آخرین خانواده مدل های لاما را به عنوان منبع باز، چندین تحلیلگر التماس کردند که متفاوت باشند. Shimmin از Omdia گفت که مدلهای Meta واقعاً منبع باز نیستند، همانطور که تعریف شده توسط Open Source Initiative.
«همه مدلهای Llama در واقع منبع باز نیستند، همانطور که با نرمافزارهای دارای مجوز تحت قراردادهای MIT یا Apache میبینیم. من ترجیح میدهم بگویم که این یک مجوز جامعه باز و مجاز است که به متخصصان هوش مصنوعی هر آنچه را که برای ایجاد نتایج هوش مصنوعی برای استفاده تجاری نیاز دارند، میدهد.
شیمین گفت که اگرچه متا وزن مدل را برای همه LLM های خود ارائه می دهد، این شرکت شفافیت کاملی را در مورد داده های مورد استفاده برای پیش آموزش LLM ها ارائه نمی دهد.
به گفته کارشناسان، بخش بزرگتر مشکل این است که در حال حاضر هیچ تعریفی از LLM منبع باز وجود ندارد یا باید باشد.
پست های مرتبط
چرا Meta’s Llama 3.1 یک موهبت برای شرکت ها و یک آفت برای سایر فروشندگان LLM است
چرا Meta’s Llama 3.1 یک موهبت برای شرکت ها و یک آفت برای سایر فروشندگان LLM است
چرا Meta’s Llama 3.1 یک موهبت برای شرکت ها و یک آفت برای سایر فروشندگان LLM است