۲۹ شهریور ۱۴۰۳

Techboy

اخبار و اطلاعات روز تکنولوژی

متا نسل دوم مدل های Llama AI را آزاد می کند

متا می گوید که سازمان ها می توانند Llama 2 را به صورت رایگان دانلود کنند و آن را در هر کجا که بخواهند، برای اهداف تحقیقاتی و تجاری اجرا کنند. مایکروسافت و AWS در حال حاضر میزبان آن هستند.

متا می گوید که سازمان ها می توانند Llama 2 را به صورت رایگان دانلود کنند و آن را در هر کجا که بخواهند، برای اهداف تحقیقاتی و تجاری اجرا کنند. مایکروسافت و AWS در حال حاضر میزبان آن هستند.

Facebook-parent Meta دسترسی به Llama 2، دومین نسل از خانواده Llama خود را باز کرده است. مدل های متن باز زبان بزرگ (LLM).

این مدل‌ها را می‌توان از طریق ارائه‌دهندگان خدمات هوش مصنوعی مولد مانند مایکروسافت، AWS و Hugging Face در میان سایرین دسترسی داشت و تحت مجوز جدیدی در دسترس هستند که استفاده تجاری را مجاز می‌کند.

“ما اکنون آماده هستیم تا نسخه بعدی Llama 2 را منبع باز کنیم و آن را به صورت رایگان برای تحقیقات و استفاده تجاری در دسترس قرار می دهیم. متا در پست وبلاگ.

Cohere ابتدا Command R+ LLM جدید را روی Azure راه اندازی کرد

خانواده Llama 2 از مدل‌های زبان بزرگ (LLM) مجموعه‌ای از مدل‌های متن مولد از پیش آموزش‌دیده و تنظیم‌شده در مقیاس ۷ میلیارد، ۱۳ میلیارد و ۷۰ میلیارد پارامتر، از جمله دقیق است. LLM های تنظیم شده، به نام Llama-2-Chat.

به گفته متا، مدل‌های تنظیم‌شده از تنظیم دقیق و یادگیری تقویتی نظارت شده با بازخورد انسانی استفاده می‌کنند. این شرکت گفت در حالی که مدل‌های تنظیم‌شده بیشتر برای دستیاران مبتنی بر چت در نظر گرفته شده‌اند، مدل‌های از پیش آموزش‌دیده می‌توانند برای انواع وظایف تولید زبان طبیعی استفاده شوند.

هوش مصنوعی مولد و نسخه جدیدی از برنامه نویسی قدیمی

متا گفت: مشتریان مایکروسافت می‌توانند از طریق کاتالوگ مدل Azure AI به نسل جدید LLM دسترسی داشته باشند.

این مدل‌ها همچنین برای اجرای محلی در ویندوز بهینه‌سازی شده‌اند و به توسعه‌دهندگان یک گردش کاری یکپارچه می‌دهند زیرا تجربیات هوش مصنوعی مولد را برای مشتریان در پلتفرم‌های مختلف به ارمغان می‌آورند.

مشتریان AWS می‌توانند از طریق آمازون SageMaker JumpStart، یک مرکز یادگیری ماشینی که با مدل‌های زبان بزرگ و ابزارهای دیگر مانند SageMaker Studio ارائه می‌شود، به نسخه جدید LLM دسترسی داشته باشند.

«اکنون می‌توانید Llama 2 را با چند کلیک در Amazon SageMaker Studio یا به صورت برنامه‌نویسی از طریق SageMaker Python SDK کشف و استقرار دهید، که به شما امکان می‌دهد عملکرد مدل و کنترل‌های Mlops را با ویژگی‌های SageMaker مانند Amazon SageMaker Pipelines، Amazon SageMaker Debugger، استخراج کنید. AWS در پست وبلاگ.

SAS Viya و پیگیری هوش مصنوعی قابل اعتماد

مدل‌های Llama 2 در ابتدا در مناطق ابری ایالات متحده-شرق ۱ و ما-غرب ۲ ، AWS اضافه شده است.

شرکت‌ها و محققان همچنین می‌توانند مدل‌های جدید را از پورتال Hugging Face دانلود کنند.

در حالی که متا مدل‌های Llama 2 را به‌عنوان منبع باز توصیف می‌کند، فهرست طولانی‌ای از محدودیت‌ها را در مورد آنچه می‌توان از آنها در خط مشی استفاده قابل قبول، و راهنمای برای استفاده مسئولانه آنها.