۲۹ شهریور ۱۴۰۳

Techboy

اخبار و اطلاعات روز تکنولوژی

در اینجا چیزی است که AWS در مورد استراتژی هوش مصنوعی خود در re:Invent 2023 فاش کرد

آدام سلیپسکی، مدیرعامل AWS و دیگر مدیران ارشد در کنفرانس سالانه re:Invent این شرکت، به‌روزرسانی‌ها و محصولات جدیدی را با هدف پیشنهادات چالش‌برانگیز مایکروسافت، اوراکل، گوگل و IBM فاش کردند.

آدام سلیپسکی، مدیرعامل AWS و دیگر مدیران ارشد در کنفرانس سالانه re:Invent این شرکت، به‌روزرسانی‌ها و محصولات جدیدی را با هدف پیشنهادات چالش‌برانگیز مایکروسافت، اوراکل، گوگل و IBM فاش کردند.

در کنفرانس سالانه re:Invent AWS این هفته، مدیر عامل شرکت آدام سلیپسکی و سایر مدیران ارشد، خدمات و به‌روزرسانی‌های جدیدی را برای جلب علاقه روزافزون سازمانی به سیستم‌های هوش مصنوعی مولد و مقابله با رقبایی از جمله مایکروسافت، اوراکل اعلام کردند. ، گوگل و IBM.

AWS، بزرگ‌ترین ارائه‌دهنده خدمات ابری از نظر سهم بازار، به دنبال سرمایه‌گذاری بر روی علاقه روزافزون به هوش مصنوعی مولد است. بر اساس گزارش از شرکت تحقیقات بازار IDC.

این هزینه که شامل نرم‌افزار هوش مصنوعی مولد و همچنین سخت‌افزار زیرساخت‌های مرتبط و خدمات فناوری اطلاعات و تجاری می‌شود، انتظار می‌رود در سال ۲۰۲۷ به ۱۴۳ میلیارد دلار برسد، با نرخ رشد مرکب سالانه (CAGR) 73.3%.

این رشد تصاعدی، طبق IDC، تقریباً ۱۳ برابر بیشتر از CAGR برای هزینه‌های جهانی فناوری اطلاعات در مدت مشابه است.

مانند بسیاری از رقبای خود، به ویژه Oracle، سلیپسکی فاش کرد که استراتژی مولد AWS به سه لایه تقسیم می‌شود – لایه اول یا زیرساخت برای آموزش یا توسعه مدل‌های زبان بزرگ (LLM). یک لایه میانی، که شامل مدل های زبان بزرگ پایه است که برای ساخت برنامه ها لازم است. و یک لایه سوم، که شامل برنامه‌هایی است که از دو لایه دیگر استفاده می‌کنند.

AWS زیرساخت‌های هوش مصنوعی مولد را تقویت می‌کند

ارائه‌دهنده خدمات ابری، که قابلیت‌های زیرساخت را به افزوده است. و تراشه‌ها از سال گذشته برای پشتیبانی از محاسبات با عملکرد بالا با بهره‌وری انرژی افزایش یافته، آخرین نسخه‌های Trainium این هفته.

بر اساس گفته‌های AWS، پردازنده Graviton4 تا ۳۰ درصد عملکرد محاسباتی بهتر، ۵۰ درصد هسته‌های بیشتر و ۷۵ درصد پهنای باند حافظه بیشتر نسبت به نسل فعلی پردازنده‌های Graviton3 ارائه می‌کند.

از طرف دیگر، Trainium2 برای ارائه آموزش تا چهار برابر سریعتر از نسل اول تراشه‌های Trainium طراحی شده است.

این تراشه‌ها می‌توانند در EC2 UltraCluster تا ۱۰۰۰۰۰ تراشه مستقر شوند و آموزش مدل‌های فونداسیون (FM) و LLM را در کسری از زمانی که تاکنون صرف کرده‌اند، امکان‌پذیر می‌سازد و در عین حال بهره‌وری انرژی را بهبود می‌بخشد. این شرکت گفت تا دو برابر بیشتر از نسل قبلی.

رقبای مایکروسافت، اوراکل، گوگل و آی‌بی‌ام همگی تراشه‌های خود را برای محاسبات با عملکرد بالا، از جمله بارهای کاری هوش مصنوعی مولد، ساخته‌اند.

در حالی که مایکروسافت اخیراً Maia AI Accelerator و CPU های Azure Cobalt برای بارهای آموزشی مدل، Oracle با Ampere همکاری کرده است تا تراشه های خود را تولید کند، مانند Oracle Ampere A1. پیش از این، اوراکل از تراشه های Graviton برای زیرساخت های هوش مصنوعی خود استفاده می کرد. بازوی محاسبات ابری Google، Google Cloud، تراشه‌های هوش مصنوعی خود را به شکل واحدهای پردازش تنسور (TPU) می‌سازد و آخرین تراشه آنها TPUv5e است که می‌توان آن را با استفاده از تکنولوژی Multislice. IBM از طریق بخش تحقیقاتی خود نیز روی تراشه ای کار می کند که Northpole< /a>، که می تواند به طور موثر از بارهای کاری مولد پشتیبانی کند.

بدون سرور آینده PostgreSQL است

در re:Invent، AWS همچنین همکاری خود را با Nvidia گسترش داد، از جمله پشتیبانی از DGX Cloud، یک پروژه GPU جدید به نام Ceiba، و نمونه‌های جدیدی برای پشتیبانی از بارهای کاری مولد هوش مصنوعی.

AWS گفت که میزبان خوشه‌ای از پردازنده‌های گرافیکی DGX Cloud انویدیا خواهد بود که می‌تواند آموزش هوش مصنوعی و LLM‌های مولد را که می‌تواند به بیش از ۱ تریلیون پارامتر برسد، تسریع بخشد. OpenAI نیز از DGX Cloud برای آموزش LLM استفاده کرده است که زیربنای ChatGPT.

در اوایل ماه فوریه، انویدیا گفت که DGX Cloud را از طریق Oracle Cloud، Microsoft Azure، Google Cloud Platform و سایر ارائه دهندگان ابر در دسترس قرار خواهد داد. در ماه مارس، Oracle از پشتیبانی از DGX Cloud، به دنبال آن مایکروسافت.

مقامات re:Invent همچنین اعلام کردند که نمونه‌های جدید آمازون EC2 G6e با پردازنده‌های گرافیکی Nvidia L40S و نمونه‌های G6 مجهز به پردازنده‌های گرافیکی L4 در دست ساخت هستند.

پردازنده‌های گرافیکی L4 نسبت به Hopper H100 کوچک‌تر شده‌اند، اما بهره‌وری انرژی بسیار بیشتری ارائه می‌دهند. هدف این نمونه‌های جدید استارت‌آپ‌ها، شرکت‌ها و محققانی است که به دنبال آزمایش با هوش مصنوعی هستند.

انویدیا همچنین برنامه‌هایی را برای ادغام میکروسرویس NeMo Retriever در AWS به اشتراک گذاشته تا به کاربران در توسعه ابزارهای مولد هوش مصنوعی مانند چت‌بات‌ها کمک کند. NeMo Retriever یک ریزسرویس هوش مصنوعی مولد است که شرکت‌ها را قادر می‌سازد تا LLM‌های سفارشی را به داده‌های سازمانی متصل کنند، بنابراین شرکت می‌تواند پاسخ‌های هوش مصنوعی مناسب را بر اساس داده‌های خود ایجاد کند.

علاوه بر این، AWS گفت که اولین ارائه‌دهنده ابری خواهد بود که GH200 انویدیا را  Superchips Grace Hopper به ابر.

پلتفرم چند گره Nvidia GH200 NVL32 32 سوپرتراشه Grace Hopper را از طریق NVLink و NVSwitch Nvidia متصل می‌کند. این پلتفرم در نمونه‌های Amazon Elastic Compute Cloud (EC2) که از طریق مجازی‌سازی شبکه آمازون (AWS Nitro System) و خوشه‌بندی فرامقیاس (Amazon EC2 UltraClusters) متصل هستند، در دسترس خواهد بود.

Deno Deploy به سمت GA حرکت می کند، طرح پولی را اضافه می کند

مدل های پایه جدید برای ارائه گزینه های بیشتر برای ساخت برنامه

به منظور ارائه انتخاب مدل‌های پایه بیشتر و سهولت ساخت برنامه، AWS به‌روزرسانی‌های مدل‌های پایه موجود را در سرویس ساخت برنامه کاربردی هوش مصنوعی خود، Amazon Bedrock، رونمایی کرد.

مدل های به روز شده اضافه شده به Bedrock شامل Anthropic’s Claude 2.1 و Meta Llama 2 70B هستند که هر دو به طور کلی در دسترس هستند. آمازون همچنین مدل های پایه Titan Text Lite و Titan Text Express اختصاصی خود را به Bedrock اضافه کرده است.

علاوه بر این، ارائه‌دهنده خدمات ابری مدلی را در پیش‌نمایش، Amazon Titan Image Generator، به سرویس ساخت اپلیکیشن هوش مصنوعی اضافه کرده است.

مدل‌های پایه که در حال حاضر در Bedrock موجود هستند شامل مدل های زبان بزرگ (LLM) از اصطبل های AI21 Labs، Cohere Command، Meta، Anthropic و Stability AI.

رقبای مایکروسافت، اوراکل، گوگل و آی‌بی‌ام نیز مدل‌های پایه مختلفی از جمله مدل‌های اختصاصی و منبع باز ارائه می‌دهند. در حالی که مایکروسافت Meta’s Llama 2 را همراه با مدل‌های GPT OpenAI ارائه می‌کند، Google مدل‌های اختصاصی مانند PaLM 2، Codey، Imagen و Chirp را ارائه می‌کند. از سوی دیگر، Oracle، مدل هایی را از Cohere ارائه می دهد.

AWS همچنین ویژگی جدیدی در Bedrock به نام ارزیابی مدل منتشر کرد که به شرکت‌ها اجازه می‌دهد بهترین مدل پایه را برای مورد استفاده و نیازهای تجاری خود ارزیابی، مقایسه و انتخاب کنند.

اگرچه کاملاً مشابه نیست، ارزیابی مدل را می‌توان با باغ مدل Google Vertex AI مقایسه کرد که مخزن مدل های بنیادی از Google و شرکای آن است. سرویس OpenAI مایکروسافت آژور نیز قابلیت انتخاب مدل های زبان بزرگ را ارائه می دهد. LLM ها را می توان در داخل بازار Azure نیز یافت.

Amazon Bedrock، SageMaker ویژگی‌های جدیدی برای سهولت ساخت برنامه دریافت می‌کنند

Amazon Bedrock و SageMaker هر دو توسط AWS به‌روزرسانی شده‌اند تا نه تنها به آموزش مدل‌ها کمک کنند بلکه سرعت توسعه برنامه‌ها را نیز افزایش دهند.

این به‌روزرسانی‌ها شامل ویژگی‌هایی مانند  نسل تقویت‌شده بازیابی (RAG)، قابلیت تنظیم دقیق LLM‌ها، و توانایی پیش‌آموزش مدل‌های Titan Text Lite و Titan Text Express از درون Bedrock است. AWS همچنین SageMaker HyperPod و SageMaker Inference را معرفی کرد که به ترتیب به مقیاس‌بندی LLM و کاهش هزینه استقرار هوش مصنوعی کمک می‌کنند.

ساخت مدل جزء برای Wasm

Google’s Vertex AI، IBM’s Watsonx.ai، Microsoft’s Azure OpenAI، و برخی از ویژگی‌های سرویس هوش مصنوعی Oracle مولد نیز ویژگی‌های مشابهی را ارائه می‌دهند. به Amazon Bedrock، به ویژه به شرکت‌ها اجازه می‌دهد مدل‌ها و قابلیت RAG را تنظیم کنند.

به‌علاوه، استودیوی هوش مصنوعی مولد Google، که مجموعه‌ای کم‌کد برای تنظیم است با استقرار و نظارت بر مدل‌های پایه، می‌توان با SageMaker Canvas AWS، یکی دیگر از پلتفرم‌های کم‌کد برای تحلیلگران کسب‌وکار، که این هفته برای کمک به تولید مدل‌ها به‌روزرسانی شده است، مقایسه کرد.

هر یک از ارائه‌دهندگان خدمات ابری، از جمله AWS، همچنین دارای کتابخانه‌های نرم‌افزاری و سرویس‌هایی مانند Guardrails برای Amazon Bedrock هستند تا به شرکت‌ها اجازه دهند با بهترین شیوه‌های مربوط به آموزش داده‌ها و مدل‌ها مطابقت داشته باشند.

Amazon Q، پاسخ AWS به Copilot مبتنی بر GPT مایکروسافت

در روز سه‌شنبه، Selipsky اولین ستاره کنفرانس re:Invent 2023 غول ابری را به نمایش گذاشت: Amazon Q، پاسخ این شرکت به GPT-driven Copilot Generative AI دستیار.

اعلام Q توسط Selipsky یادآور سخنرانی ساتیا نادلا، مدیر عامل مایکروسافت در Ignite و Build بود، جایی که او چندین ادغام و طعم Copilot را در طیف وسیعی از محصولات اختصاصی، از جمله Office 365 و Dynamics 365 اعلام کرد. 

Amazon Q می تواند توسط شرکت ها در عملکردهای مختلفی از جمله توسعه برنامه ها استفاده شود، تبدیل کد، تولید هوش تجاری، عمل به عنوان دستیار هوش مصنوعی مولد برای برنامه های تجاری، و کمک به نمایندگان خدمات مشتری از طریق Amazon Connect.

رقبا خیلی عقب نیستند. در ماه آگوست، Google نیز دستیار مبتنی بر هوش مصنوعی خود، Duet AI، را به بسیاری از خدمات ابری خود از جمله تجزیه و تحلیل داده، پایگاه داده، و مدیریت زیرساخت و برنامه اضافه کرد.

به طور مشابه، سرویس هوش مصنوعی مدیریت شده Oracle همچنین به شرکت ها اجازه می دهد تا رابط های هوش مصنوعی مبتنی بر LLM را از طریق یک API در برنامه های خود ادغام کنند و افزود که دستیار هوش مصنوعی مولد خود را به سرویس های ابری و NetSuite خود می آورد.

سایر به‌روزرسانی‌های مرتبط با هوش مصنوعی در re:Invent شامل پشتیبانی به‌روز از پایگاه‌های اطلاعاتی برداری برای Amazon Bedrock است. این پایگاه داده ها شامل Amazon Aurora و MongoDB است. سایر پایگاه های داده پشتیبانی شده عبارتند از Pinecone، Redis Enterprise Cloud، و Vector Engine برای Amazon OpenSearch Serverless.