آدام سلیپسکی، مدیرعامل AWS و دیگر مدیران ارشد در کنفرانس سالانه re:Invent این شرکت، بهروزرسانیها و محصولات جدیدی را با هدف پیشنهادات چالشبرانگیز مایکروسافت، اوراکل، گوگل و IBM فاش کردند.
در کنفرانس سالانه re:Invent AWS این هفته، مدیر عامل شرکت آدام سلیپسکی و سایر مدیران ارشد، خدمات و بهروزرسانیهای جدیدی را برای جلب علاقه روزافزون سازمانی به سیستمهای هوش مصنوعی مولد و مقابله با رقبایی از جمله مایکروسافت، اوراکل اعلام کردند. ، گوگل و IBM.
AWS، بزرگترین ارائهدهنده خدمات ابری از نظر سهم بازار، به دنبال سرمایهگذاری بر روی علاقه روزافزون به هوش مصنوعی مولد است. بر اساس گزارش از شرکت تحقیقات بازار IDC.
این هزینه که شامل نرمافزار هوش مصنوعی مولد و همچنین سختافزار زیرساختهای مرتبط و خدمات فناوری اطلاعات و تجاری میشود، انتظار میرود در سال ۲۰۲۷ به ۱۴۳ میلیارد دلار برسد، با نرخ رشد مرکب سالانه (CAGR) 73.3%.
این رشد تصاعدی، طبق IDC، تقریباً ۱۳ برابر بیشتر از CAGR برای هزینههای جهانی فناوری اطلاعات در مدت مشابه است.
مانند بسیاری از رقبای خود، به ویژه Oracle، سلیپسکی فاش کرد که استراتژی مولد AWS به سه لایه تقسیم میشود – لایه اول یا زیرساخت برای آموزش یا توسعه مدلهای زبان بزرگ (LLM). یک لایه میانی، که شامل مدل های زبان بزرگ پایه است که برای ساخت برنامه ها لازم است. و یک لایه سوم، که شامل برنامههایی است که از دو لایه دیگر استفاده میکنند.
AWS زیرساختهای هوش مصنوعی مولد را تقویت میکند
ارائهدهنده خدمات ابری، که قابلیتهای زیرساخت را به افزوده است. و تراشهها از سال گذشته برای پشتیبانی از محاسبات با عملکرد بالا با بهرهوری انرژی افزایش یافته، آخرین نسخههای Trainium این هفته.
بر اساس گفتههای AWS، پردازنده Graviton4 تا ۳۰ درصد عملکرد محاسباتی بهتر، ۵۰ درصد هستههای بیشتر و ۷۵ درصد پهنای باند حافظه بیشتر نسبت به نسل فعلی پردازندههای Graviton3 ارائه میکند.
از طرف دیگر، Trainium2 برای ارائه آموزش تا چهار برابر سریعتر از نسل اول تراشههای Trainium طراحی شده است.
این تراشهها میتوانند در EC2 UltraCluster تا ۱۰۰۰۰۰ تراشه مستقر شوند و آموزش مدلهای فونداسیون (FM) و LLM را در کسری از زمانی که تاکنون صرف کردهاند، امکانپذیر میسازد و در عین حال بهرهوری انرژی را بهبود میبخشد. این شرکت گفت تا دو برابر بیشتر از نسل قبلی.
رقبای مایکروسافت، اوراکل، گوگل و آیبیام همگی تراشههای خود را برای محاسبات با عملکرد بالا، از جمله بارهای کاری هوش مصنوعی مولد، ساختهاند.
در حالی که مایکروسافت اخیراً Maia AI Accelerator و CPU های Azure Cobalt برای بارهای آموزشی مدل، Oracle با Ampere همکاری کرده است تا تراشه های خود را تولید کند، مانند Oracle Ampere A1. پیش از این، اوراکل از تراشه های Graviton برای زیرساخت های هوش مصنوعی خود استفاده می کرد. بازوی محاسبات ابری Google، Google Cloud، تراشههای هوش مصنوعی خود را به شکل واحدهای پردازش تنسور (TPU) میسازد و آخرین تراشه آنها TPUv5e است که میتوان آن را با استفاده از تکنولوژی Multislice. IBM از طریق بخش تحقیقاتی خود نیز روی تراشه ای کار می کند که Northpole< /a>، که می تواند به طور موثر از بارهای کاری مولد پشتیبانی کند.
در re:Invent، AWS همچنین همکاری خود را با Nvidia گسترش داد، از جمله پشتیبانی از DGX Cloud، یک پروژه GPU جدید به نام Ceiba، و نمونههای جدیدی برای پشتیبانی از بارهای کاری مولد هوش مصنوعی.
AWS گفت که میزبان خوشهای از پردازندههای گرافیکی DGX Cloud انویدیا خواهد بود که میتواند آموزش هوش مصنوعی و LLMهای مولد را که میتواند به بیش از ۱ تریلیون پارامتر برسد، تسریع بخشد. OpenAI نیز از DGX Cloud برای آموزش LLM استفاده کرده است که زیربنای ChatGPT.
در اوایل ماه فوریه، انویدیا گفت که DGX Cloud را از طریق Oracle Cloud، Microsoft Azure، Google Cloud Platform و سایر ارائه دهندگان ابر در دسترس قرار خواهد داد. در ماه مارس، Oracle از پشتیبانی از DGX Cloud، به دنبال آن مایکروسافت.
مقامات re:Invent همچنین اعلام کردند که نمونههای جدید آمازون EC2 G6e با پردازندههای گرافیکی Nvidia L40S و نمونههای G6 مجهز به پردازندههای گرافیکی L4 در دست ساخت هستند.
پردازندههای گرافیکی L4 نسبت به Hopper H100 کوچکتر شدهاند، اما بهرهوری انرژی بسیار بیشتری ارائه میدهند. هدف این نمونههای جدید استارتآپها، شرکتها و محققانی است که به دنبال آزمایش با هوش مصنوعی هستند.
انویدیا همچنین برنامههایی را برای ادغام میکروسرویس NeMo Retriever در AWS به اشتراک گذاشته تا به کاربران در توسعه ابزارهای مولد هوش مصنوعی مانند چتباتها کمک کند. NeMo Retriever یک ریزسرویس هوش مصنوعی مولد است که شرکتها را قادر میسازد تا LLMهای سفارشی را به دادههای سازمانی متصل کنند، بنابراین شرکت میتواند پاسخهای هوش مصنوعی مناسب را بر اساس دادههای خود ایجاد کند.
علاوه بر این، AWS گفت که اولین ارائهدهنده ابری خواهد بود که GH200 انویدیا را Superchips Grace Hopper به ابر.
پلتفرم چند گره Nvidia GH200 NVL32 32 سوپرتراشه Grace Hopper را از طریق NVLink و NVSwitch Nvidia متصل میکند. این پلتفرم در نمونههای Amazon Elastic Compute Cloud (EC2) که از طریق مجازیسازی شبکه آمازون (AWS Nitro System) و خوشهبندی فرامقیاس (Amazon EC2 UltraClusters) متصل هستند، در دسترس خواهد بود.
مدل های پایه جدید برای ارائه گزینه های بیشتر برای ساخت برنامه
به منظور ارائه انتخاب مدلهای پایه بیشتر و سهولت ساخت برنامه، AWS بهروزرسانیهای مدلهای پایه موجود را در سرویس ساخت برنامه کاربردی هوش مصنوعی خود، Amazon Bedrock، رونمایی کرد.
مدل های به روز شده اضافه شده به Bedrock شامل Anthropic’s Claude 2.1 و Meta Llama 2 70B هستند که هر دو به طور کلی در دسترس هستند. آمازون همچنین مدل های پایه Titan Text Lite و Titan Text Express اختصاصی خود را به Bedrock اضافه کرده است.
علاوه بر این، ارائهدهنده خدمات ابری مدلی را در پیشنمایش، Amazon Titan Image Generator، به سرویس ساخت اپلیکیشن هوش مصنوعی اضافه کرده است.
مدلهای پایه که در حال حاضر در Bedrock موجود هستند شامل مدل های زبان بزرگ (LLM) از اصطبل های AI21 Labs، Cohere Command، Meta، Anthropic و Stability AI.
رقبای مایکروسافت، اوراکل، گوگل و آیبیام نیز مدلهای پایه مختلفی از جمله مدلهای اختصاصی و منبع باز ارائه میدهند. در حالی که مایکروسافت Meta’s Llama 2 را همراه با مدلهای GPT OpenAI ارائه میکند، Google مدلهای اختصاصی مانند PaLM 2، Codey، Imagen و Chirp را ارائه میکند. از سوی دیگر، Oracle، مدل هایی را از Cohere ارائه می دهد.
AWS همچنین ویژگی جدیدی در Bedrock به نام ارزیابی مدل منتشر کرد که به شرکتها اجازه میدهد بهترین مدل پایه را برای مورد استفاده و نیازهای تجاری خود ارزیابی، مقایسه و انتخاب کنند.
اگرچه کاملاً مشابه نیست، ارزیابی مدل را میتوان با باغ مدل Google Vertex AI مقایسه کرد که مخزن مدل های بنیادی از Google و شرکای آن است. سرویس OpenAI مایکروسافت آژور نیز قابلیت انتخاب مدل های زبان بزرگ را ارائه می دهد. LLM ها را می توان در داخل بازار Azure نیز یافت.
Amazon Bedrock، SageMaker ویژگیهای جدیدی برای سهولت ساخت برنامه دریافت میکنند
Amazon Bedrock و SageMaker هر دو توسط AWS بهروزرسانی شدهاند تا نه تنها به آموزش مدلها کمک کنند بلکه سرعت توسعه برنامهها را نیز افزایش دهند.
این بهروزرسانیها شامل ویژگیهایی مانند نسل تقویتشده بازیابی (RAG)، قابلیت تنظیم دقیق LLMها، و توانایی پیشآموزش مدلهای Titan Text Lite و Titan Text Express از درون Bedrock است. AWS همچنین SageMaker HyperPod و SageMaker Inference را معرفی کرد که به ترتیب به مقیاسبندی LLM و کاهش هزینه استقرار هوش مصنوعی کمک میکنند.
Google’s Vertex AI، IBM’s Watsonx.ai، Microsoft’s Azure OpenAI، و برخی از ویژگیهای سرویس هوش مصنوعی Oracle مولد نیز ویژگیهای مشابهی را ارائه میدهند. به Amazon Bedrock، به ویژه به شرکتها اجازه میدهد مدلها و قابلیت RAG را تنظیم کنند.
بهعلاوه، استودیوی هوش مصنوعی مولد Google، که مجموعهای کمکد برای تنظیم است با استقرار و نظارت بر مدلهای پایه، میتوان با SageMaker Canvas AWS، یکی دیگر از پلتفرمهای کمکد برای تحلیلگران کسبوکار، که این هفته برای کمک به تولید مدلها بهروزرسانی شده است، مقایسه کرد.
هر یک از ارائهدهندگان خدمات ابری، از جمله AWS، همچنین دارای کتابخانههای نرمافزاری و سرویسهایی مانند Guardrails برای Amazon Bedrock هستند تا به شرکتها اجازه دهند با بهترین شیوههای مربوط به آموزش دادهها و مدلها مطابقت داشته باشند.
Amazon Q، پاسخ AWS به Copilot مبتنی بر GPT مایکروسافت
در روز سهشنبه، Selipsky اولین ستاره کنفرانس re:Invent 2023 غول ابری را به نمایش گذاشت: Amazon Q، پاسخ این شرکت به GPT-driven Copilot Generative AI دستیار.
اعلام Q توسط Selipsky یادآور سخنرانی ساتیا نادلا، مدیر عامل مایکروسافت در Ignite و Build بود، جایی که او چندین ادغام و طعم Copilot را در طیف وسیعی از محصولات اختصاصی، از جمله Office 365 و Dynamics 365 اعلام کرد.
Amazon Q می تواند توسط شرکت ها در عملکردهای مختلفی از جمله توسعه برنامه ها استفاده شود، تبدیل کد، تولید هوش تجاری، عمل به عنوان دستیار هوش مصنوعی مولد برای برنامه های تجاری، و کمک به نمایندگان خدمات مشتری از طریق Amazon Connect.
رقبا خیلی عقب نیستند. در ماه آگوست، Google نیز دستیار مبتنی بر هوش مصنوعی خود، Duet AI، را به بسیاری از خدمات ابری خود از جمله تجزیه و تحلیل داده، پایگاه داده، و مدیریت زیرساخت و برنامه اضافه کرد.
به طور مشابه، سرویس هوش مصنوعی مدیریت شده Oracle همچنین به شرکت ها اجازه می دهد تا رابط های هوش مصنوعی مبتنی بر LLM را از طریق یک API در برنامه های خود ادغام کنند و افزود که دستیار هوش مصنوعی مولد خود را به سرویس های ابری و NetSuite خود می آورد.
سایر بهروزرسانیهای مرتبط با هوش مصنوعی در re:Invent شامل پشتیبانی بهروز از پایگاههای اطلاعاتی برداری برای Amazon Bedrock است. این پایگاه داده ها شامل Amazon Aurora و MongoDB است. سایر پایگاه های داده پشتیبانی شده عبارتند از Pinecone، Redis Enterprise Cloud، و Vector Engine برای Amazon OpenSearch Serverless.
پست های مرتبط
در اینجا چیزی است که AWS در مورد استراتژی هوش مصنوعی خود در re:Invent 2023 فاش کرد
در اینجا چیزی است که AWS در مورد استراتژی هوش مصنوعی خود در re:Invent 2023 فاش کرد
در اینجا چیزی است که AWS در مورد استراتژی هوش مصنوعی خود در re:Invent 2023 فاش کرد