هوش مصنوعی Generative کلیدواژه در re:Invent 2023 بود، زیرا AWS تراشههای جدید، مدلهای پایه، بهروزرسانیهای سرویس ساخت اپلیکیشن مبتنی بر هوش مصنوعی خود را Amazon Bedrock، دستیار هوش مصنوعی مولد جدید با نام Amazon Q، پشتیبانی از پایگاههای داده برداری و صفر ارائه کرد. ادغام های ETL
در کنفرانس AWS re:Invent هفته گذشته، تمرکز بر هوش مصنوعی بود و دستیار جدید هوش مصنوعی مولد، آمازون Q، به عنوان ستاره نمایش معرفی شد. اما اخبار زیادی وجود داشت که باعث جلب توجه مدیران پایگاه داده، دانشمندان داده، مهندسان داده و توسعه دهندگان شد، از جمله خدمات جدید extract, transform, load (ETL), یک مرکز بهینه سازی هزینه جدید و اصلاح شده ردیف قیمت گذاری سازمانی برای ابزار توسعه مبتنی بر ابر AWS، به نام Amazon CodeCatalyst.
در اینجا هفت نکته کلیدی از کنفرانس آورده شده است:
تقویت زیرساخت برای هوش مصنوعی مولد
ارائهدهنده خدمات ابری که قابلیتهای زیرساختی را اضافه کرده است. و تراشهها از سال گذشته برای پشتیبانی از محاسبات با عملکرد بالا با بهرهوری انرژی افزایش یافته، آخرین نسخههای Trainium تراشهها.
بر اساس گفتههای AWS، پردازنده Graviton4 تا ۳۰ درصد عملکرد محاسباتی بهتر، ۵۰ درصد هستههای بیشتر و ۷۵ درصد پهنای باند حافظه بیشتر نسبت به نسل فعلی پردازندههای Graviton3 ارائه میکند.
از طرف دیگر، Trainium2 به گونهای طراحی شده است که تا چهار برابر سریعتر از تراشههای Trainium نسل اول آموزش ارائه دهد.
در re:Invent، AWS همچنین همکاری خود را با Nvidia گسترش داد، از جمله پشتیبانی از DGX Cloud، یک پروژه GPU جدید به نام Ceiba، و نمونههای جدیدی برای پشتیبانی از بارهای کاری مولد هوش مصنوعی.
انویدیا همچنین برنامههایی را برای ادغام میکروسرویس NeMo Retriever در AWS به اشتراک گذاشت تا به کاربران در توسعه ابزارهای هوش مصنوعی مانند رباتهای گفتگو کمک کند. NeMo Retriever یک میکروسرویس هوش مصنوعی مولد است که شرکتها را قادر میسازد مدل های زبان بزرگ (LLM) برای داده های سازمانی، بنابراین شرکت می تواند پاسخ های هوش مصنوعی مناسب را بر اساس داده های خود ایجاد کند.
علاوه بر این، AWS گفت که اولین ارائهدهنده ابری خواهد بود که GH200 انویدیا را Superchips Grace Hopper به ابر.
مدل های پایه جدید برای Amazon Bedrock
مدل های به روز شده اضافه شده به Bedrock شامل Anthropic’s Claude 2.1 و Meta Llama 2 70B هستند که هر دو به طور کلی در دسترس هستند. آمازون همچنین مدل های پایه Titan Text Lite و Titan Text Express اختصاصی خود را به Bedrock اضافه کرده است.
علاوه بر این، ارائهدهنده خدمات ابری مدلی را در پیشنمایش، Amazon Titan Image Generator، به سرویس ساخت اپلیکیشن هوش مصنوعی اضافه کرده است.
AWS همچنین ویژگی جدیدی را در Bedrock منتشر کرده است که به شرکتها اجازه میدهد بهترین مدل پایه را برای موارد استفاده و نیازهای تجاری خود ارزیابی، مقایسه و انتخاب کنند.
ارزیابی مدل دوبله شده در Amazon Bedrock و در حال حاضر در پیش نمایش است، این ویژگی با هدف ساده سازی چندین کار مانند شناسایی معیارها، راه اندازی ابزارهای ارزیابی و اجرای ارزیابی ها است، و افزود که این باعث صرفه جویی در زمان و هزینه می شود. p>
بهروزرسانیهای Amazon SageMaker برای پشتیبانی از هوش مصنوعی مولد
به منظور کمک به شرکتها در آموزش و استقرار مدلهای زبان بزرگ، AWS دو پیشنهاد جدید – SageMaker HyperPod و SageMaker Inference – در سرویس Amazon SageMaker AI و Machine Learning معرفی کرد.
بر خلاف فرآیند آموزش مدل دستی – که مستعد تاخیر، هزینههای غیرضروری و سایر عوارض است – HyperPod کارهای سنگین مربوط به ساخت و بهینهسازی زیرساختهای یادگیری ماشین را برای مدلهای آموزشی حذف میکند و زمان آموزش را تا ۴۰% کاهش میدهد. شرکت گفت.
از سوی دیگر، استنتاج SageMaker برای کمک به شرکت در کاهش هزینه استقرار مدل و کاهش تأخیر در پاسخهای مدل هدفگذاری شده است. برای انجام این کار، استنتاج به شرکتها اجازه میدهد تا چندین مدل را در یک نمونه ابری یکسان برای استفاده بهتر از شتابدهندههای زیربنایی مستقر کنند.
AWS همچنین کد کم پلتفرم یادگیری ماشینی خود را که هدف آن تحلیلگران تجاری است، SageMaker Canvas، بهروزرسانی کرده است.
سوامی سیواسوبرامانیان، رئیس پایگاه داده، تجزیه و تحلیل و خدمات یادگیری ماشینی AWS گفت: تحلیلگران می توانند از زبان طبیعی برای تهیه داده ها در داخل Canvas برای تولید مدل های یادگیری ماشین استفاده کنند. پلتفرم بدون کد از LLM از آزمایشگاههای Anthropic، Cohere و AI21 پشتیبانی میکند.
SageMaker همچنین اکنون دارای قابلیت Model Evaluation است که اکنون SageMaker Clarify نامیده میشود که از داخل SageMaker Studio قابل دسترسی است.
Amazon Q — مولد دستیار هوش مصنوعی برای همه چیز
سه شنبه گذشته، آدام سلیپسکی، مدیر عامل AWS، ستاره کنفرانس re:Invent 2023 غول ابری را به نمایش گذاشت: آمازون Q، پاسخ شرکت به GPT-driven Copilot Generative AI دستیار.
Amazon Q میتواند توسط شرکتها در عملکردهای مختلفی از جمله توسعه برنامهها استفاده شود، تبدیل کد، تولید هوش تجاری، عمل به عنوان دستیار هوش مصنوعی مولد برای برنامههای تجاری، و کمک به نمایندگان خدمات مشتری از طریق Amazon Connect.
براکت آمازون برای رزرو کامپیوترهای کوانتومی
ارائهدهنده خدمات ابری برنامه جدیدی را با نام Amazon Braket Direct اعلام کرده است تا به محققان دسترسی مستقیم و خصوصی به رایانههای کوانتومی را ارائه دهد.
این برنامه بخشی از سرویس محاسبات کوانتومی مدیریت شده AWS به نام آمازون برکت است که در سال ۲۰۲۰ معرفی شد.
Amazon Bracket Direct به محققان در سراسر شرکت ها اجازه می دهد بدون هیچ زمان انتظاری به ظرفیت کامل واحدهای پردازش کوانتومی مختلف (QPU) دسترسی خصوصی داشته باشند و همچنین گزینه ای برای دریافت راهنمایی های متخصص برای بار کاری خود از تیم متخصصان محاسبات کوانتومی AWS فراهم می کند. AWS گفت.
در حال حاضر، برنامه Direct از رزرو کامپیوترهای کوانتومی IonQ Aria، QuEra Aquila و Rigetti Aspen-M-3 پشتیبانی می کند.
قیمت IonQ 7000 دلار در ساعت و QuEra Aquila 2500 دلار در ساعت است. Aspen-M-3 قیمت کمی بالاتر در ساعت ۳۰۰۰ دلار دارد.
مرکز بهینه سازی هزینه برای کمک شرکت ها هزینه ها را کاهش می دهند
بهروزرسانیهای اعلامشده در re:Invent شامل ویژگی جدید مدیریت هزینه و صورتحساب AWS است که AWS Cost Optimization Hub نامیده میشود، که شناسایی، فیلتر کردن، جمعآوری و کمی کردن پسانداز توصیههای بهینهسازی هزینه AWS را برای شرکتها آسان میکند. p>
به گفته ارائهدهنده خدمات ابری، هاب جدید، همه اقدامات توصیه شده بهینهسازی هزینه را در خدمات مدیریت مالی (CFM) AWS Cloud، از جمله AWS Cost Explorer و AWS Compute Optimizer، در یک مکان.
AWS افزود: قیمتگذاری و تخفیفهای خاص مشتری را در این توصیهها لحاظ میکند، و یافتهها و پساندازها را حذف میکند تا دیدی تلفیقی از فرصتهای بهینهسازی هزینه یک شرکت ارائه دهد.
این ویژگی احتمالاً به FinOps کمک می کند یا تیمهای مدیریت زیرساخت فرصتهای بهینهسازی هزینه را درک میکنند.
Zero-ETL، پایگاه های داده برداری و سایر به روز رسانی ها
ادامه تلاشهای خود برای ایجاد ETL صفر برای خدمات انبار داده، AWS ادغامهای جدید RedShift Amazon را با Amazon Aurora PostgreSQL، Amazon DynamoDB و Amazon RDS برای MySQL اعلام کرد.
شرکتها معمولاً از Extract, Transform, Load (ETL) برای ادغام دادهها از چندین منبع در یک فروشگاه داده منفرد استفاده میکنند تا در یک انبار داده بارگیری شوند. تجزیه و تحلیل.
با این حال، بیشتر مهندسان داده ادعا میکنند که تبدیل دادهها از متفاوت منابع می تواند یک کار دشوار و زمان بر باشد زیرا این فرآیند شامل مراحلی مانند تمیز کردن، فیلتر کردن، تغییر شکل و خلاصه کردن داده های خام است. AWS گفت: مسئله دیگر هزینه اضافی نگهداری تیم هایی است که خطوط لوله داده را برای اجرای تجزیه و تحلیل آماده می کنند.
در مقابل، به گفته این شرکت، ادغامهای جدید صفر-ETL، نیاز به انجام ETL بین Aurora PostgreSQL، DynamoDB، RDS برای MySQL و RedShift را از بین میبرند، زیرا دادههای تراکنش در این پایگاههای داده میتوانند تقریباً بلافاصله در RedShift تکرار شوند. برای اجرای تجزیه و تحلیل آماده است.
سایر بهروزرسانیهای مرتبط با هوش مصنوعی در re:Invent شامل پشتیبانی بهروز از پایگاههای اطلاعاتی برداری برای Amazon Bedrock است. این پایگاه داده ها شامل Amazon Aurora و MongoDB است. سایر پایگاه های داده پشتیبانی شده عبارتند از Pinecone، Redis Enterprise Cloud، و Vector Engine برای Amazon OpenSearch Serverless.
این شرکت همچنین سطح قیمت گذاری سازمانی جدیدی را به ابزار توسعه مبتنی بر ابر خود، به نام Amazon CodeCatalyst اضافه کرد.
پست های مرتبط
AWS re:Invent 2023: 7 نکته از رویداد بزرگ سالانه
AWS re:Invent 2023: 7 نکته از رویداد بزرگ سالانه
AWS re:Invent 2023: 7 نکته از رویداد بزرگ سالانه