۲۹ شهریور ۱۴۰۳

Techboy

اخبار و اطلاعات روز تکنولوژی

AWS re:Invent 2023: 7 نکته از رویداد بزرگ سالانه

هوش مصنوعی Generative کلیدواژه در re:Invent 2023 بود، زیرا AWS تراشه‌های جدید، مدل‌های پایه، به‌روزرسانی‌های سرویس ساخت اپلیکیشن مبتنی بر هوش مصنوعی خود را Amazon Bedrock، دستیار هوش مصنوعی مولد جدید با نام Amazon Q، پشتیبانی از پایگاه‌های داده برداری و صفر ارائه کرد. ادغام های ETL

هوش مصنوعی Generative کلیدواژه در re:Invent 2023 بود، زیرا AWS تراشه‌های جدید، مدل‌های پایه، به‌روزرسانی‌های سرویس ساخت اپلیکیشن مبتنی بر هوش مصنوعی خود را Amazon Bedrock، دستیار هوش مصنوعی مولد جدید با نام Amazon Q، پشتیبانی از پایگاه‌های داده برداری و صفر ارائه کرد. ادغام های ETL

در کنفرانس AWS re:Invent هفته گذشته، تمرکز بر هوش مصنوعی بود و دستیار جدید هوش مصنوعی مولد، آمازون Q، به عنوان ستاره نمایش معرفی شد. اما اخبار زیادی وجود داشت که باعث جلب توجه مدیران پایگاه داده، دانشمندان داده، مهندسان داده و توسعه دهندگان شد، از جمله خدمات جدید extract, transform, load (ETL), یک مرکز بهینه سازی هزینه جدید و اصلاح شده ردیف قیمت گذاری سازمانی برای ابزار توسعه مبتنی بر ابر AWS، به نام Amazon CodeCatalyst.

در اینجا هفت نکته کلیدی از کنفرانس آورده شده است:

تقویت زیرساخت برای هوش مصنوعی مولد

ارائه‌دهنده خدمات ابری که قابلیت‌های زیرساختی را اضافه کرده است. و تراشه‌ها از سال گذشته برای پشتیبانی از محاسبات با عملکرد بالا با بهره‌وری انرژی افزایش یافته، آخرین نسخه‌های Trainium تراشه‌ها.

بر اساس گفته‌های AWS، پردازنده Graviton4 تا ۳۰ درصد عملکرد محاسباتی بهتر، ۵۰ درصد هسته‌های بیشتر و ۷۵ درصد پهنای باند حافظه بیشتر نسبت به نسل فعلی پردازنده‌های Graviton3 ارائه می‌کند.

از طرف دیگر، Trainium2 به گونه‌ای طراحی شده است که تا چهار برابر سریع‌تر از تراشه‌های Trainium نسل اول آموزش ارائه دهد.

در re:Invent، AWS همچنین همکاری خود را با Nvidia گسترش داد، از جمله پشتیبانی از DGX Cloud، یک پروژه GPU جدید به نام Ceiba، و نمونه‌های جدیدی برای پشتیبانی از بارهای کاری مولد هوش مصنوعی.

انویدیا همچنین برنامه‌هایی را برای ادغام میکروسرویس NeMo Retriever در AWS به اشتراک گذاشت تا به کاربران در توسعه ابزارهای هوش مصنوعی مانند ربات‌های گفتگو کمک کند. NeMo Retriever یک میکروسرویس هوش مصنوعی مولد است که شرکت‌ها را قادر می‌سازد مدل های زبان بزرگ (LLM) برای داده های سازمانی، بنابراین شرکت می تواند پاسخ های هوش مصنوعی مناسب را بر اساس داده های خود ایجاد کند.

علاوه بر این، AWS گفت که اولین ارائه‌دهنده ابری خواهد بود که GH200 انویدیا را  Superchips Grace Hopper به ابر.

Red Hat پلت فرمی را برای ساخت پورتال توسعه دهندگان راه اندازی کرد

مدل های پایه جدید برای Amazon Bedrock

مدل های به روز شده اضافه شده به Bedrock شامل Anthropic’s Claude 2.1 و Meta Llama 2 70B هستند که هر دو به طور کلی در دسترس هستند. آمازون همچنین مدل های پایه Titan Text Lite و Titan Text Express اختصاصی خود را به Bedrock اضافه کرده است.

علاوه بر این، ارائه‌دهنده خدمات ابری مدلی را در پیش‌نمایش، Amazon Titan Image Generator، به سرویس ساخت اپلیکیشن هوش مصنوعی اضافه کرده است.

AWS همچنین ویژگی جدیدی را در Bedrock منتشر کرده است که به شرکت‌ها اجازه می‌دهد بهترین مدل پایه را برای موارد استفاده و نیازهای تجاری خود ارزیابی، مقایسه و انتخاب کنند.

ارزیابی مدل دوبله شده در Amazon Bedrock و در حال حاضر در پیش نمایش است، این ویژگی با هدف ساده سازی چندین کار مانند شناسایی معیارها، راه اندازی ابزارهای ارزیابی و اجرای ارزیابی ها است، و افزود که این باعث صرفه جویی در زمان و هزینه می شود.

به‌روزرسانی‌های Amazon SageMaker برای پشتیبانی از هوش مصنوعی مولد

به منظور کمک به شرکت‌ها در آموزش و استقرار مدل‌های زبان بزرگ، AWS دو پیشنهاد جدید – SageMaker HyperPod و SageMaker Inference – در سرویس Amazon SageMaker AI و Machine Learning معرفی کرد.

بر خلاف فرآیند آموزش مدل دستی – که مستعد تاخیر، هزینه‌های غیرضروری و سایر عوارض است – HyperPod کارهای سنگین مربوط به ساخت و بهینه‌سازی زیرساخت‌های یادگیری ماشین را برای مدل‌های آموزشی حذف می‌کند و زمان آموزش را تا ۴۰% کاهش می‌دهد. شرکت گفت.

از سوی دیگر، استنتاج SageMaker برای کمک به شرکت در کاهش هزینه استقرار مدل و کاهش تأخیر در پاسخ‌های مدل هدف‌گذاری شده است. برای انجام این کار، استنتاج به شرکت‌ها اجازه می‌دهد تا چندین مدل را در یک نمونه ابری یکسان برای استفاده بهتر از شتاب‌دهنده‌های زیربنایی مستقر کنند.

AWS همچنین  کد کم پلتفرم یادگیری ماشینی خود را که هدف آن تحلیلگران تجاری است، SageMaker Canvas، به‌روزرسانی کرده است.

سوامی سیواسوبرامانیان، رئیس پایگاه داده، تجزیه و تحلیل و خدمات یادگیری ماشینی AWS گفت: تحلیلگران می توانند از زبان طبیعی برای تهیه داده ها در داخل Canvas برای تولید مدل های یادگیری ماشین استفاده کنند. پلتفرم  بدون کد از LLM از آزمایشگاه‌های Anthropic، Cohere و AI21 پشتیبانی می‌کند.

JSONB در PostgreSQL امروز و فردا

SageMaker همچنین اکنون دارای قابلیت Model Evaluation است که اکنون SageMaker Clarify نامیده می‌شود که از داخل SageMaker Studio قابل دسترسی است.

Amazon Q — مولد دستیار هوش مصنوعی برای همه چیز

سه شنبه گذشته، آدام سلیپسکی، مدیر عامل AWS، ستاره کنفرانس re:Invent 2023 غول ابری را به نمایش گذاشت: آمازون Q، پاسخ شرکت به GPT-driven Copilot Generative AI دستیار.

Amazon Q می‌تواند توسط شرکت‌ها در عملکردهای مختلفی از جمله توسعه برنامه‌ها استفاده شود، تبدیل کد، تولید هوش تجاری، عمل به عنوان دستیار هوش مصنوعی مولد برای برنامه‌های تجاری، و کمک به نمایندگان خدمات مشتری از طریق Amazon Connect.

براکت آمازون برای رزرو کامپیوترهای کوانتومی

ارائه‌دهنده خدمات ابری برنامه جدیدی را با نام Amazon Braket Direct اعلام کرده است تا به محققان دسترسی مستقیم و خصوصی به رایانه‌های کوانتومی را ارائه دهد.

این برنامه بخشی از سرویس محاسبات کوانتومی مدیریت شده AWS به نام آمازون برکت است که در سال ۲۰۲۰ معرفی شد. 

Amazon Bracket Direct به محققان در سراسر شرکت ها اجازه می دهد بدون هیچ زمان انتظاری به ظرفیت کامل واحدهای پردازش کوانتومی مختلف (QPU) دسترسی خصوصی داشته باشند و همچنین گزینه ای برای دریافت راهنمایی های متخصص برای بار کاری خود از تیم متخصصان محاسبات کوانتومی AWS فراهم می کند. AWS گفت.

در حال حاضر، برنامه Direct از رزرو کامپیوترهای کوانتومی IonQ Aria، QuEra Aquila و Rigetti Aspen-M-3 پشتیبانی می کند.

قیمت IonQ 7000 دلار در ساعت و QuEra Aquila 2500 دلار در ساعت است. Aspen-M-3 قیمت کمی بالاتر در ساعت ۳۰۰۰ دلار دارد.

مرکز بهینه سازی هزینه برای کمک شرکت ها هزینه ها را کاهش می دهند

به‌روزرسانی‌های اعلام‌شده در re:Invent شامل ویژگی جدید مدیریت هزینه و صورت‌حساب AWS است که AWS Cost Optimization Hub نامیده می‌شود، که شناسایی، فیلتر کردن، جمع‌آوری و کمی کردن پس‌انداز توصیه‌های بهینه‌سازی هزینه AWS را برای شرکت‌ها آسان می‌کند.

ساخت اقدامات سفارشی برای Power Automate برای ویندوز

به گفته ارائه‌دهنده خدمات ابری، هاب جدید، همه اقدامات توصیه شده بهینه‌سازی هزینه را در خدمات مدیریت مالی (CFM) AWS Cloud، از جمله  AWS Cost Explorer و AWS Compute Optimizer، در یک مکان.

AWS افزود: قیمت‌گذاری و تخفیف‌های خاص مشتری را در این توصیه‌ها لحاظ می‌کند، و یافته‌ها و پس‌اندازها را حذف می‌کند تا دیدی تلفیقی از فرصت‌های بهینه‌سازی هزینه یک شرکت ارائه دهد.

این ویژگی احتمالاً به FinOps کمک می کند  یا تیم‌های مدیریت زیرساخت فرصت‌های بهینه‌سازی هزینه را درک می‌کنند.

Zero-ETL، پایگاه های داده برداری و سایر به روز رسانی ها

ادامه تلاش‌های خود برای ایجاد ETL صفر برای خدمات انبار داده، AWS ادغام‌های جدید RedShift Amazon را با Amazon Aurora PostgreSQL، Amazon DynamoDB و Amazon RDS برای MySQL اعلام کرد.

شرکت‌ها معمولاً از Extract, Transform, Load (ETL) برای ادغام داده‌ها از چندین منبع در یک فروشگاه داده منفرد استفاده می‌کنند تا در یک  انبار داده بارگیری شوند. تجزیه و تحلیل.

با این حال، بیشتر مهندسان داده ادعا می‌کنند که تبدیل داده‌ها از متفاوت منابع می تواند یک کار دشوار و زمان بر باشد زیرا این فرآیند شامل مراحلی مانند تمیز کردن، فیلتر کردن، تغییر شکل و خلاصه کردن داده های خام است. AWS گفت: مسئله دیگر هزینه اضافی نگهداری تیم هایی است که خطوط لوله داده را برای اجرای تجزیه و تحلیل آماده می کنند.

در مقابل، به گفته این شرکت، ادغام‌های جدید صفر-ETL، نیاز به انجام ETL بین Aurora PostgreSQL، DynamoDB، RDS برای MySQL و RedShift را از بین می‌برند، زیرا داده‌های تراکنش در این پایگاه‌های داده می‌توانند تقریباً بلافاصله در RedShift تکرار شوند. برای اجرای تجزیه و تحلیل آماده است.

سایر به‌روزرسانی‌های مرتبط با هوش مصنوعی در re:Invent شامل پشتیبانی به‌روز از پایگاه‌های اطلاعاتی برداری برای Amazon Bedrock است. این پایگاه داده ها شامل Amazon Aurora و MongoDB است. سایر پایگاه های داده پشتیبانی شده عبارتند از Pinecone، Redis Enterprise Cloud، و Vector Engine برای Amazon OpenSearch Serverless.

این شرکت همچنین سطح قیمت گذاری سازمانی جدیدی را به ابزار توسعه مبتنی بر ابر خود، به نام Amazon CodeCatalyst اضافه کرد.