۲۹ شهریور ۱۴۰۳

Techboy

اخبار و اطلاعات روز تکنولوژی

چگونه ابرهای عمومی در هوش مصنوعی نوآوری می کنند

شرکت‌هایی که منابع لازم برای توسعه مدل‌های یادگیری ماشین داخلی را ندارند، به ارائه‌دهندگان بزرگ ابری روی می‌آورند.

شرکت‌هایی که منابع لازم برای توسعه مدل‌های یادگیری ماشین داخلی را ندارند، به ارائه‌دهندگان بزرگ ابری روی می‌آورند.

سه ارائه‌دهنده بزرگ ابر، به‌ویژه خدمات وب آمازون (AWS)، Microsoft Azure و Google Cloud Platform (GCP)، از توسعه‌دهندگان و دانشمندان داده می‌خواهند که مدل‌های یادگیری ماشینی را روی ابرهای خود توسعه، آزمایش و استقرار دهند. این یک تلاش پرسود برای آنها است زیرا مدل‌های آزمایشی اغلب به زیرساخت‌های گسترده نیاز دارند و مدل‌های در حال تولید اغلب به در دسترس بودن بالایی نیاز دارند.

این‌ها خدمات پرسودی برای ارائه‌دهندگان ابری هستند و مزایایی را به مشتریان خود ارائه می‌کنند، اما آنها نمی‌خواهند برای کسب‌وکار شما فقط در زیرساخت، سطح خدمات و قیمت‌گذاری رقابت کنند. آنها بر روی رمپ های همه کاره تمرکز می کنند تا مشتریان بتوانند از قابلیت های یادگیری ماشینی خود استفاده کنند. هر ابر عمومی گزینه‌های ذخیره‌سازی داده‌های متعددی از جمله پایگاه‌های داده بدون سرور، انبارهای داده، دریاچه‌های داده و ذخیره‌گاه‌های داده NoSQL را ارائه می‌دهد، که این احتمال را ایجاد می‌کند که مدل‌هایی را در نزدیکی محل قرارگیری داده‌های خود ایجاد کنید. آنها چارچوب‌های یادگیری ماشینی محبوب، از جمله TensorFlow و PyTorch را ارائه می‌کنند تا ابرهای آن‌ها فروشگاه‌های یک‌جا برای تیم‌های علم داده‌ای باشند که انعطاف‌پذیری می‌خواهند. هر سه مدل Modelops، MLops و تعداد رو به رشدی را ارائه می‌کنند. از قابلیت‌هایی برای پشتیبانی از چرخه زندگی کامل یادگیری ماشینی.

یک مطالعه اخیر نشان می‌دهد ۷۸ درصد از پروژه‌های هوش مصنوعی (AI) و یادگیری ماشین (ML) با استفاده از زیرساخت‌های ابری ترکیبی مستقر می‌شوند، بنابراین ابرهای عمومی فضای زیادی برای رشد دارند. این بدان معناست که آنها باید به نوآوری با قابلیت های جدید و متمایز ادامه دهند.

این نوآوری در چندین دسته ارائه می‌شود تا به شرکت‌ها کمک کند تا یادگیری ماشینی را در مقیاس، با خدمات بیشتر و پلت‌فرم‌های با کاربری آسان‌تر اجرا کنند. در اینجا برخی از جزئیات وجود دارد.

GitOps چیست؟ گسترش devops به Kubernetes و فراتر از آن

نبرد تراشه های هوش مصنوعی

تجربه‌های یادگیری ماشینی با مدل‌های بزرگ و پیچیده‌تر که نیاز به آموزش بر روی حجم وسیعی از داده‌ها دارند، ادامه می‌یابد. مایکروسافت و انویدیا اخیراً یک پردازنده زبان ۵۳۰ میلیارد پارامتری را معرفی کردند، در حالی که Google ادعا می کند که قبلاً یک مدل ۱.۶ تریلیون پارامتری را آموزش داده است. سال.

مدل‌های آموزشی با این اندازه و پیچیدگی ممکن است زمان زیادی ببرد و گران شوند، بنابراین ابرهای عمومی با تراشه‌های هوش مصنوعی و گزینه‌های زیرساخت نوآوری می‌کنند. AWS قبلاً Inferentia دارد. و Trainium ; اخیراً جدید را معرفی کرده است. نمونه‌های EC2 مجهز به Habana’s Gaudi که در مقایسه با آخرین EC2 مجهز به GPU، ۴۰٪ عملکرد بهتری از نظر قیمت ارائه می‌دهند.

در همین حال، Google نسخه ۴ TPU را معرفی کرد اوایل سال ۲۰۲۱. واحد پردازش تانسور نسل چهارم آن به طور متوسط ​​۲.۷ برابر عملکرد TPU v3 بهبود یافته است. منتظر نوآوری های سخت افزاری بیشتری با تراشه ها و شتاب دهنده های هوش مصنوعی از Cerebras، Graphcore، Nvidia و SambaNova.

تراشه‌ها تنها قابلیت زیرساخت فعال‌کننده هوش مصنوعی نیستند و هر سه ابر عمومی دارای پلت‌فرم‌های محاسباتی لبه‌ای هستند برای کمک به استقرار مدل‌های یادگیری ماشین برای اینترنت اشیا و سایر برنامه‌های پخش جریانی.

نبرد خدمات هوش مصنوعی

بیشتر تیم‌های علم داده هوش مصنوعی در مقیاس عظیم توسعه نمی‌دهند، اما می‌خواهند مدل‌های یادگیری ماشینی پیشرفته ایجاد و پیکربندی کنند. هر سه ارائه‌دهنده ابر در حال توسعه خدمات یادگیری ماشین هستند، و من انتظار دارم که این خدمات در چند سال آینده به میزان قابل توجهی رشد کنند.

در زیر یک نمای کلی از خدمات یادگیری ماشین ارائه شده در Azure، GCP و AWS آورده شده است:

  • خدمات شناختی مایکروسافت شامل خدمات گفتاری، خدمات زبانی است. برای تجزیه و تحلیل احساسات و خدمات پرسش و پاسخ که اغلب در چت بات ها استفاده می شود. خدمات بینایی آن‌ها شامل تشخیص چهره است، و دارای خدمات پشتیبانی تصمیم هستند که برای شخصی‌سازی و تشخیص ناهنجاری استفاده می‌شوند.
  • مایکروسافت اخیراً سرویس OpenAI را معرفی کرد که به < یک href="https://openai.com/blog/gpt-3-apps/" rel="nofollow">مدل زبان طبیعی GPT-3 که از جستجو، مکالمه، تکمیل متن و سایر خدمات پشتیبانی می‌کند.
  • Google Cloud چندین سرویس‌های هوش مصنوعی پردازش اسناد دارد، از جمله DocAI برای پردازش اسناد عمومی و راه حل های عمودی برای وام، تدارکات، مراکز تماس و مدیریت قرارداد.
  • خدمات

  • یادگیری ماشین AWS شامل Rekognition در بینایی کامپیوتر، متن برای پردازش اسناد، Lex برای ربات‌های گفتگو، CodeGuru برای بررسی کد، و شخصی‌سازی برای سفارشی‌سازی برنامه‌های وب.
  • AWS همچنین راه‌حل‌های هوش مصنوعی خاص صنعت مانند Amazon HealthLake را برای فعال کردن پیش‌بینی‌های داده‌های سلامت ارائه می‌کند، Amazon Lookout برای شناسایی رفتار غیرعادی تجهیزات، و ردیاب تقلب آمازون برای خدمات مالی و سایر صنایع.
ساخت عوامل هوش مصنوعی با Semantic Kernel

آیا مدل‌های یادگیری ماشین بیشتری را به عنوان یک سرویس (MLaaS) از ابرهای عمومی و سایر رقبا خواهیم دید؟ دکتر کرک بورن، مدیر ارشد علمی DataPrime، معتقد است. به دلیل پیچیدگی روزافزون این مدل‌ها و هزینه‌های مربوط به آموزش آن‌ها، ما شاهد ارائه‌های MLaaS یا مدل‌ها به‌عنوان خدمات بیشتری خواهیم بود. کمتر سازمانی بخواهد زمان و استعداد خود را برای ساختن نمونه های خود از آن مدل های از پیش آموزش دیده سرمایه گذاری کند.”

Borne ادامه می‌دهد، «تعداد عظیمی از کسب‌وکارهای کوچک تا متوسط ​​که با ML و AI افزایش می‌یابند، این پیشنهادات X-aaS را کاملاً با زمان، بودجه و نیازهای استراتژیک خود مناسب می‌بینند. MLaaS همچنین با بهره گیری از مدل های از پیش آموزش دیده به عنوان سرویسی که از الگوریتم های پیچیده و قدرتمند استفاده می کند، به رفع شکاف استعدادهای فراگیر کمک می کند.”

پیشنهادات برتر توسعه دهندگان از AWS re:Invent 2021

نبرد برای دسترسی بیشتر به هوش مصنوعی

مرز بعدی برای ابرهای عمومی، فعال کردن قابلیت‌های یادگیری ماشین و هوش مصنوعی برای سازمان‌هایی است که ممکن است تیم‌های توسعه نرم‌افزار پیشرفته و علم داده نداشته باشند. آنها این کار را از طریق فناوری‌های کم‌کد انجام می‌دهند که یا قابلیت‌های یادگیری ماشین داخلی دارند یا به توسعه‌دهندگان کمک می‌کنند تا با سایر سرویس‌های هوش مصنوعی خود ارتباط برقرار کنند.

AWS SageMaker IDE توسعه، آزمایش و استقرار مدل‌های یادگیری ماشین را ساده می‌کند. IDE چندین قابلیت پیشرفته را فراهم می کند، از جمله یک مختل کننده داده برای کمک به دانشمندان داده در آماده سازی داده ها، یک فروشگاه ویژگی< /a> برای ترویج همکاری و استفاده مجدد بین تیم های علم داده، و توسعه قابلیت های استقرار با یک کلیک. AWS Sagemaker با پلتفرم‌های علم داده مانند Alteryx، Dataiku، KNIME، و SAS.

Microsoft دستگاه Azure را ارائه می‌کند Learning Studio، پورتالی که تجربیات بدون کد و کد اول را برای دانشمندان داده ترکیب می کند. پیشنهاد پیشرفته‌تر هوش مصنوعی کم‌کد آنها AI Builder برای پلت فرم Power Apps که به توسعه دهندگان با کد پایین امکان می دهد طبقه بندی متن، تشخیص اشیا و پردازش فرم را انجام دهند.

Google رویکرد مشابهی را با AutoML برای مدل‌های آموزشی اتخاذ می‌کند. هوش داخلی AppSheet شامل پیش‌بینی روند، طبقه‌بندی محتوا، تجزیه و تحلیل احساسات و سایر ویژگی‌ها است. ابرهای عمومی با سایر پلتفرم‌های کم‌کد ارائه‌دهنده قابلیت‌های یادگیری ماشین رقابت می‌کنند، از جمله Creatio ، Outsystems، Thinkwise، Vantiq، و دیگران.

این جالب خواهد بود که ببینیم چگونه ابرهای عمومی، استارت‌آپ‌ها، فروشندگان نرم‌افزار سازمانی، تولیدکنندگان تراشه، ارائه‌دهندگان زیرساخت و پلت‌فرم‌های منبع باز در زمینه هوش مصنوعی و نوآوری یادگیری ماشین برای پشتیبانی از مدل‌های بزرگ‌تر، خدمات بیشتر و آسان‌تر رقابت می‌کنند. رمپ برای یکپارچه سازی برنامه ها.