۳۰ آذر ۱۴۰۳

Techboy

اخبار و اطلاعات روز تکنولوژی

مدل‌های زبان بزرگ، میدان جنگ ابری جدید هستند

شاید بزرگترین چیز پس از منبع باز یا گوگل، LLM ها ممکن است شرکت هایی داشته باشند که برای برتری می جنگند، اما این توسعه دهندگان هستند که جلوتر می آیند.

شاید بزرگترین چیز پس از منبع باز یا گوگل، LLM ها ممکن است شرکت هایی داشته باشند که برای برتری می جنگند، اما این توسعه دهندگان هستند که جلوتر می آیند.

دو ماه پیش، آمازون هیچ اشاره‌ای به هوش مصنوعی نداشت (گوگل و مایکروسافت هر کدام ده ها بار به هوش مصنوعی اشاره کردند). در مقابل، در هفته گذشته، بخش ابری شرکت، خدمات وب آمازون (AWS) می‌توانست در مورد چیز دیگری صحبت کند. همانطور که سوامی سیواسوبرامانیان، معاون پایگاه داده، تجزیه و تحلیل و یادگیری ماشینی در AWS اعلام کرد، این شرکت در سراسر هوش مصنوعی با راه اندازی مدل های جدید زبان بزرگ (LLM) و API برای دسترسی به آنها و همچنین CodeWhisperer، یک رقیب GitHub Copilot، و موارد دیگر.

اینطور نیست که AWS قبلاً روی هوش مصنوعی کار نمی کرد. آمازون چندین دهه است که با هوش مصنوعی کار می کند. در عوض، اکنون نادیده گرفتن هوش مصنوعی غیرممکن است. برای توسعه‌دهندگان، من اخیراً بحث کرده‌ام، زمان اکنون است که شروع به یادگیری نحوه قرار دادن LLM در توسعه کد خود کنید. AWS که هرگز رقبای خود را تعقیب نمی‌کند، تصمیم گرفته است وقتی دیگران درباره قدرت LLM و هوش مصنوعی در تغییر توسعه نرم‌افزار صحبت می‌کنند، نمی‌تواند ساکت بماند.

به موقع، همچنین به عنوان فرماندار جیمز RedMonk استدلال می کند که OpenAI AWS جدید است. برای افرادی که در Jina هستند، OpenAI گوگل جدید است. در هر صورت، بزرگ است، با پتانسیل تغییر چشمگیر نحوه رقابت ابرها.

در اینجا چیزی است که AWS در مورد استراتژی هوش مصنوعی خود در re:Invent 2023 فاش کرد

OpenAI را به عنوان AWS جدید باز کنید

وقتی فرماندار OpenAI را «AWS جدید» می‌نامد، او پیشنهاد نمی‌کند که OpenAI، شرکتی که پشت LLM ChatGPT قرار دارد، نسخه‌ای از Amazon EC2 یا Amazon S3 را به زودی عرضه کند. در عوض، او در مورد تأثیری که LLM می تواند بر توسعه نرم افزار داشته باشد صحبت می کند. با الهام از بحثی که Governor و من اخیراً ناهار خورده بودیم، در این مورد نوشتم و پیشنهاد کردم که «مسابقه برای توسعه دهندگان در جریان است تا یاد بگیرند که چگونه LLM ها را برای ساخت و آزمایش کد جستجو کنند، اما همچنین یاد بگیرند که چگونه LLM ها را با زمینه (مانند) آموزش دهند. نمونه‌های کد) برای دریافت بهترین خروجی‌های ممکن.”

برای Governor، انقلاب‌های گذشته در بهره‌وری توسعه‌دهندگان توسط «AWS، منبع باز و GitHub» راه‌اندازی شد، زیرا «همه این موارد برای کمک به یادگیری و ساختن افراد گرد هم آمدند». با LLM، او ادامه می دهد، “ما دوباره در آن نقطه هستیم.” LLMها مانند منبع باز (نیازی به دریافت تاییدیه خرید برای مجوز نرم افزار نیست) و ابر (به جای درخواست سرور، کارت اعتباری را بکشید) موانع را برای بهره وری توسعه دهندگان کاهش می دهند. در این مورد، Governor می‌گوید که هدف از کاهش زمان دسترسی به نرم‌افزار/سخت‌افزار یا همکاری (GitHub) نیست، بلکه در مورد کاهش چشمگیر زمان یادگیری است. همانطور که او تاکید می کند، “هوش مصنوعی یادگیری مجموعه مهارت های جدید را آسان تر از همیشه می کند.”

رویکرد جدید AWS برای ارزیابی RAG می‌تواند به شرکت‌ها در کاهش هزینه‌های هوش مصنوعی کمک کند

بازگشت به AWS. یکی از دلایل انبوه اعلامیه های هفته گذشته این است که مایکروسافت، نه AWS، در خط مقدم فعال کردن بهره وری توسعه دهندگان با هوش مصنوعی بوده است. سال ها پیش، مایکروسافت GitHub را خریداری کرد، اما قبل از آن ویژوال استودیو، شماره ۱ IDE و ویرایشگر کد مورد استفاده توسعه دهندگان را توسعه داد. با هم، این یک ضربه قوی یک یا دو است. ChatGPT OpenAI را اضافه کنید، که مایکروسافت آن را در Bing، Copilot و سایر سرویس‌های مایکروسافت تعبیه کرده است، و مایکروسافت اکنون در موقعیت قطبی برای کسب وفاداری توسعه‌دهندگان قرار گرفته است.

همانطور که Governor بیان می‌کند، با توجه به اینکه هر توسعه‌دهنده‌ای که از ChatGPT استفاده می‌کند روی Azure اجرا می‌شود، “در مورد زنجیره ابزاری که Azure را به عنوان یک عامل دروازه برای توسعه‌دهندگان برنامه‌هایی در GitHub و [Visual Studio] Code] حذف کرد، چطور؟ به عبارت دیگر، آیا مایکروسافت می‌تواند توسعه‌دهندگان را از زیرساخت‌های ابری زیربنایی بر روی برنامه‌هایی که با ChatGPT ساخته می‌شوند، متمرکز کند؟ آن می تواند. مایکروسافت با Azure به خوبی عمل کرده است، اما همچنان به AWS می رسد. با ارتقای تجربه برنامه و حذف “حمل کردن غیرمتمایز سنگین” حتی فکر کردن به زیرساخت ابری زیربنایی، “مایکروسافت این فرصت را دارد که یک تجربه توسعه دهنده یکباره و آینده ایجاد کند که در نهایت و به درستی درد را برای AWS به ارمغان بیاورد.” .

حرفه ابری خود را بهینه کنید

دیوید لینتیکوم، همکار من در InfoWorld به درستی ادعا می‌کند که ««صرفه‌جویی در هزینه» روشی وحشتناک برای تعریف ارزش پلت‌فرم‌های مبتنی بر ابر است.» در عوض، او معتقد است، فضای ابری “در مورد ارائه ارزش های تجاری مهم تر از چابکی و سرعت به نوآوری است.” هیچ کجا به اندازه این منطقه سبز هوش مصنوعی صادق نیست. روشی که ابرها روی چابکی توسعه‌دهنده ظاهر می‌شوند – به جای اینکه توسعه‌دهندگان را وادار به ادامه فعالیت در میان کوه‌های خدمات زیرساختی مختلف کنند – تعیین می‌کند که چه کسی ۱۰۰ میلیارد دلار در هزینه‌های ابری بعدی برنده خواهد شد.

همانطور که شرکت‌های ابری ادعا می‌کنند، بزرگترین برندگان از همه، توسعه‌دهندگان خواهند بود. بازی روشن است.