KubeCon + CloudNativeCon به تازگی با تصاحب زمین دیگری برای هوش مصنوعی مولد به پایان رسیده است. این چه معنایی برای شرکت دارد؟
هوش مصنوعی مولد به عنوان کانون KubeCon + CloudNativeCon امسال ظاهر شده است. در اکثر کنفرانسهای رایانش ابری امسال، GenAI بر ارائههای اصلی تسلط داشت و تحولات پلتفرمهای بومی ابری را روشن کرد.
اکثر شرکتهایی که در KubeCon روی صحنه رفتند، اعلام کردند که در حال حاضر از پلتفرمهای بومی ابری برای پشتیبانی از برنامههای کاربردی هوش مصنوعی و مدلهای زبان بزرگ (LLM) استفاده میکنند. لحن این بود “ما هم!” بیش از یک توضیح کامل از مزایای استراتژیک رویکرد آنها. میتوانید هوای ناامیدی را حس کنید، بهویژه از شرکتهایی که در ابتدا محاسبات ابری را کمکم میکردند، اما مجبور شدند بعداً به دنبال آن باشند. آنها نمی خواهند دوباره این کار را انجام دهند.
چه چیزی در دنیای بومی ابری وجود دارد؟
اول، معماریهای بومی ابری برای رایانش ابری ضروری هستند، اما نه به این دلیل که ارزش سریع ارائه میکنند. این مسیری برای ساخت و استقرار برنامههایی است که به روشهای بهینه در پلتفرمهای ابری کار میکنند. Cloud-native از کانتینرها و ارکستراسیون کانتینر به عنوان پلتفرم های پایه استفاده می کند، اما دارای ویژگی های متنوعی است که جزء اجزای استاندارد و غیر استاندارد هستند.
برای پشتیبانی از هوش مصنوعی مولد چه چیزی باید در cloud-native تغییر کند؟ همانطور که در این رویداد اشاره شد، چالشهای منحصر به فردی با هوش مصنوعی مولد وجود دارد. برخلاف آموزش سنتی مدل هوش مصنوعی که ممکن است GPUهای کوچکتر برای استنتاج کافی باشد، LLMها در همه مراحل، حتی در حین استنتاج، به GPUهای پرقدرت نیاز دارند.
مطمئناً تقاضا برای پردازندههای گرافیکی افزایش مییابد که با چالشهای مربوط به در دسترس بودن و پایداری محیطی تشدید میشود. این مطمئناً به قدرت بیشتر و آهن بزرگتر نیاز دارد. این یک پیروزی در ستون پایداری نیست، اما شاید باید پذیرفته شود تا هوش مصنوعی مولد کار کند.
همانطور که هفته گذشته اشاره کردم، منابع مورد نیاز برای تامین انرژی این حیوانات هوش مصنوعی بسیار بیشتر از سیستم های سنتی است. این همیشه نقطه ضعف هوش مصنوعی بوده است و هنوز هم یک مبادله واضح است که شرکت ها باید در نظر بگیرند.
آیا رویکردهای توسعه و معماری بومی ابری این موضوع را کمتر مشکل خواهند کرد؟ استفاده کارآمد از GPU به یک اولویت برای Kubernetes تبدیل شده است. اینتل و انویدیا برای پشتیبانی از تخصیص منابع پویا، سازگاری با Kubernetes 1.26 را اعلام کردند. مزیت استفاده از ۱.۲۶ توانایی افزایش تخصیص بار کاری به GPU است. این به منابع زیرساخت ابری مشترک میپردازد که باید میزان منابع پردازنده مورد نیاز را کاهش دهد.
تست آزمایشگاهی جالب خواهد بود. ما ویژگیهای معماری مانند این را دیدهایم که کارایی کمتری داشتهاند و سایر ویژگیهایی که بسیار خوب کار میکنند. اگر بخواهد هوش مصنوعی مولد ارزش کسب و کار را بدون نیاز به مقدار قابل توجهی پول بازگرداند، باید به سرعت متوجه این موضوع شویم. همچنین، مصرف برق بهینه شده بهتر، کمتر از آنچه ما میخواهیم روی پایداری تأثیر بگذارد.
منبع باز برای نجات؟
شرکتها باید ارزش راهحلهای منبع باز را در نظر بگیرند، مانند راهحلهایی که بخشی از cloud-native هستند یا میتوانند مسیری را برای رسیدن به ارزش برای هوش مصنوعی مولد فراهم کنند. راهحلهای منبع باز در مقابل راهحلهای ارائهدهندگان فناوری خاص، طیف وسیعی از معاوضههای هزینه و ریسک را ارائه میکنند که شرکتها باید در نظر بگیرند.
متنباز میتواند برای برخی کسبوکارها دین باشد. برخی از شرکت ها تنها از راه حل های منبع باز استفاده می کنند، در حالی که برخی دیگر به طور کلی از آنها اجتناب می کنند. هر دو گروه دلایل خوبی دارند، اما من نمی توانم فکر نکنم که بهینه ترین راه حل جایی در وسط است. ما باید سفر هوش مصنوعی خود را با ذهنی باز آغاز کنیم و به همه فناوریها به عنوان راهحلهای بالقوه نگاه کنیم.
ما در نقطه ای هستیم که تصمیماتی که اکنون می گیریم بر بهره وری و ارزش ما در پنج سال آینده تأثیر می گذارد. به احتمال زیاد بسیار شبیه تماسهایی خواهد بود که در روزهای اولیه رایانش ابری انجام دادیم، که بسیاری از آنها درست نبودند و باعث ایجاد شکاف قابلتوجهی بین انتظارات و واقعیت شدند. ما آن اشتباهات را برای سالهای آینده اصلاح خواهیم کرد. امیدواریم که مجبور نباشیم درس های ابری خود را با هوش مصنوعی مولد تکرار کنیم.
پست های مرتبط
همه در رایانش ابری برای یافتن یک استراتژی genAI عجله دارند
همه در رایانش ابری برای یافتن یک استراتژی genAI عجله دارند
همه در رایانش ابری برای یافتن یک استراتژی genAI عجله دارند