۳۰ شهریور ۱۴۰۳

Techboy

اخبار و اطلاعات روز تکنولوژی

همه در رایانش ابری برای یافتن یک استراتژی genAI عجله دارند

KubeCon + CloudNativeCon به تازگی با تصاحب زمین دیگری برای هوش مصنوعی مولد به پایان رسیده است. این چه معنایی برای شرکت دارد؟

KubeCon + CloudNativeCon به تازگی با تصاحب زمین دیگری برای هوش مصنوعی مولد به پایان رسیده است. این چه معنایی برای شرکت دارد؟

هوش مصنوعی مولد به عنوان کانون KubeCon + CloudNativeCon امسال ظاهر شده است. در اکثر کنفرانس‌های رایانش ابری امسال، GenAI بر ارائه‌های اصلی تسلط داشت و تحولات پلتفرم‌های بومی ابری را روشن کرد.

اکثر شرکت‌هایی که در KubeCon روی صحنه رفتند، اعلام کردند که در حال حاضر از پلتفرم‌های بومی ابری برای پشتیبانی از برنامه‌های کاربردی هوش مصنوعی و مدل‌های زبان بزرگ (LLM) استفاده می‌کنند. لحن این بود “ما هم!” بیش از یک توضیح کامل از مزایای استراتژیک رویکرد آنها. می‌توانید هوای ناامیدی را حس کنید، به‌ویژه از شرکت‌هایی که در ابتدا محاسبات ابری را کم‌کم می‌کردند، اما مجبور شدند بعداً به دنبال آن باشند. آنها نمی خواهند دوباره این کار را انجام دهند.

چه چیزی در دنیای بومی ابری وجود دارد؟

اول، معماری‌های بومی ابری برای رایانش ابری ضروری هستند، اما نه به این دلیل که ارزش سریع ارائه می‌کنند. این مسیری برای ساخت و استقرار برنامه‌هایی است که به روش‌های بهینه در پلتفرم‌های ابری کار می‌کنند. Cloud-native از کانتینرها و ارکستراسیون کانتینر به عنوان پلتفرم های پایه استفاده می کند، اما دارای ویژگی های متنوعی است که جزء اجزای استاندارد و غیر استاندارد هستند.

عرضه هوش مصنوعی بسیار جلوتر از تقاضای هوش مصنوعی است

برای پشتیبانی از هوش مصنوعی مولد چه چیزی باید در cloud-native تغییر کند؟ همانطور که در این رویداد اشاره شد، چالش‌های منحصر به فردی با هوش مصنوعی مولد وجود دارد. برخلاف آموزش سنتی مدل هوش مصنوعی که ممکن است GPUهای کوچکتر برای استنتاج کافی باشد، LLMها در همه مراحل، حتی در حین استنتاج، به GPUهای پرقدرت نیاز دارند.

مطمئناً تقاضا برای پردازنده‌های گرافیکی افزایش می‌یابد که با چالش‌های مربوط به در دسترس بودن و پایداری محیطی تشدید می‌شود. این مطمئناً به قدرت بیشتر و آهن بزرگتر نیاز دارد. این یک پیروزی در ستون پایداری نیست، اما شاید باید پذیرفته شود تا هوش مصنوعی مولد کار کند.

همانطور که هفته گذشته اشاره کردم، منابع مورد نیاز برای تامین انرژی این حیوانات هوش مصنوعی بسیار بیشتر از سیستم های سنتی است. این همیشه نقطه ضعف هوش مصنوعی بوده است و هنوز هم یک مبادله واضح است که شرکت ها باید در نظر بگیرند.

چگونه Oracle با به‌روزرسانی‌های Autonomous Data Warehouse با AWS، Snowflake مقابله می‌کند

آیا رویکردهای توسعه و معماری بومی ابری این موضوع را کمتر مشکل خواهند کرد؟ استفاده کارآمد از GPU به یک اولویت برای Kubernetes تبدیل شده است. اینتل و انویدیا برای پشتیبانی از تخصیص منابع پویا، سازگاری با Kubernetes 1.26 را اعلام کردند. مزیت استفاده از ۱.۲۶ توانایی افزایش تخصیص بار کاری به GPU است. این به منابع زیرساخت ابری مشترک می‌پردازد که باید میزان منابع پردازنده مورد نیاز را کاهش دهد.

تست آزمایشگاهی جالب خواهد بود. ما ویژگی‌های معماری مانند این را دیده‌ایم که کارایی کمتری داشته‌اند و سایر ویژگی‌هایی که بسیار خوب کار می‌کنند. اگر بخواهد هوش مصنوعی مولد ارزش کسب و کار را بدون نیاز به مقدار قابل توجهی پول بازگرداند، باید به سرعت متوجه این موضوع شویم. همچنین، مصرف برق بهینه شده بهتر، کمتر از آنچه ما می‌خواهیم روی پایداری تأثیر بگذارد.

منبع باز برای نجات؟

شرکت‌ها باید ارزش راه‌حل‌های منبع باز را در نظر بگیرند، مانند راه‌حل‌هایی که بخشی از cloud-native هستند یا می‌توانند مسیری را برای رسیدن به ارزش برای هوش مصنوعی مولد فراهم کنند. راه‌حل‌های منبع باز در مقابل راه‌حل‌های ارائه‌دهندگان فناوری خاص، طیف وسیعی از معاوضه‌های هزینه و ریسک را ارائه می‌کنند که شرکت‌ها باید در نظر بگیرند.

Oracle Cloud Native Environment 1.5.7 Kubernetes را برجسته می کند

متن‌باز می‌تواند برای برخی کسب‌وکارها دین باشد. برخی از شرکت ها تنها از راه حل های منبع باز استفاده می کنند، در حالی که برخی دیگر به طور کلی از آنها اجتناب می کنند. هر دو گروه دلایل خوبی دارند، اما من نمی توانم فکر نکنم که بهینه ترین راه حل جایی در وسط است. ما باید سفر هوش مصنوعی خود را با ذهنی باز آغاز کنیم و به همه فناوری‌ها به عنوان راه‌حل‌های بالقوه نگاه کنیم.

ما در نقطه ای هستیم که تصمیماتی که اکنون می گیریم بر بهره وری و ارزش ما در پنج سال آینده تأثیر می گذارد. به احتمال زیاد بسیار شبیه تماس‌هایی خواهد بود که در روزهای اولیه رایانش ابری انجام دادیم، که بسیاری از آنها درست نبودند و باعث ایجاد شکاف قابل‌توجهی بین انتظارات و واقعیت شدند. ما آن اشتباهات را برای سالهای آینده اصلاح خواهیم کرد. امیدواریم که مجبور نباشیم درس های ابری خود را با هوش مصنوعی مولد تکرار کنیم.