۳۰ شهریور ۱۴۰۳

Techboy

اخبار و اطلاعات روز تکنولوژی

هزینه و پایداری هوش مصنوعی مولد

همه افرادی که از DALL-E برای ایجاد تصاویر استفاده می کنند یا به ChatGPT اجازه می دهند مقالات ترم خود را بنویسد، منابع ابری زیادی را مصرف می کنند. چه کسی قرار است برای این همه هزینه بپردازد؟

همه افرادی که از DALL-E برای ایجاد تصاویر استفاده می کنند یا به ChatGPT اجازه می دهند مقالات ترم خود را بنویسد، منابع ابری زیادی را مصرف می کنند. چه کسی قرار است برای این همه هزینه بپردازد؟

هوش مصنوعی برای هر پلتفرمی، از جمله ابرهای عمومی، نیازمند منابع است. بیشتر فناوری‌های هوش مصنوعی به محاسبات استنتاج متعددی نیاز دارند که به پردازنده، شبکه و نیازهای ذخیره‌سازی بالاتر و قبوض انرژی، هزینه‌های زیرساخت و ردپای کربن بالاتر می‌افزایند.

ظهور سیستم‌های هوش مصنوعی مولد، مانند ChatGPT، این موضوع را دوباره به منصه ظهور رسانده است. با توجه به محبوبیت این فناوری و گسترش احتمالی گسترده استفاده از آن توسط شرکت‌ها، دولت‌ها و عموم مردم، می‌توانیم منحنی رشد مصرف انرژی را شاهد باشیم.

هوش مصنوعی از دهه ۱۹۷۰ قابل دوام بوده است، اما با توجه به تعداد منابع مورد نیاز برای کارکرد یک سیستم هوش مصنوعی تمام عیار، در ابتدا تأثیر چندانی در تجارت نداشت. به یاد دارم که در دهه ۲۰م سیستم های مجهز به هوش مصنوعی طراحی کردم که برای اجرای آن به بیش از ۴۰ میلیون دلار در سخت افزار، نرم افزار و فضای مرکز داده نیاز داشت. هشدار اسپویلر: آن پروژه و بسیاری از پروژه های هوش مصنوعی دیگر هرگز تاریخ انتشار را مشاهده نکردند. موارد تجاری فقط کار نکردند.

Cloud همه اینها را تغییر داد. چیزی که زمانی غیرقابل دسترس بود، اکنون به اندازه کافی مقرون به صرفه است که با ابرهای عمومی امکان پذیر است. در واقع، همان طور که ممکن است حدس زده باشید، ظهور ابر، تقریباً با ظهور هوش مصنوعی در ۱۰ تا ۱۵ سال گذشته مطابقت داشت. من می توانم بگویم که اکنون آنها به شدت به هم متصل شده اند.

روشی هوشمندتر برای ارائه حفاظت از داده ها به برنامه های مبتنی بر SSD

پایداری و هزینه منابع ابری

شما واقعاً برای پیش‌بینی آنچه قرار است در اینجا اتفاق بیفتد، نیازی به تحقیق زیادی ندارید. تقاضا برای خدمات هوش مصنوعی، مانند سیستم‌های هوش مصنوعی مولد که اکنون مورد توجه قرار گرفته‌اند و همچنین سایر سیستم‌های هوش مصنوعی و یادگیری ماشینی، به شدت افزایش خواهد یافت. کسب‌وکارهایی که به دنبال مزیت‌های نوآورانه هستند، مانند زنجیره‌های تامین هوشمند، یا حتی هزاران دانشجوی کالج که خواهان یک سیستم هوش مصنوعی مولد برای نوشتن مقالات ترم خود هستند، این افزایش را هدایت می‌کند.

تقاضای بیشتر برای هوش مصنوعی به معنای تقاضای بیشتر برای منابعی است که این سیستم‌های هوش مصنوعی استفاده می‌کنند، مانند ابرهای عمومی و خدماتی که ارائه می‌کنند. این تقاضا به احتمال زیاد با مراکز داده بیشتری که دارای سرورهای پرقدرت و تجهیزات شبکه هستند، برآورده خواهد شد.

ارائه‌دهندگان خدمات ابری عمومی مانند هر ارائه‌دهنده منابع کاربردی دیگری هستند و با افزایش تقاضا، قیمت‌ها را افزایش می‌دهند، درست مانند اینکه می‌بینیم قبوض برق خانوار به صورت فصلی (همچنین بر اساس تقاضا) افزایش می‌یابد. در نتیجه، ما معمولاً استفاده را کاهش می‌دهیم و تهویه مطبوع را در دمای ۷۴ درجه به جای ۶۸ درجه در تابستان اجرا می‌کنیم.

با این حال، هزینه‌های محاسبات ابری بالاتر ممکن است تأثیر یکسانی بر شرکت‌ها نداشته باشد. کسب‌وکارها ممکن است متوجه شوند که این سیستم‌های هوش مصنوعی اختیاری نیستند و برای هدایت فرآیندهای تجاری حیاتی خاص مورد نیاز هستند. در بسیاری از موارد، آنها ممکن است سعی کنند پول خود را در کسب و کار پس انداز کنند، شاید با کاهش تعداد کارمندان به منظور جبران هزینه های سیستم های هوش مصنوعی. بر کسی پوشیده نیست که سیستم های هوش مصنوعی مولد به زودی بسیاری از کارکنان اطلاعات را جابجا خواهند کرد.

آیا برای سیستم های هوش مصنوعی مولد به GPU نیاز دارید؟

چه کاری می توان انجام داد؟

اگر تقاضا برای منابع برای اجرای سیستم‌های هوش مصنوعی منجر به هزینه‌های محاسباتی و خروجی کربن بیشتر شود، چه کاری می‌توانیم انجام دهیم؟ پاسخ شاید در یافتن راه‌های کارآمدتر برای هوش مصنوعی برای استفاده از منابعی مانند پردازش، شبکه و ذخیره‌سازی باشد.

به عنوان مثال، نمونه برداری از خط لوله می تواند با کاهش حجم داده های پردازش شده، یادگیری عمیق را تسریع کند. تحقیقات انجام شده در MIT و IBM نشان می دهد که با این رویکرد می توانید منابع مورد نیاز برای اجرای یک شبکه عصبی در مجموعه داده های بزرگ را کاهش دهید. با این حال، دقت را نیز محدود می کند، که می تواند برای برخی موارد استفاده تجاری قابل قبول باشد اما نه همه.

رویکرد دیگری که در حال حاضر در سایر فضاهای فناوری مورد استفاده قرار گرفته است، محاسبات در حافظه است. این معماری می تواند با عدم جابجایی داده ها به داخل و خارج از حافظه، پردازش هوش مصنوعی را سرعت بخشد. درعوض، محاسبات هوش مصنوعی مستقیماً در ماژول حافظه اجرا می‌شود که سرعت کار را به میزان قابل توجهی افزایش می‌دهد.

پردازنده‌های گرافیکی Nvidia H100 Tensor Core به Oracle Cloud می‌آیند

رویکردهای دیگری مانند تغییرات در پردازنده‌های فیزیکی – استفاده از پردازنده‌های مشترک برای محاسبات هوش مصنوعی برای سریع‌تر کردن کارها – یا مدل‌های محاسباتی نسل بعدی مانند کوانتومی در حال توسعه هستند. می‌توانید منتظر اعلامیه‌های زیادی از ارائه‌دهندگان ابر عمومی بزرگتر در مورد فناوری باشید که می‌تواند بسیاری از این مشکلات را حل کند.

چه کاری باید انجام دهید؟

پیام در اینجا این نیست که از هوش مصنوعی برای دریافت صورتحساب محاسبات ابری کمتر یا نجات سیاره جلوگیری کنید. هوش مصنوعی یک رویکرد اساسی برای محاسبات است که بیشتر مشاغل می توانند از آن برای ارزش زیادی استفاده کنند.

من به شما توصیه می‌کنم که با درک روشنی از هزینه‌ها و تأثیر آن بر پایداری، که مستقیماً به هم مرتبط هستند، وارد یک پروژه توسعه سیستم هوش مصنوعی مبتنی بر هوش مصنوعی یا شبکه جدید شوید. شما باید یک انتخاب هزینه/منفعت داشته باشید، و این واقعاً به ارزشی برمی‌گردد که می‌توانید برای هزینه و ریسک مورد نیاز به کسب‌وکار بازگردانید. اینجا چیز جدیدی نیست.

من معتقدم که بسیاری از این مشکل با نوآوری حل خواهد شد، خواه محاسبات درون حافظه باشد یا محاسبات کوانتومی یا چیزی که هنوز نبینیم. هم ارائه دهندگان فناوری هوش مصنوعی و هم ارائه دهندگان محاسبات ابری مایلند هوش مصنوعی را مقرون به صرفه تر و سبزتر کنند. این خبر خوب است.