همه افرادی که از DALL-E برای ایجاد تصاویر استفاده می کنند یا به ChatGPT اجازه می دهند مقالات ترم خود را بنویسد، منابع ابری زیادی را مصرف می کنند. چه کسی قرار است برای این همه هزینه بپردازد؟
هوش مصنوعی برای هر پلتفرمی، از جمله ابرهای عمومی، نیازمند منابع است. بیشتر فناوریهای هوش مصنوعی به محاسبات استنتاج متعددی نیاز دارند که به پردازنده، شبکه و نیازهای ذخیرهسازی بالاتر و قبوض انرژی، هزینههای زیرساخت و ردپای کربن بالاتر میافزایند.
ظهور سیستمهای هوش مصنوعی مولد، مانند ChatGPT، این موضوع را دوباره به منصه ظهور رسانده است. با توجه به محبوبیت این فناوری و گسترش احتمالی گسترده استفاده از آن توسط شرکتها، دولتها و عموم مردم، میتوانیم منحنی رشد مصرف انرژی را شاهد باشیم.
هوش مصنوعی از دهه ۱۹۷۰ قابل دوام بوده است، اما با توجه به تعداد منابع مورد نیاز برای کارکرد یک سیستم هوش مصنوعی تمام عیار، در ابتدا تأثیر چندانی در تجارت نداشت. به یاد دارم که در دهه ۲۰م سیستم های مجهز به هوش مصنوعی طراحی کردم که برای اجرای آن به بیش از ۴۰ میلیون دلار در سخت افزار، نرم افزار و فضای مرکز داده نیاز داشت. هشدار اسپویلر: آن پروژه و بسیاری از پروژه های هوش مصنوعی دیگر هرگز تاریخ انتشار را مشاهده نکردند. موارد تجاری فقط کار نکردند.
Cloud همه اینها را تغییر داد. چیزی که زمانی غیرقابل دسترس بود، اکنون به اندازه کافی مقرون به صرفه است که با ابرهای عمومی امکان پذیر است. در واقع، همان طور که ممکن است حدس زده باشید، ظهور ابر، تقریباً با ظهور هوش مصنوعی در ۱۰ تا ۱۵ سال گذشته مطابقت داشت. من می توانم بگویم که اکنون آنها به شدت به هم متصل شده اند.
پایداری و هزینه منابع ابری
شما واقعاً برای پیشبینی آنچه قرار است در اینجا اتفاق بیفتد، نیازی به تحقیق زیادی ندارید. تقاضا برای خدمات هوش مصنوعی، مانند سیستمهای هوش مصنوعی مولد که اکنون مورد توجه قرار گرفتهاند و همچنین سایر سیستمهای هوش مصنوعی و یادگیری ماشینی، به شدت افزایش خواهد یافت. کسبوکارهایی که به دنبال مزیتهای نوآورانه هستند، مانند زنجیرههای تامین هوشمند، یا حتی هزاران دانشجوی کالج که خواهان یک سیستم هوش مصنوعی مولد برای نوشتن مقالات ترم خود هستند، این افزایش را هدایت میکند.
تقاضای بیشتر برای هوش مصنوعی به معنای تقاضای بیشتر برای منابعی است که این سیستمهای هوش مصنوعی استفاده میکنند، مانند ابرهای عمومی و خدماتی که ارائه میکنند. این تقاضا به احتمال زیاد با مراکز داده بیشتری که دارای سرورهای پرقدرت و تجهیزات شبکه هستند، برآورده خواهد شد.
ارائهدهندگان خدمات ابری عمومی مانند هر ارائهدهنده منابع کاربردی دیگری هستند و با افزایش تقاضا، قیمتها را افزایش میدهند، درست مانند اینکه میبینیم قبوض برق خانوار به صورت فصلی (همچنین بر اساس تقاضا) افزایش مییابد. در نتیجه، ما معمولاً استفاده را کاهش میدهیم و تهویه مطبوع را در دمای ۷۴ درجه به جای ۶۸ درجه در تابستان اجرا میکنیم.
با این حال، هزینههای محاسبات ابری بالاتر ممکن است تأثیر یکسانی بر شرکتها نداشته باشد. کسبوکارها ممکن است متوجه شوند که این سیستمهای هوش مصنوعی اختیاری نیستند و برای هدایت فرآیندهای تجاری حیاتی خاص مورد نیاز هستند. در بسیاری از موارد، آنها ممکن است سعی کنند پول خود را در کسب و کار پس انداز کنند، شاید با کاهش تعداد کارمندان به منظور جبران هزینه های سیستم های هوش مصنوعی. بر کسی پوشیده نیست که سیستم های هوش مصنوعی مولد به زودی بسیاری از کارکنان اطلاعات را جابجا خواهند کرد.
چه کاری می توان انجام داد؟
اگر تقاضا برای منابع برای اجرای سیستمهای هوش مصنوعی منجر به هزینههای محاسباتی و خروجی کربن بیشتر شود، چه کاری میتوانیم انجام دهیم؟ پاسخ شاید در یافتن راههای کارآمدتر برای هوش مصنوعی برای استفاده از منابعی مانند پردازش، شبکه و ذخیرهسازی باشد.
به عنوان مثال، نمونه برداری از خط لوله می تواند با کاهش حجم داده های پردازش شده، یادگیری عمیق را تسریع کند. تحقیقات انجام شده در MIT و IBM نشان می دهد که با این رویکرد می توانید منابع مورد نیاز برای اجرای یک شبکه عصبی در مجموعه داده های بزرگ را کاهش دهید. با این حال، دقت را نیز محدود می کند، که می تواند برای برخی موارد استفاده تجاری قابل قبول باشد اما نه همه.
رویکرد دیگری که در حال حاضر در سایر فضاهای فناوری مورد استفاده قرار گرفته است، محاسبات در حافظه است. این معماری می تواند با عدم جابجایی داده ها به داخل و خارج از حافظه، پردازش هوش مصنوعی را سرعت بخشد. درعوض، محاسبات هوش مصنوعی مستقیماً در ماژول حافظه اجرا میشود که سرعت کار را به میزان قابل توجهی افزایش میدهد.
رویکردهای دیگری مانند تغییرات در پردازندههای فیزیکی – استفاده از پردازندههای مشترک برای محاسبات هوش مصنوعی برای سریعتر کردن کارها – یا مدلهای محاسباتی نسل بعدی مانند کوانتومی در حال توسعه هستند. میتوانید منتظر اعلامیههای زیادی از ارائهدهندگان ابر عمومی بزرگتر در مورد فناوری باشید که میتواند بسیاری از این مشکلات را حل کند.
چه کاری باید انجام دهید؟
پیام در اینجا این نیست که از هوش مصنوعی برای دریافت صورتحساب محاسبات ابری کمتر یا نجات سیاره جلوگیری کنید. هوش مصنوعی یک رویکرد اساسی برای محاسبات است که بیشتر مشاغل می توانند از آن برای ارزش زیادی استفاده کنند.
من به شما توصیه میکنم که با درک روشنی از هزینهها و تأثیر آن بر پایداری، که مستقیماً به هم مرتبط هستند، وارد یک پروژه توسعه سیستم هوش مصنوعی مبتنی بر هوش مصنوعی یا شبکه جدید شوید. شما باید یک انتخاب هزینه/منفعت داشته باشید، و این واقعاً به ارزشی برمیگردد که میتوانید برای هزینه و ریسک مورد نیاز به کسبوکار بازگردانید. اینجا چیز جدیدی نیست.
من معتقدم که بسیاری از این مشکل با نوآوری حل خواهد شد، خواه محاسبات درون حافظه باشد یا محاسبات کوانتومی یا چیزی که هنوز نبینیم. هم ارائه دهندگان فناوری هوش مصنوعی و هم ارائه دهندگان محاسبات ابری مایلند هوش مصنوعی را مقرون به صرفه تر و سبزتر کنند. این خبر خوب است.
پست های مرتبط
هزینه و پایداری هوش مصنوعی مولد
هزینه و پایداری هوش مصنوعی مولد
هزینه و پایداری هوش مصنوعی مولد