با متعادل کردن عملکرد، بهره وری انرژی و مقرون به صرفه بودن، CPUها به خوبی وظایف استنتاجی کمفشار را انجام میدهند که سهم عمدهای از بار کاری هوش مصنوعی را تشکیل میدهند.
اکثریت قریب به اتفاق رهبران شرکت (۹۸%) اهمیت استراتژیک هوش مصنوعی را با نزدیک به ۶۵٪ برنامه ریزی افزایش سرمایه گذاری تشخیص می دهد. انتظار میرود هزینههای جهانی هوش مصنوعی تا سال ۲۰۲۶ به ۳۰۰ میلیارد دلار برسد. به گفته آژانس بینالمللی انرژی، همچنین تا سال ۲۰۲۶، مصرف برق هوش مصنوعی میتواند ده برابر شود. واضح است که هوش مصنوعی چالشی دوگانه برای کسبوکارها ایجاد میکند: به حداکثر رساندن قابلیتهای هوش مصنوعی و در عین حال به حداقل رساندن تأثیرات زیستمحیطی آن.
تنها در ایالات متحده، مصرف برق توسط مراکز داده انتظار می رود تا سال ۲۰۳۰ دو برابر شود و به ۳۵ گیگاوات (گیگاوات) برسد، در درجه اول به دلیل افزایش تقاضا برای فناوری های هوش مصنوعی. این افزایش عمدتاً ناشی از استقرار رکهای آماده هوش مصنوعی است که هر کدام به دلیل پردازشهای فشرده GPU، بین ۴۰ تا ۶۰ کیلووات (کیلووات) بیش از حد مصرف میکنند.
سه راهبرد اصلی برای مقابله موثر با این چالشهای انرژی وجود دارد:
- انتخاب منابع محاسباتی مناسب برای حجم کاری هوش مصنوعی، با تمرکز بر تمایز بین نیازهای آموزشی و استنتاج.
- بهینه سازی عملکرد و بهره وری انرژی در ردپای مرکز داده موجود.
- توسعه توسعه هوش مصنوعی پایدار از طریق تلاشهای مشترک در سراسر اکوسیستم.
CPU در مقابل GPU برای بارهای کاری استنتاج هوش مصنوعی
برخلاف تصور رایج، شیوههای هوش مصنوعی پایدار نشان میدهد که CPUها، نه فقط پردازندههای گرافیکی پرقدرت، برای اکثر وظایف هوش مصنوعی مناسب هستند. برای مثال، ۸۵٪ از محاسبات AI برای استنتاج استفاده می شود و به GPU نیاز ندارد.
برای وظایف استنتاج هوش مصنوعی، CPU ها ترکیبی متعادل از عملکرد، کارایی انرژی و مقرون به صرفه بودن را ارائه می دهند. آنها به طرز ماهرانهای وظایف استنتاجی متنوع و کمفشار را انجام میدهند و آنها را به ویژه از نظر انرژی کارآمد میسازد. علاوه بر این، توانایی آنها در پردازش وظایف موازی و انطباق با تقاضاهای نوسان، استفاده بهینه از انرژی را تضمین می کند که برای حفظ کارایی بسیار مهم است. این در تضاد کامل با پردازندههای گرافیکی پرقدرتتر است که به دلیل قابلیتهای عملکرد بالا در آموزش هوش مصنوعی برتری دارند، اما اغلب در بین کارهای فشرده مورد استفاده قرار نمیگیرند.
علاوه بر این، هزینه کمتر انرژی و مالی مرتبط با CPUها، آنها را به گزینه ای ارجح برای سازمان هایی تبدیل می کند که برای عملیات پایدار و مقرون به صرفه تلاش می کنند. کتابخانههای بهینهسازی نرمافزاری که برای معماریهای CPU طراحی شدهاند، با افزایش بیشتر این مزیت، تقاضای انرژی را به میزان قابل توجهی کاهش میدهند. این کتابخانهها وظایف استنتاج هوش مصنوعی را برای اجرای کارآمدتر بهینه میکنند و فرآیندهای محاسباتی را با ویژگیهای عملیاتی CPU همسو میکنند تا مصرف انرژی غیر ضروری را به حداقل برسانند.
به طور مشابه، توسعه دهندگان سازمانی می توانند از ابزارهای نرم افزاری پیشرفته ای استفاده کنند که عملکرد هوش مصنوعی را در CPU ها افزایش می دهد. این ابزارها بهطور یکپارچه با چارچوبهای رایج هوش مصنوعی مانند TensorFlow و ONNX، به طور خودکار مدل های هوش مصنوعی را برای عملکرد بهینه CPU تنظیم می کند. این نه تنها فرآیند استقرار را ساده میکند، بلکه نیاز به تنظیمات دستی در پلتفرمهای سختافزاری مختلف را نیز از بین میبرد، گردش کار توسعه را ساده میکند و مصرف انرژی را کاهش میدهد.
در آخر، ۴ درصد از مصرف انرژی جهانی، رقمی که رشد هوش مصنوعی به طور قابل توجهی افزایش خواهد یافت. بسیاری از مراکز داده در حال حاضر تعداد زیادی پردازنده گرافیکی را مستقر کرده اند که انرژی فوق العاده ای مصرف می کنند و از محدودیت های حرارتی رنج می برند.
برای مثال، پردازندههای گرافیکی مانند H100 انویدیا، با ۸۰ میلیارد ترانزیستور، مصرف برق را به حداکثر می رساند، با برخی از پیکربندی ها بیش از ۴۰ کیلو وات. در نتیجه، مراکز داده باید از خنک سازی غوطه ور استفاده کنند، فرآیندی که سخت افزار را در مایع رسانای حرارتی غوطه ور می کند. اگرچه این روش خنککننده در حذف گرما مؤثر است و تراکمهای توان بالاتر را میدهد، اما این روش خنککننده انرژی بیشتری مصرف میکند و مراکز داده را وادار میکند که ۱۰ تا ۲۰ درصد انرژی خود را صرفاً برای این کار اختصاص دهند.
برعکس، CPUهای با انرژی کارآمد راه حلی امیدوارکننده برای محافظت در برابر نیازهای فزاینده برق ناشی از گسترش سریع برنامه های کاربردی پیچیده هوش مصنوعی ارائه می دهند. شرکتهایی مانند Scaleway و Oracle با اجرای روشهای استنتاج هوش مصنوعی مبتنی بر CPU که وابستگی به GPUهای سنتی را بهطور چشمگیری کاهش میدهد، این روند را رهبری میکند. این تغییر نه تنها شیوههای پایدارتری را ترویج میکند، بلکه توانایی پردازندهها را برای انجام کارآمد وظایف هوش مصنوعی به نمایش میگذارد.
برای نشان دادن، Oracle با موفقیت مدلهای هوش مصنوعی مولد را با حداکثر هفت میلیارد پارامتر، مانند مدل Llama 2، مستقیماً بر روی CPU اجرا کرده است. این رویکرد مزایای قابل توجهی را در بهره وری انرژی و توان محاسباتی نشان داده است و معیاری را برای مدیریت موثر بارهای کاری هوش مصنوعی مدرن بدون مصرف بیش از حد انرژی تعیین کرده است.
تطبیق CPUها با عملکرد و نیازهای انرژی
با توجه به بهره وری انرژی برتر CPUها در انجام وظایف هوش مصنوعی، ما باید بهترین راه را برای ادغام این فناوری ها در مراکز داده موجود در نظر بگیریم. ادغام فناوریهای جدید CPU مستلزم بررسی دقیق چندین عامل کلیدی برای اطمینان از بهینهسازی عملکرد و بهرهوری انرژی است:
- استفاده زیاد: CPU را انتخاب کنید که از اختلاف منابع جلوگیری می کند و گلوگاه های ترافیک را از بین می برد. ویژگیهای کلیدی شامل تعداد هسته بالا است که به حفظ عملکرد تحت بارهای سنگین کمک میکند. این همچنین باعث پردازش بسیار کارآمد وظایف هوش مصنوعی می شود، عملکرد بهتری در هر وات ارائه می دهد و به صرفه جویی کلی انرژی کمک می کند. CPU همچنین باید مقادیر قابل توجهی از حافظه پنهان خصوصی و معماری را ارائه دهد که از هسته های تک رشته ای پشتیبانی می کند.
- ویژگیهای خاص هوش مصنوعی: پردازندههایی را انتخاب کنید که دارای ویژگیهای داخلی هستند که برای پردازش هوش مصنوعی طراحی شدهاند، مانند پشتیبانی از فرمتهای عددی رایج هوش مصنوعی مانند INT8، FP16، و BFloat16. این ویژگیها پردازش کارآمدتر بارهای کاری هوش مصنوعی را امکانپذیر میکنند و عملکرد و کارایی انرژی را افزایش میدهند.
- ملاحظات اقتصادی: ارتقاء به راهحلهای مبتنی بر CPU میتواند مقرون به صرفهتر از حفظ یا گسترش سیستمهای مبتنی بر GPU باشد، بهویژه با توجه به مصرف انرژی کمتر و نیازهای خنککننده CPU.
- سادگی یکپارچه سازی: CPU ها مسیری ساده برای ارتقاء قابلیت های مرکز داده ارائه می دهند. برخلاف الزامات پیچیده برای ادغام پردازندههای گرافیکی پرقدرت، CPUها اغلب میتوانند به آسانی در زیرساختهای مرکز داده موجود – از جمله شبکه و سیستمهای قدرت – ادغام شوند، انتقال را ساده کرده و نیاز به تغییرات زیرساختی گسترده را کاهش میدهد.
با تمرکز بر این ملاحظات کلیدی، میتوانیم به طور مؤثری بین عملکرد و کارایی انرژی در مراکز دادهمان تعادل ایجاد کنیم، و از یک زیرساخت مقرونبهصرفه و مقاوم در برابر آینده برای برآورده کردن نیازهای محاسباتی برنامههای هوش مصنوعی آینده اطمینان حاصل کنیم.
تکنولوژی پیشرفته CPU برای هوش مصنوعی
اتحادهای صنعتی هوش مصنوعی، مانند اتحاد پلتفرم هوش مصنوعی، نقش مهمی در پیشرفت فناوری CPU برای برنامه های کاربردی هوش مصنوعی دارند. با تمرکز بر افزایش بهره وری انرژی و عملکرد از طریق تلاش های مشترک. این اتحادها طیف متنوعی از شرکا را از بخشهای مختلف پشته فناوری – از جمله پردازندهها، شتابدهندهها، سرورها و نرمافزارها- گرد هم میآورند تا راهحلهای قابل تعاملی را ایجاد کنند که چالشهای خاص هوش مصنوعی را برطرف کنند. این کار از محاسبات لبهای تا مراکز داده بزرگ را در بر میگیرد و تضمین میکند که استقرار هوش مصنوعی هم پایدار و هم کارآمد است.
این همکاریها بهویژه در ایجاد راهحلهای بهینهسازی شده برای وظایف مختلف هوش مصنوعی، مانند بینایی رایانهای، پردازش ویدیو، و هوش مصنوعی مولد مؤثر هستند. هدف این اتحادها با ادغام تخصص و فناوری از شرکتهای متعدد، ایجاد بهترین راهحلهایی است که عملکرد بهینه و بهرهوری انرژی قابلتوجهی را ارائه میدهند.
تلاشهای مشترک مانند AI Platform Alliance به توسعه فناوریهای جدید CPU و طراحیهای سیستمی کمک میکند که بهطور خاص برای رسیدگی به نیازهای بار کاری هوش مصنوعی بهطور کارآمد طراحی شدهاند. این نوآوریها منجر به صرفهجویی قابلتوجه در مصرف انرژی و افزایش عملکرد کلی برنامههای هوش مصنوعی میشود و مزایای قابل توجه همکاری در سطح صنعت را در پیشبرد پیشرفتهای فناوری برجسته میکند.
جف ویتیک مدیر ارشد محصول در Ampere Computing است.
—
Generative AI Insights مکانی را برای رهبران فناوری – از جمله فروشندگان و سایر مشارکتکنندگان خارجی – فراهم میکند تا چالشها و فرصتهای هوش مصنوعی مولد را بررسی و بحث کنند. این انتخاب گسترده است، از غواصی عمیق فناوری گرفته تا مطالعات موردی گرفته تا نظرات متخصص، اما همچنین ذهنی است، بر اساس قضاوت ما در مورد اینکه کدام موضوعات و درمان ها به بهترین وجه به مخاطبان فنی پیشرفته InfoWorld خدمت می کنند. InfoWorld وثیقه بازاریابی را برای انتشار نمی پذیرد و حق ویرایش تمام محتوای ارائه شده را برای خود محفوظ می دارد. تماس با doug_dineley@foundryco.com a>.
پست های مرتبط
چگونه CPU ها به چالش های انرژی هوش مصنوعی مولد رسیدگی خواهند کرد
چگونه CPU ها به چالش های انرژی هوش مصنوعی مولد رسیدگی خواهند کرد
چگونه CPU ها به چالش های انرژی هوش مصنوعی مولد رسیدگی خواهند کرد