۳۰ شهریور ۱۴۰۳

Techboy

اخبار و اطلاعات روز تکنولوژی

چگونه CPU ها به چالش های انرژی هوش مصنوعی مولد رسیدگی خواهند کرد

با متعادل کردن عملکرد، بهره وری انرژی و مقرون به صرفه بودن، CPUها به خوبی وظایف استنتاجی کم‌فشار را انجام می‌دهند که سهم عمده‌ای از بار کاری هوش مصنوعی را تشکیل می‌دهند.

با متعادل کردن عملکرد، بهره وری انرژی و مقرون به صرفه بودن، CPUها به خوبی وظایف استنتاجی کم‌فشار را انجام می‌دهند که سهم عمده‌ای از بار کاری هوش مصنوعی را تشکیل می‌دهند.

اکثریت قریب به اتفاق رهبران شرکت (۹۸%) اهمیت استراتژیک هوش مصنوعی را با نزدیک به ۶۵٪ برنامه ریزی افزایش سرمایه گذاری تشخیص می دهد. انتظار می‌رود هزینه‌های جهانی هوش مصنوعی تا سال ۲۰۲۶ به ۳۰۰ میلیارد دلار برسد. به گفته آژانس بین‌المللی انرژی، همچنین تا سال ۲۰۲۶، مصرف برق هوش مصنوعی می‌تواند ده برابر شود. واضح است که هوش مصنوعی چالشی دوگانه برای کسب‌وکارها ایجاد می‌کند: به حداکثر رساندن قابلیت‌های هوش مصنوعی و در عین حال به حداقل رساندن تأثیرات زیست‌محیطی آن.

تنها در ایالات متحده، مصرف برق توسط مراکز داده انتظار می رود تا سال ۲۰۳۰ دو برابر شود و به ۳۵ گیگاوات (گیگاوات) برسد، در درجه اول به دلیل افزایش تقاضا برای فناوری های هوش مصنوعی. این افزایش عمدتاً ناشی از استقرار رک‌های آماده هوش مصنوعی است که هر کدام به دلیل پردازش‌های فشرده GPU، بین ۴۰ تا ۶۰ کیلووات (کیلووات) بیش از حد مصرف می‌کنند.

سه راهبرد اصلی برای مقابله موثر با این چالش‌های انرژی وجود دارد:

  1. انتخاب منابع محاسباتی مناسب برای حجم کاری هوش مصنوعی، با تمرکز بر تمایز بین نیازهای آموزشی و استنتاج.
  2. بهینه سازی عملکرد و بهره وری انرژی در ردپای مرکز داده موجود.
  3. توسعه توسعه هوش مصنوعی پایدار از طریق تلاش‌های مشترک در سراسر اکوسیستم.

CPU در مقابل GPU برای بارهای کاری استنتاج هوش مصنوعی

برخلاف تصور رایج، شیوه‌های هوش مصنوعی پایدار نشان می‌دهد که CPUها، نه فقط پردازنده‌های گرافیکی پرقدرت، برای اکثر وظایف هوش مصنوعی مناسب هستند. برای مثال، ۸۵٪ از محاسبات AI برای استنتاج استفاده می شود و به GPU نیاز ندارد.

برای وظایف استنتاج هوش مصنوعی، CPU ها ترکیبی متعادل از عملکرد، کارایی انرژی و مقرون به صرفه بودن را ارائه می دهند. آن‌ها به طرز ماهرانه‌ای وظایف استنتاجی متنوع و کم‌فشار را انجام می‌دهند و آنها را به ویژه از نظر انرژی کارآمد می‌سازد. علاوه بر این، توانایی آنها در پردازش وظایف موازی و انطباق با تقاضاهای نوسان، استفاده بهینه از انرژی را تضمین می کند که برای حفظ کارایی بسیار مهم است. این در تضاد کامل با پردازنده‌های گرافیکی پرقدرت‌تر است که به دلیل قابلیت‌های عملکرد بالا در آموزش هوش مصنوعی برتری دارند، اما اغلب در بین کارهای فشرده مورد استفاده قرار نمی‌گیرند.

علاوه بر این، هزینه کمتر انرژی و مالی مرتبط با CPUها، آنها را به گزینه ای ارجح برای سازمان هایی تبدیل می کند که برای عملیات پایدار و مقرون به صرفه تلاش می کنند. کتابخانه‌های بهینه‌سازی نرم‌افزاری که برای معماری‌های CPU طراحی شده‌اند، با افزایش بیشتر این مزیت، تقاضای انرژی را به میزان قابل توجهی کاهش می‌دهند. این کتابخانه‌ها وظایف استنتاج هوش مصنوعی را برای اجرای کارآمدتر بهینه می‌کنند و فرآیندهای محاسباتی را با ویژگی‌های عملیاتی CPU همسو می‌کنند تا مصرف انرژی غیر ضروری را به حداقل برسانند.

چگونه هوش مصنوعی مولد را مدیریت کنیم

به طور مشابه، توسعه دهندگان سازمانی می توانند از ابزارهای نرم افزاری پیشرفته ای استفاده کنند که عملکرد هوش مصنوعی را در CPU ها افزایش می دهد. این ابزارها به‌طور یکپارچه با چارچوب‌های رایج هوش مصنوعی مانند TensorFlow و ONNX، به طور خودکار مدل های هوش مصنوعی را برای عملکرد بهینه CPU تنظیم می کند. این نه تنها فرآیند استقرار را ساده می‌کند، بلکه نیاز به تنظیمات دستی در پلت‌فرم‌های سخت‌افزاری مختلف را نیز از بین می‌برد، گردش کار توسعه را ساده می‌کند و مصرف انرژی را کاهش می‌دهد.

در آخر، ۴ درصد از مصرف انرژی جهانی، رقمی که رشد هوش مصنوعی به طور قابل توجهی افزایش خواهد یافت. بسیاری از مراکز داده در حال حاضر تعداد زیادی پردازنده گرافیکی را مستقر کرده اند که انرژی فوق العاده ای مصرف می کنند و از محدودیت های حرارتی رنج می برند.

موتورهای داده نسل بعدی عملکرد ابرداده را تغییر می دهند

برای مثال، پردازنده‌های گرافیکی مانند H100 انویدیا، با ۸۰ میلیارد ترانزیستور، مصرف برق را به حداکثر می رساند، با برخی از پیکربندی ها بیش از ۴۰ کیلو وات. در نتیجه، مراکز داده باید از خنک سازی غوطه ور استفاده کنند، فرآیندی که سخت افزار را در مایع رسانای حرارتی غوطه ور می کند. اگرچه این روش خنک‌کننده در حذف گرما مؤثر است و تراکم‌های توان بالاتر را می‌دهد، اما این روش خنک‌کننده انرژی بیشتری مصرف می‌کند و مراکز داده را وادار می‌کند که ۱۰ تا ۲۰ درصد انرژی خود را صرفاً برای این کار اختصاص دهند.

برعکس، CPUهای با انرژی کارآمد راه حلی امیدوارکننده برای محافظت در برابر نیازهای فزاینده برق ناشی از گسترش سریع برنامه های کاربردی پیچیده هوش مصنوعی ارائه می دهند. شرکت‌هایی مانند Scaleway و Oracle با اجرای روش‌های استنتاج هوش مصنوعی مبتنی بر CPU که وابستگی به GPUهای سنتی را به‌طور چشمگیری کاهش می‌دهد، این روند را رهبری می‌کند. این تغییر نه تنها شیوه‌های پایدارتری را ترویج می‌کند، بلکه توانایی پردازنده‌ها را برای انجام کارآمد وظایف هوش مصنوعی به نمایش می‌گذارد.

برای نشان دادن، Oracle با موفقیت مدل‌های هوش مصنوعی مولد را با حداکثر هفت میلیارد پارامتر، مانند مدل Llama 2، مستقیماً بر روی CPU اجرا کرده است. این رویکرد مزایای قابل توجهی را در بهره وری انرژی و توان محاسباتی نشان داده است و معیاری را برای مدیریت موثر بارهای کاری هوش مصنوعی مدرن بدون مصرف بیش از حد انرژی تعیین کرده است.

تطبیق CPUها با عملکرد و نیازهای انرژی

با توجه به بهره وری انرژی برتر CPUها در انجام وظایف هوش مصنوعی، ما باید بهترین راه را برای ادغام این فناوری ها در مراکز داده موجود در نظر بگیریم. ادغام فناوری‌های جدید CPU مستلزم بررسی دقیق چندین عامل کلیدی برای اطمینان از بهینه‌سازی عملکرد و بهره‌وری انرژی است:

  • استفاده زیاد: CPU را انتخاب کنید که از اختلاف منابع جلوگیری می کند و گلوگاه های ترافیک را از بین می برد. ویژگی‌های کلیدی شامل تعداد هسته بالا است که به حفظ عملکرد تحت بارهای سنگین کمک می‌کند. این همچنین باعث پردازش بسیار کارآمد وظایف هوش مصنوعی می شود، عملکرد بهتری در هر وات ارائه می دهد و به صرفه جویی کلی انرژی کمک می کند. CPU همچنین باید مقادیر قابل توجهی از حافظه پنهان خصوصی و معماری را ارائه دهد که از هسته های تک رشته ای پشتیبانی می کند.
  • ویژگی‌های خاص هوش مصنوعی: پردازنده‌هایی را انتخاب کنید که دارای ویژگی‌های داخلی هستند که برای پردازش هوش مصنوعی طراحی شده‌اند، مانند پشتیبانی از فرمت‌های عددی رایج هوش مصنوعی مانند INT8، FP16، و BFloat16. این ویژگی‌ها پردازش کارآمدتر بارهای کاری هوش مصنوعی را امکان‌پذیر می‌کنند و عملکرد و کارایی انرژی را افزایش می‌دهند.
  • ملاحظات اقتصادی: ارتقاء به راه‌حل‌های مبتنی بر CPU می‌تواند مقرون به صرفه‌تر از حفظ یا گسترش سیستم‌های مبتنی بر GPU باشد، به‌ویژه با توجه به مصرف انرژی کمتر و نیازهای خنک‌کننده CPU.
  • سادگی یکپارچه سازی: CPU ها مسیری ساده برای ارتقاء قابلیت های مرکز داده ارائه می دهند. برخلاف الزامات پیچیده برای ادغام پردازنده‌های گرافیکی پرقدرت، CPU‌ها اغلب می‌توانند به آسانی در زیرساخت‌های مرکز داده موجود – از جمله شبکه و سیستم‌های قدرت – ادغام شوند، انتقال را ساده کرده و نیاز به تغییرات زیرساختی گسترده را کاهش می‌دهد.
هوش مصنوعی همچنان به تخصص انسانی نیاز دارد

با تمرکز بر این ملاحظات کلیدی، می‌توانیم به طور مؤثری بین عملکرد و کارایی انرژی در مراکز داده‌مان تعادل ایجاد کنیم، و از یک زیرساخت مقرون‌به‌صرفه و مقاوم در برابر آینده برای برآورده کردن نیازهای محاسباتی برنامه‌های هوش مصنوعی آینده اطمینان حاصل کنیم.

تکنولوژی پیشرفته CPU برای هوش مصنوعی

اتحادهای صنعتی هوش مصنوعی، مانند اتحاد پلتفرم هوش مصنوعی، نقش مهمی در پیشرفت فناوری CPU برای برنامه های کاربردی هوش مصنوعی دارند. با تمرکز بر افزایش بهره وری انرژی و عملکرد از طریق تلاش های مشترک. این اتحادها طیف متنوعی از شرکا را از بخش‌های مختلف پشته فناوری – از جمله پردازنده‌ها، شتاب‌دهنده‌ها، سرورها و نرم‌افزارها- گرد هم می‌آورند تا راه‌حل‌های قابل تعاملی را ایجاد کنند که چالش‌های خاص هوش مصنوعی را برطرف کنند. این کار از محاسبات لبه‌ای تا مراکز داده بزرگ را در بر می‌گیرد و تضمین می‌کند که استقرار هوش مصنوعی هم پایدار و هم کارآمد است.

این همکاری‌ها به‌ویژه در ایجاد راه‌حل‌های بهینه‌سازی شده برای وظایف مختلف هوش مصنوعی، مانند بینایی رایانه‌ای، پردازش ویدیو، و هوش مصنوعی مولد مؤثر هستند. هدف این اتحادها با ادغام تخصص و فناوری از شرکت‌های متعدد، ایجاد بهترین راه‌حل‌هایی است که عملکرد بهینه و بهره‌وری انرژی قابل‌توجهی را ارائه می‌دهند.

تلاش‌های مشترک مانند AI Platform Alliance به توسعه فناوری‌های جدید CPU و طراحی‌های سیستمی کمک می‌کند که به‌طور خاص برای رسیدگی به نیازهای بار کاری هوش مصنوعی به‌طور کارآمد طراحی شده‌اند. این نوآوری‌ها منجر به صرفه‌جویی قابل‌توجه در مصرف انرژی و افزایش عملکرد کلی برنامه‌های هوش مصنوعی می‌شود و مزایای قابل توجه همکاری در سطح صنعت را در پیشبرد پیشرفت‌های فناوری برجسته می‌کند.

جف ویتیک مدیر ارشد محصول در Ampere Computing است.

Generative AI Insights مکانی را برای رهبران فناوری – از جمله فروشندگان و سایر مشارکت‌کنندگان خارجی – فراهم می‌کند تا چالش‌ها و فرصت‌های هوش مصنوعی مولد را بررسی و بحث کنند. این انتخاب گسترده است، از غواصی عمیق فناوری گرفته تا مطالعات موردی گرفته تا نظرات متخصص، اما همچنین ذهنی است، بر اساس قضاوت ما در مورد اینکه کدام موضوعات و درمان ها به بهترین وجه به مخاطبان فنی پیشرفته InfoWorld خدمت می کنند. InfoWorld وثیقه بازاریابی را برای انتشار نمی پذیرد و حق ویرایش تمام محتوای ارائه شده را برای خود محفوظ می دارد. تماس با doug_dineley@foundryco.com.