۲۹ شهریور ۱۴۰۳

Techboy

اخبار و اطلاعات روز تکنولوژی

انتخاب GPU مناسب برای هوش مصنوعی، یادگیری ماشینی و موارد دیگر

الزامات سخت افزاری برای یادگیری ماشین و سایر محاسبات فشرده متفاوت است. با این مشخصات GPU و مدل های GPU Nvidia آشنا شوید.

الزامات سخت افزاری برای یادگیری ماشین و سایر محاسبات فشرده متفاوت است. با این مشخصات GPU و مدل های GPU Nvidia آشنا شوید.

سازندگان تراشه در حال تولید جریان ثابتی از GPUهای جدید هستند. در حالی که آنها مزایای جدیدی را برای موارد استفاده مختلف به ارمغان می آورند، تعداد مدل های GPU موجود از هر سازنده می تواند توسعه دهندگانی را که با حجم کاری یادگیری ماشینی کار می کنند، تحت تأثیر قرار دهد. برای تصمیم گیری اینکه کدام GPU برای سازمان شما مناسب است، یک کسب و کار و توسعه دهندگان آن باید هزینه های خرید یا اجاره GPU را در نظر بگیرند تا از نوع حجم کاری که باید پردازش شود پشتیبانی کند. علاوه بر این، اگر در نظر گرفتن استقرار در محل، آنها باید هزینه های مرتبط با مدیریت مرکز داده را در نظر بگیرند.

برای تصمیم گیری صحیح، کسب و کارها ابتدا باید تشخیص دهند که برای انجام چه کارهایی به GPU خود نیاز دارند. به عنوان مثال، پخش ویدئو، هوش مصنوعی مولد، و شبیه‌سازی‌های پیچیده همگی موارد استفاده متفاوتی هستند و هر کدام با انتخاب مدل و اندازه GPU خاص به بهترین وجه ارائه می‌شوند. کارهای مختلف ممکن است به سخت افزار متفاوتی نیاز داشته باشند، برخی ممکن است به معماری تخصصی نیاز داشته باشند و برخی ممکن است به مقدار زیادی VRAM نیاز داشته باشند.

مشخصات سخت افزار GPU

توجه به این نکته مهم است که هر پردازنده گرافیکی دارای مشخصات سخت افزاری منحصر به فردی است که مناسب بودن آنها را برای انجام کارهای تخصصی دیکته می کند. عواملی که باید در نظر گرفته شوند:

  • هسته‌های CUDA: اینها انواع خاصی از واحدهای پردازشی هستند که برای کار با مدل برنامه‌نویسی Nvidia CUDA طراحی شده‌اند. هسته های CUDA نقش اساسی در پردازش موازی ایفا می کنند و وظایف محاسباتی مختلف متمرکز بر رندر گرافیک را سرعت می بخشند. آنها اغلب از یک دستورالعمل واحد، معماری چند داده (SIMD) استفاده می کنند، به طوری که یک دستورالعمل واحد به طور همزمان بر روی چندین عنصر داده اجرا می شود و در نتیجه توان عملیاتی بالایی در محاسبات موازی ایجاد می کند.
  • هسته های تانسور: این اجزای سخت افزاری محاسبات ماتریسی و عملیات مربوط به یادگیری ماشین و شبکه های عصبی عمیق را انجام می دهند. دقت آنها در نتایج بار کاری یادگیری ماشین مستقیماً با تعداد هسته های تانسور در یک GPU متناسب است. در میان گزینه‌های زیادی که انویدیا ارائه می‌کند، H100 بیشترین هسته‌های تانسوری (۶۴۰) را ارائه می‌کند و پس از آن Nvidia L40S، A100، A40 و A16 به ترتیب با ۵۶۸، ۴۳۲، ۳۳۶ و ۴۰ هسته‌های تانسور قرار دارند.
  • حداکثر حافظه GPU: همراه با هسته های تانسور، حداکثر حافظه GPU هر مدل بر میزان کارآمدی آن در اجرای بارهای کاری مختلف تأثیر می گذارد. برخی از بارهای کاری ممکن است با هسته های تانسور کمتر به راحتی اجرا شوند، اما ممکن است برای تکمیل وظایف خود به حافظه GPU بیشتری نیاز داشته باشند. Nvidia A100 و H100 هر دو دارای ۸۰ گیگابایت رم در یک واحد هستند. A40 و L40S دارای ۴۸ گیگابایت رم و A16 دارای ۱۶ گیگابایت رم در یک دستگاه هستند.
  • Tflops (همچنین به عنوان ترافلاپس شناخته می‌شود): این معیار عملکرد یک سیستم را در عملیات ممیز شناور در هر ثانیه کمیت می‌دهد. این شامل عملیات ممیز شناور است که حاوی محاسبات ریاضی با استفاده از اعداد با اعشار است. آنها یک شاخص مفید در هنگام مقایسه قابلیت های اجزای سخت افزاری مختلف هستند. برنامه های محاسباتی با کارایی بالا، مانند شبیه سازی ها، به شدت به Tflops متکی هستند.
  • حداکثر منبع تغذیه: این عامل زمانی اعمال می‌شود که در حال بررسی پردازنده‌های گرافیکی داخلی و زیرساخت‌های مرتبط با آن‌ها هستیم. یک مرکز داده باید منبع تغذیه خود را به درستی مدیریت کند تا GPU مطابق طراحی عمل کند. انویدیا A100، H100، L40S و A40 به ۳۰۰ تا ۳۵۰ وات و A16 به ۲۵۰ وات نیاز دارند.
پارتیشن بندی یک LLM بین ابر و لبه

داده‌های فنی و عملکرد Nvidia GPU بر اساس هسته‌های CUDA، عملکرد Tflops و قابلیت‌های پردازش موازی متفاوت است. در زیر مشخصات، محدودیت‌ها و انواع معماری مدل‌های مختلف پردازشگر گرافیکی Vultr Cloud آمده است.

مدل GPU

هسته‌های CUDA

هسته های تانسور

TF32 با پراکندگی

حداکثر حافظه GPU

معماری انویدیا

Nvidia GH200

۱۸۴۳۱

۶۴۰

۹۸۹

۹۶ گیگابایت HBM3

گریس هاپر

Nvidia H100

۱۸۴۳۱

۶۴۰

۹۸۹

۸۰ گیگابایت

قیف

Nvidia A100

۶۹۱۲

۴۳۲

۳۱۲

۸۰ گیگابایت

آمپر

Nvidia L40S

۱۸۷۱۶

۵۶۸

۳۶۶

۴۸ گیگابایت

ADA Lovelace

Nvidia A40

۱۰۷۵۲

۳۳۶

۱۴۹.۶

۴۸ گیگابایت

آمپر

Nvidia A16

۵۱۲۰

۱۶۰

۷۲

۶۴ گیگابایت

آمپر

مدل GPU

هسته‌های CUDA

هسته های تانسور

TF32 با پراکندگی

حداکثر حافظه GPU

معماری انویدیا

Nvidia GH200

۱۸۴۳۱

۶۴۰

۹۸۹

۹۶ گیگابایت HBM3

گریس هاپر

Nvidia H100

۱۸۴۳۱

۶۴۰

۹۸۹

۸۰ گیگابایت

قیف

Nvidia A100

۶۹۱۲

۴۳۲

۳۱۲

۸۰ گیگابایت

آمپر

Nvidia L40S

۱۸۷۱۶

۵۶۸

۳۶۶

۴۸ گیگابایت

ADA Lovelace

Nvidia A40

۱۰۷۵۲

VirtualBox 7 از راه دور به Oracle Cloud منتقل می شود

۳۳۶

۱۴۹.۶

۴۸ گیگابایت

آمپر

Nvidia A16

۵۱۲۰

۱۶۰

۷۲

۶۴ گیگابایت

آمپر

پروفایل مدل های گرافیکی Nvidia

هر مدل GPU برای رسیدگی به موارد استفاده خاص طراحی شده است. اگرچه فهرست جامعی نیست، اما اطلاعات زیر یک نمای کلی از پردازنده‌های گرافیکی Nvidia و اینکه چه وظایفی به بهترین نحو از عملکرد آن‌ها بهره می‌برند، ارائه می‌کند.

Nvidia GH200

Nvidia GH200 Grace Hopper Superchip معماری‌های Nvidia Grace و Hopper را با استفاده از Nvidia NVLink-C2C. GH200 دارای طراحی CPU+GPU، منحصر به فرد برای این مدل، برای هوش مصنوعی در مقیاس بزرگ و محاسبات با کارایی بالا است. سوپرچیپ GH200 به محاسبات و هوش مصنوعی مولد با حافظه گرافیکی HBM3 و HBM3e سرعت می بخشد. رابط منسجم جدید ۹۰۰ گیگابایت در ثانیه (GB/s) 7 برابر سریعتر از PCIe Gen5 است.

Nvidia GH200 اکنون به صورت تجاری در دسترس است.  مستندات Nvidia GH200 در حال حاضر در وب‌سایت Nvidia موجود است.

Nvidia H100 Tensor Core

محاسبات با کارایی بالا: H100 برای آموزش مدل‌های زبان تریلیون پارامتری مناسب است و با استفاده از معماری Nvidia Hopper به مدل‌های زبانی بزرگ تا ۳۰ برابر بیشتر از نسل‌های قبلی شتاب می‌دهد.

تحقیقات پزشکی: H100 همچنین برای توالی‌یابی ژنوم و شبیه‌سازی پروتئین با استفاده از قابلیت‌های پردازش دستورالعمل DPX و کارهای دیگر مفید است.

برای پیاده‌سازی راه‌حل‌ها در نمونه Nvidia H100 Tensor Core، اسناد Nvidia H100.

Nvidia A100

یادگیری عمیق: قدرت محاسباتی بالای A100 به آموزش و استنتاج مدل یادگیری عمیق کمک می‌کند. A100 همچنین در کارهایی مانند تشخیص تصویر، پردازش زبان طبیعی، و برنامه‌های رانندگی خودکار به خوبی عمل می‌کند.

شبیه‌سازی‌های علمی: A100 می‌تواند شبیه‌سازی‌های علمی پیچیده از جمله پیش‌بینی آب و هوا و مدل‌سازی آب و هوا، و همچنین فیزیک و شیمی را اجرا کند.

تحقیقات پزشکی: A100 وظایف مربوط به تصویربرداری پزشکی را تسریع می‌کند و تشخیص‌های دقیق‌تر و سریع‌تری ارائه می‌دهد. این GPU همچنین می‌تواند به مدل‌سازی مولکولی برای کشف دارو کمک کند.

برای پیاده‌سازی راه‌حل‌ها در Nvidia A100، اسناد Nvidia A100.

Nvidia L40S

هوش مصنوعی مولد: L40S از توسعه برنامه کاربردی هوش مصنوعی مولد از طریق تسریع استنتاج سرتاسر، آموزش گرافیک سه بعدی و سایر وظایف پشتیبانی می کند. این مدل همچنین برای استقرار و مقیاس بندی بارهای کاری متعدد مناسب است.

برای استفاده از قدرت Nvidia L40S، اسناد Nvidia L40S.

Nvidia A40

تحلیل‌های مبتنی بر هوش مصنوعی: A40 عملکرد مورد نیاز برای تصمیم‌گیری سریع و همچنین هوش مصنوعی و یادگیری ماشینی را برای بارهای داده سنگین ارائه می‌کند.

اکثر خرابی های ابر ربطی به ابر ندارند

مجازی سازی و رایانش ابری: A40 امکان اشتراک گذاری سریع منابع را فراهم می کند و این مدل را برای کارهایی مانند زیرساخت دسکتاپ مجازی (VDI)، بازی به عنوان سرویس و مبتنی بر ابر ایده آل می کند. ارائه.

گرافیک حرفه‌ای: A40 همچنین می‌تواند از برنامه‌های گرافیکی حرفه‌ای مانند مدل‌سازی سه بعدی و طراحی به کمک رایانه (CAD) استفاده کند. پردازش سریع تصاویر با وضوح بالا و رندر زمان واقعی را امکان پذیر می کند.

برای پیاده‌سازی راه‌حل‌ها در Nvidia A40، اسناد Nvidia A40.

Nvidia A16

جریان‌سازی چندرسانه‌ای: پاسخ‌پذیری و تأخیر کم A16، تعامل بی‌درنگ و پخش جریانی چندرسانه‌ای را برای ارائه یک تجربه بازی روان و همه‌جانبه فراهم می‌کند.

مجازی‌سازی محل کار: A16 همچنین برای اجرای برنامه‌های مجازی (vApps) طراحی شده است که بهره‌وری و عملکرد را در مقایسه با راه‌اندازی‌های سنتی به حداکثر می‌رساند و پیاده‌سازی کار از راه دور را بهبود می‌بخشد.

دسک‌تاپ‌ها و ایستگاه‌های کاری مجازی از راه دور: A16 به سرعت و کارآمد عمل می‌کند و امکان استقرار یک دسک‌تاپ مجازی یا ایستگاه کاری گرافیکی پیشرفته مبتنی بر لینوکس یا ویندوز را فراهم می‌کند.

رمزگذاری ویدیو: A16 کارهای رمزگذاری ویدیویی با منابع فشرده را تسریع می‌کند، مانند تبدیل انواع فرمت‌های ویدیویی از فایل‌های mp4. به فایل‌های .mov.

برای استفاده از قدرت Nvidia A16،  را بخوانید. اسناد Nvidia A16.

با در دسترس قرار گرفتن GPU های جدید و قدرتمندتر، کسب و کارها برای بهینه سازی منابع GPU خود با فشار بیشتری مواجه خواهند شد. در حالی که همیشه سناریوهایی وجود دارد که در آن استقرار GPU در محل منطقی باشد، احتمالاً موقعیت‌های بسیار بیشتری وجود خواهد داشت که در آن کار با یک ارائه‌دهنده زیرساخت ابری که دسترسی به طیف وسیعی از GPU را ارائه می‌دهد، ROI بیشتری را ارائه می‌کند.

کوین کاکرین مدیر ارشد بازاریابی در Vultr است.

Generative AI Insights مکانی را برای رهبران فناوری – از جمله فروشندگان و سایر مشارکت‌کنندگان خارجی – فراهم می‌کند تا چالش‌ها و فرصت‌های هوش مصنوعی مولد را بررسی و بحث کنند. این انتخاب گسترده است، از غواصی عمیق فناوری گرفته تا مطالعات موردی گرفته تا نظرات متخصص، اما همچنین ذهنی است، بر اساس قضاوت ما در مورد اینکه کدام موضوعات و درمان ها به بهترین وجه به مخاطبان فنی پیشرفته InfoWorld خدمت می کنند. InfoWorld وثیقه بازاریابی را برای انتشار نمی پذیرد و حق ویرایش تمام محتوای ارائه شده را برای خود محفوظ می دارد. تماس با doug_dineley@foundryco.com.