۲۹ شهریور ۱۴۰۳

Techboy

اخبار و اطلاعات روز تکنولوژی

معماری ابری بیشتر از GPU ها وجود دارد

بسیاری از معماران سیستم در حال حاضر تمرکز بیش از حد بر روی پردازنده‌های سیستم‌های هوش مصنوعی مولد و عدم توجه کافی به سایر اجزای حیاتی را می‌بینند.

بسیاری از معماران سیستم در حال حاضر تمرکز بیش از حد بر روی پردازنده‌های سیستم‌های هوش مصنوعی مولد و عدم توجه کافی به سایر اجزای حیاتی را می‌بینند.

در مورد هوش مصنوعی مولد در فضای ابری با هر کسی صحبت کنید و گفتگو به سرعت به سمت GPU ها (واحدهای پردازش گرافیکی) می رود. اما این می تواند یک هدف نادرست باشد. پردازنده‌های گرافیکی آن‌قدر که مردم فکر می‌کنند اهمیتی ندارند، و ظرف چند سال، احتمالاً گفتگو به آنچه برای توسعه و استقرار سیستم‌های هوش مصنوعی مولد در فضای ابری حیاتی‌تر است تغییر خواهد کرد.

فرض فعلی این است که GPU ها برای تسهیل محاسبات پیچیده مورد نیاز مدل های هوش مصنوعی مولد ضروری هستند. در حالی که پردازنده‌های گرافیکی در پیشرفت هوش مصنوعی نقش مهمی داشته‌اند، تأکید بیش از حد بر آن‌ها ممکن است از کاوش و استفاده از جایگزین‌های به همان اندازه مؤثر و بالقوه پایدارتر جلوگیری کند. در واقع، پردازنده‌های گرافیکی می‌توانند به سرعت به کالاهایی مانند سایر منابع مورد نیاز سیستم‌های هوش مصنوعی، مانند فضای ذخیره‌سازی و پردازش تبدیل شوند. تمرکز باید بر روی طراحی و استقرار این سیستم ها باشد، نه فقط سخت افزاری که روی آنها اجرا می شود. مرا دیوانه صدا کن.

عجله طلا در GPU

اهمیت پردازنده‌های گرافیکی برای انویدیا، شرکتی که اکثر مردم تا به حال به آن توجه زیادی نمی‌کردند، به خوبی انجام شده است. در سه ماهه اخیر، انویدیا درآمد مرکز داده ۱۴.۵ میلیارد دلاری را به ثبت رساند که ۴۱ درصد نسبت به سه ماهه قبل و ۲۷۹ درصد نسبت به سه ماهه سال قبل افزایش داشته است. پردازنده‌های گرافیکی آن در حال حاضر استاندارد پردازش هوش مصنوعی هستند، حتی بیشتر از بازی.

بیش از انفجار سهام انویدیا، نمی‌توانید شبکه‌های اجتماعی را بدون دیدن شخصی که با جنسن هوانگ، مدیر عامل انویدیا سلفی می‌گیرد باز کنید. علاوه بر این، همه کسانی که با انویدیا شریک شده‌اند و بودجه‌های چند میلیون دلاری دارند تا به این شرکت و فناوری با رشد بالا نزدیک شوند.

شروع کار با Azure Automation

در ابتدا برای سرعت بخشیدن به گرافیک سه بعدی در بازی در دهه ۱۹۹۰ طراحی شدند، GPU ها از منشاء خود تکامل یافته اند. معماری GPU اولیه برای محاسبات گرافیکی بسیار تخصصی بود و عمدتاً برای رندر کردن تصاویر و انجام وظایف پردازش موازی فشرده مرتبط با رندر سه بعدی استفاده می شد. این باعث می شود که آنها برای هوش مصنوعی مناسب باشند زیرا در کارهایی که نیاز به محاسبات همزمان دارند مهارت دارند.

آیا پردازنده‌های گرافیکی واقعاً کار بزرگی هستند؟

GPUها برای هماهنگ کردن عملیات به یک تراشه میزبان نیاز دارند. اگرچه این پیچیدگی و قابلیت معماری‌های GPU مدرن را ساده می‌کند، اما نسبت به آنچه می‌توانست کارآمدتر است. پردازنده‌های گرافیکی همراه با پردازنده‌های مرکزی (تراشه میزبان) کار می‌کنند که وظایف خاصی را به پردازنده‌های گرافیکی منتقل می‌کنند. همچنین، این تراشه های میزبان عملکرد کلی برنامه های نرم افزاری را مدیریت می کنند.

اضافه شدن به این مسئله کارایی، ضرورت ارتباطات بین فرآیندی است. چالش‌های مربوط به جداسازی مدل‌ها، پردازش آنها در قطعات، و سپس مونتاژ مجدد خروجی‌ها برای تجزیه و تحلیل یا استنتاج جامع. و پیچیدگی های ذاتی استفاده از GPU برای یادگیری عمیق و هوش مصنوعی. این فرآیند بخش‌بندی و ادغام مجدد بخشی از توزیع وظایف محاسباتی برای بهینه‌سازی عملکرد است، اما سوالات مربوط به کارایی خود را دارد.

کتابخانه‌ها و چارچوب‌های نرم‌افزاری که برای انتزاع و مدیریت این عملیات طراحی شده‌اند، مورد نیاز است. فن‌آوری‌هایی مانند CUDA (معماری دستگاه یکپارچه محاسبه) انویدیا مدل برنامه‌نویسی و جعبه ابزار مورد نیاز برای توسعه نرم‌افزاری را ارائه می‌کنند که می‌تواند از قابلیت‌های شتاب GPU استفاده کند.

یک دلیل اصلی برای علاقه زیاد به Nvidia این است که یک اکوسیستم نرم افزاری را ارائه می دهد که به GPU ها اجازه می دهد با برنامه های کاربردی، از جمله بازی، یادگیری عمیق و هوش مصنوعی تولیدی، کارآمدتر کار کنند. بدون این اکوسیستم ها، CUDA و سایرین پتانسیل یکسانی ندارند. بنابراین، انویدیا در کانون توجه قرار دارد، که در حال حاضر دارای پردازنده و اکوسیستم است.

JetBrains TeamCity CI/CD را به فضای ابری می برد

گزینه های جایگزین در افق

من نمی گویم که پردازنده های گرافیکی انویدیا فناوری بدی هستند. واضح است که آنها موثر هستند. بحث این است که تمرکز اصلی در ساخت و استقرار سیستم‌های هوش مصنوعی در فضای ابری، داشتن لایه پردازشی، کمی حواس‌پرتی را ایجاد می‌کند.

من گمان می‌کنم که تا دو سال دیگر، پردازنده‌های گرافیکی مطمئناً همچنان در تصویر باقی خواهند ماند، اما هیجان در مورد آنها مدت‌هاست که از بین خواهد رفت. در عوض، ما بر کارایی استنتاج، بهبود مستمر مدل، و روش‌های جدید برای مدیریت الگوریتم‌ها و داده‌ها تمرکز خواهیم کرد.

افزایش شهاب‌آمیز انویدیا، سرمایه‌گذاران را وادار می‌کند تا دسته چک‌های خود را برای سرمایه‌گذاری در هر گزینه‌ای بالقوه برای بازی در آن بازار سرمایه‌گذاری کنند. رقبای ظاهری در حال حاضر AMD و Intel هستند. برای مثال، اینتل به دنبال جایگزینی برای GPU است با پردازنده Gaudi 3 خود. جالب‌تر اینکه چندین استارت‌آپ مدعی هستند که روش‌های بهتری برای پردازش مدل‌های زبان بزرگ ایجاد کرده‌اند. فهرست کوتاهی از این شرکت‌ها شامل SambaNova، Cerebras، GraphCore، Groq و xAI است.

البته، این شرکت‌ها نه تنها به دنبال ساخت تراشه‌ها و اکوسیستم‌های نرم‌افزاری برای این تراشه‌ها هستند، بسیاری نیز در تلاش هستند تا میکروکلودها یا ارائه‌دهندگان کوچک ابری را ارائه دهند که جایگزین‌های GPU خود را به عنوان یک سرویس، بسیار شبیه به AWS، مایکروسافت، و گوگل ارائه دهند. امروز را با GPU های موجود انجام دهید. فهرست ارائه‌دهندگان ابر GPU روز به روز در حال افزایش است، با قضاوت از تعداد روابط عمومی آژانس‌ها برای جلب توجه درب من را می‌کوبند.

در حالی که ما به تازگی پردازش‌های گرافیکی Nvidia را به فروش می‌رسانیم، می‌توانید روی همین میکروکلودها برای استفاده از آنالوگ‌های GPU جدید با توجه به اینکه ارزان‌تر، کارآمدتر و به انرژی کمتری نیاز دارند، حساب کنید. اگر این اتفاق بیفتد، آنها به سرعت هر پردازنده ای را جایگزین می کنند که کمتر پیشرفته باشد. علاوه بر این، اگر عملکرد و قابلیت اطمینان وجود داشته باشد، ما واقعاً اهمیتی نمی‌دهیم که پردازنده چه مارکی است یا حتی معماری آن. در آن دنیا، من شک دارم که به دنبال سلفی با مدیران عامل آن شرکت ها باشیم. این فقط بخشی از یک سیستم است که کار می کند.

CUDA چیست؟ برنامه نویسی موازی برای پردازنده های گرافیکی

گاهی اوقات به GPU نیاز نیست

البته، همانطور که در اینجا توضیح دادم، پردازنده‌های گرافیکی همیشه برای هوش مصنوعی مولد یا سایر پردازش‌های هوش مصنوعی مورد نیاز نیستند. مدل‌های کوچک‌تر ممکن است روی CPU‌های سنتی یا سایر سخت‌افزارهای تخصصی کارآمد اجرا شوند و از نظر هزینه و انرژی کارآمدتر باشند.

بسیاری از معماری‌های هوش مصنوعی مولد من از CPUهای سنتی بدون تأثیر قابل توجهی بر عملکرد استفاده کرده‌اند. البته بستگی به تلاش شما دارد. بیشتر استقرارهای هوش مصنوعی مولد سازمانی به انرژی کمتری نیاز دارند، و من گمان می‌کنم که بسیاری از پروژه‌های فعلی هوش مصنوعی که اصرار بر استفاده از GPU دارند، اغلب بیش از حد هستند.

در نهایت درک بهتری خواهیم داشت که چه زمانی باید از GPU (یا آنالوگ‌های آن‌ها) استفاده شود و چه زمانی به آنها نیازی نیست. با این حال، دقیقاً مانند آنچه که ما با افزایش ابری در آنجا می‌بینیم، شرکت‌ها ممکن است قدرت پردازش سیستم‌های هوش مصنوعی خود را بیش از حد تأمین کنند و تا زمانی که صورتحساب را نبینند اهمیتی نمی‌دهند. ما به نقطه‌ای نرسیده‌ایم که نگران بهینه‌سازی هزینه‌های سیستم‌های هوش مصنوعی مولد باشیم، اما در مقطعی باید پاسخگو باشیم.

بسیار خوب، Linthicum دوباره در حال پخش شدن است. من حدس می زنم که هستم، اما دلیل خوبی دارد. ما در آستانه ورود به زمان تغییرات و دگرگونی های زیادی در استفاده از فناوری هوش مصنوعی هستیم که بر پیشرفت فناوری اطلاعات تأثیر می گذارد. چیزی که من را در شب بیدار نگه می دارد این است که صنعت فناوری اطلاعات توسط یک شی براق دیگر منحرف می شود. معمولاً پایان خوبی ندارد.