بسیاری از معماران سیستم در حال حاضر تمرکز بیش از حد بر روی پردازندههای سیستمهای هوش مصنوعی مولد و عدم توجه کافی به سایر اجزای حیاتی را میبینند.
در مورد هوش مصنوعی مولد در فضای ابری با هر کسی صحبت کنید و گفتگو به سرعت به سمت GPU ها (واحدهای پردازش گرافیکی) می رود. اما این می تواند یک هدف نادرست باشد. پردازندههای گرافیکی آنقدر که مردم فکر میکنند اهمیتی ندارند، و ظرف چند سال، احتمالاً گفتگو به آنچه برای توسعه و استقرار سیستمهای هوش مصنوعی مولد در فضای ابری حیاتیتر است تغییر خواهد کرد.
فرض فعلی این است که GPU ها برای تسهیل محاسبات پیچیده مورد نیاز مدل های هوش مصنوعی مولد ضروری هستند. در حالی که پردازندههای گرافیکی در پیشرفت هوش مصنوعی نقش مهمی داشتهاند، تأکید بیش از حد بر آنها ممکن است از کاوش و استفاده از جایگزینهای به همان اندازه مؤثر و بالقوه پایدارتر جلوگیری کند. در واقع، پردازندههای گرافیکی میتوانند به سرعت به کالاهایی مانند سایر منابع مورد نیاز سیستمهای هوش مصنوعی، مانند فضای ذخیرهسازی و پردازش تبدیل شوند. تمرکز باید بر روی طراحی و استقرار این سیستم ها باشد، نه فقط سخت افزاری که روی آنها اجرا می شود. مرا دیوانه صدا کن.
عجله طلا در GPU
اهمیت پردازندههای گرافیکی برای انویدیا، شرکتی که اکثر مردم تا به حال به آن توجه زیادی نمیکردند، به خوبی انجام شده است. در سه ماهه اخیر، انویدیا درآمد مرکز داده ۱۴.۵ میلیارد دلاری را به ثبت رساند که ۴۱ درصد نسبت به سه ماهه قبل و ۲۷۹ درصد نسبت به سه ماهه سال قبل افزایش داشته است. پردازندههای گرافیکی آن در حال حاضر استاندارد پردازش هوش مصنوعی هستند، حتی بیشتر از بازی.
بیش از انفجار سهام انویدیا، نمیتوانید شبکههای اجتماعی را بدون دیدن شخصی که با جنسن هوانگ، مدیر عامل انویدیا سلفی میگیرد باز کنید. علاوه بر این، همه کسانی که با انویدیا شریک شدهاند و بودجههای چند میلیون دلاری دارند تا به این شرکت و فناوری با رشد بالا نزدیک شوند.
در ابتدا برای سرعت بخشیدن به گرافیک سه بعدی در بازی در دهه ۱۹۹۰ طراحی شدند، GPU ها از منشاء خود تکامل یافته اند. معماری GPU اولیه برای محاسبات گرافیکی بسیار تخصصی بود و عمدتاً برای رندر کردن تصاویر و انجام وظایف پردازش موازی فشرده مرتبط با رندر سه بعدی استفاده می شد. این باعث می شود که آنها برای هوش مصنوعی مناسب باشند زیرا در کارهایی که نیاز به محاسبات همزمان دارند مهارت دارند.
آیا پردازندههای گرافیکی واقعاً کار بزرگی هستند؟
GPUها برای هماهنگ کردن عملیات به یک تراشه میزبان نیاز دارند. اگرچه این پیچیدگی و قابلیت معماریهای GPU مدرن را ساده میکند، اما نسبت به آنچه میتوانست کارآمدتر است. پردازندههای گرافیکی همراه با پردازندههای مرکزی (تراشه میزبان) کار میکنند که وظایف خاصی را به پردازندههای گرافیکی منتقل میکنند. همچنین، این تراشه های میزبان عملکرد کلی برنامه های نرم افزاری را مدیریت می کنند.
اضافه شدن به این مسئله کارایی، ضرورت ارتباطات بین فرآیندی است. چالشهای مربوط به جداسازی مدلها، پردازش آنها در قطعات، و سپس مونتاژ مجدد خروجیها برای تجزیه و تحلیل یا استنتاج جامع. و پیچیدگی های ذاتی استفاده از GPU برای یادگیری عمیق و هوش مصنوعی. این فرآیند بخشبندی و ادغام مجدد بخشی از توزیع وظایف محاسباتی برای بهینهسازی عملکرد است، اما سوالات مربوط به کارایی خود را دارد.
کتابخانهها و چارچوبهای نرمافزاری که برای انتزاع و مدیریت این عملیات طراحی شدهاند، مورد نیاز است. فنآوریهایی مانند CUDA (معماری دستگاه یکپارچه محاسبه) انویدیا مدل برنامهنویسی و جعبه ابزار مورد نیاز برای توسعه نرمافزاری را ارائه میکنند که میتواند از قابلیتهای شتاب GPU استفاده کند.
یک دلیل اصلی برای علاقه زیاد به Nvidia این است که یک اکوسیستم نرم افزاری را ارائه می دهد که به GPU ها اجازه می دهد با برنامه های کاربردی، از جمله بازی، یادگیری عمیق و هوش مصنوعی تولیدی، کارآمدتر کار کنند. بدون این اکوسیستم ها، CUDA و سایرین پتانسیل یکسانی ندارند. بنابراین، انویدیا در کانون توجه قرار دارد، که در حال حاضر دارای پردازنده و اکوسیستم است.
گزینه های جایگزین در افق
من نمی گویم که پردازنده های گرافیکی انویدیا فناوری بدی هستند. واضح است که آنها موثر هستند. بحث این است که تمرکز اصلی در ساخت و استقرار سیستمهای هوش مصنوعی در فضای ابری، داشتن لایه پردازشی، کمی حواسپرتی را ایجاد میکند.
من گمان میکنم که تا دو سال دیگر، پردازندههای گرافیکی مطمئناً همچنان در تصویر باقی خواهند ماند، اما هیجان در مورد آنها مدتهاست که از بین خواهد رفت. در عوض، ما بر کارایی استنتاج، بهبود مستمر مدل، و روشهای جدید برای مدیریت الگوریتمها و دادهها تمرکز خواهیم کرد.
افزایش شهابآمیز انویدیا، سرمایهگذاران را وادار میکند تا دسته چکهای خود را برای سرمایهگذاری در هر گزینهای بالقوه برای بازی در آن بازار سرمایهگذاری کنند. رقبای ظاهری در حال حاضر AMD و Intel هستند. برای مثال، اینتل به دنبال جایگزینی برای GPU است a> با پردازنده Gaudi 3 خود. جالبتر اینکه چندین استارتآپ مدعی هستند که روشهای بهتری برای پردازش مدلهای زبان بزرگ ایجاد کردهاند. فهرست کوتاهی از این شرکتها شامل SambaNova، Cerebras، GraphCore، Groq و xAI است.
البته، این شرکتها نه تنها به دنبال ساخت تراشهها و اکوسیستمهای نرمافزاری برای این تراشهها هستند، بسیاری نیز در تلاش هستند تا میکروکلودها یا ارائهدهندگان کوچک ابری را ارائه دهند که جایگزینهای GPU خود را به عنوان یک سرویس، بسیار شبیه به AWS، مایکروسافت، و گوگل ارائه دهند. امروز را با GPU های موجود انجام دهید. فهرست ارائهدهندگان ابر GPU روز به روز در حال افزایش است، با قضاوت از تعداد روابط عمومی آژانسها برای جلب توجه درب من را میکوبند.
در حالی که ما به تازگی پردازشهای گرافیکی Nvidia را به فروش میرسانیم، میتوانید روی همین میکروکلودها برای استفاده از آنالوگهای GPU جدید با توجه به اینکه ارزانتر، کارآمدتر و به انرژی کمتری نیاز دارند، حساب کنید. اگر این اتفاق بیفتد، آنها به سرعت هر پردازنده ای را جایگزین می کنند که کمتر پیشرفته باشد. علاوه بر این، اگر عملکرد و قابلیت اطمینان وجود داشته باشد، ما واقعاً اهمیتی نمیدهیم که پردازنده چه مارکی است یا حتی معماری آن. در آن دنیا، من شک دارم که به دنبال سلفی با مدیران عامل آن شرکت ها باشیم. این فقط بخشی از یک سیستم است که کار می کند.
گاهی اوقات به GPU نیاز نیست
البته، همانطور که در اینجا توضیح دادم، پردازندههای گرافیکی همیشه برای هوش مصنوعی مولد یا سایر پردازشهای هوش مصنوعی مورد نیاز نیستند. مدلهای کوچکتر ممکن است روی CPUهای سنتی یا سایر سختافزارهای تخصصی کارآمد اجرا شوند و از نظر هزینه و انرژی کارآمدتر باشند.
بسیاری از معماریهای هوش مصنوعی مولد من از CPUهای سنتی بدون تأثیر قابل توجهی بر عملکرد استفاده کردهاند. البته بستگی به تلاش شما دارد. بیشتر استقرارهای هوش مصنوعی مولد سازمانی به انرژی کمتری نیاز دارند، و من گمان میکنم که بسیاری از پروژههای فعلی هوش مصنوعی که اصرار بر استفاده از GPU دارند، اغلب بیش از حد هستند.
در نهایت درک بهتری خواهیم داشت که چه زمانی باید از GPU (یا آنالوگهای آنها) استفاده شود و چه زمانی به آنها نیازی نیست. با این حال، دقیقاً مانند آنچه که ما با افزایش ابری در آنجا میبینیم، شرکتها ممکن است قدرت پردازش سیستمهای هوش مصنوعی خود را بیش از حد تأمین کنند و تا زمانی که صورتحساب را نبینند اهمیتی نمیدهند. ما به نقطهای نرسیدهایم که نگران بهینهسازی هزینههای سیستمهای هوش مصنوعی مولد باشیم، اما در مقطعی باید پاسخگو باشیم.
بسیار خوب، Linthicum دوباره در حال پخش شدن است. من حدس می زنم که هستم، اما دلیل خوبی دارد. ما در آستانه ورود به زمان تغییرات و دگرگونی های زیادی در استفاده از فناوری هوش مصنوعی هستیم که بر پیشرفت فناوری اطلاعات تأثیر می گذارد. چیزی که من را در شب بیدار نگه می دارد این است که صنعت فناوری اطلاعات توسط یک شی براق دیگر منحرف می شود. معمولاً پایان خوبی ندارد.
پست های مرتبط
معماری ابری بیشتر از GPU ها وجود دارد
معماری ابری بیشتر از GPU ها وجود دارد
معماری ابری بیشتر از GPU ها وجود دارد