علاقه زیادی به پردازندههای گرافیکی برای استقرار هوش مصنوعی مولد و به دلایل خوب وجود دارد. با این حال، در برخی موارد، آنها بیش از حد و بسیار گران هستند.
اغلب، با جستجوی الگوهای رایج در سؤالاتی که خبرنگاران از من میپرسند، به روندها پی میبرم. در بسیاری از موارد، آنها بسیار بیشتر از من با بازار در تماس هستند و نقطه داده خوبی هستند. تماسهایی را که در مورد مشکلاتی که ممکن است در صورت کمبود واحد پردازش گرافیک (GPU) ایجاد شود، دریافت کنید.
اول، اگر این اتفاق بیفتد، به احتمال زیاد طولانی نخواهد بود. ثانیاً، سایر گزینه های قابل اجرا باید در نظر گرفته شود. البته، با ترس از اینکه کسبوکارها نتوانند از انقلاب مولد هوش مصنوعی استفاده کنند، اگر نتوانند این پردازندهها را دریافت کنند، چه برای استفاده در سیستمهای داخلی یا در فضای ابری و چه برای استفاده در سیستمهای داخلی و یا در فضای ابری، زاویه تاریک و تاریک است. در صورت تقاضا.
مشکل ساختگی؟
من اولین کسی هستم که اعتراف می کنم که سیستم های هوش مصنوعی مولد پیچیده و پردازشگر فشرده هستند. بنابراین، فرض این است که آنها باید برای انجام کارهایی که زمانی در انحصار تخیل بشر بودند، به سخت افزار بسیار تخصصی تکیه کنند. مردم تصور می کنند که هوش مصنوعی مولد به GPU یا حتی پردازش های تخصصی تری مانند محاسبات کوانتومی نیاز دارد.
آیا این فرضیات همیشه درست هستند؟ آیا این سیستم تخصصی دیگری است که در آن قطعات تخصصی با قیمت های بسیار تخصصی مورد نیاز است؟
پردازندههای گرافیکی در ابتدا برای رندر کردن گرافیک در بازیهای ویدیویی توسعه داده شدند، اما به دلیل ساختار بسیار موازیشان، در هوش مصنوعی نقش مهمی پیدا کردند. آنها می توانند هزاران عملیات را به طور همزمان انجام دهند. این کاملاً با وظایف مورد نیاز شبکه های عصبی، فناوری حیاتی در هوش مصنوعی مولد مطابقت دارد. این یک واقعیت فنی است که افرادی که سیستمهای هوش مصنوعی مولد را طراحی و میسازند (مثل شما واقعاً) باید به دقت در نظر بگیرند.
از طرف دیگر، واحدهای پردازش تانسور (TPUs)، مدارهای مجتمع سفارشی توسعه یافته، برنامه کاربردی خاص گوگل هستند که به صراحت برای TensorFlow طراحی شده اند. TensorFlow یک چارچوب یادگیری ماشین منبع باز است که برای مدتی در دسترس بوده است. TPU ها به فرآیندهای یادگیری ماشین کمک می کنند زیرا برای انتشار به جلو و عقب طراحی شده اند. اینها فرآیندهایی هستند که برای آموزش شبکه های عصبی مورد استفاده قرار می گیرند. به نظر من TPU ها به اندازه GPU ها از نظر هزینه مشکل ساز نیستند. با این حال، آنها اغلب به یکدیگر متصل می شوند، بنابراین ارزش ذکر آن را در اینجا دارد.
کسانی از شما که این سیستمها را میسازید و به کار میبرید، میدانید که مهم نیست از چه چارچوب هوش مصنوعی استفاده میکنید، بیشتر پردازش و زمان صرف آموزش مدلها از دادهها میشود. به عنوان مثال، مدل های GPT-4 OpenAI یا BERT گوگل را در نظر بگیرید که دارای میلیاردها پارامتر هستند. آموزش چنین مدل هایی بدون پردازنده های تخصصی ممکن است زمان غیرعملی را ببرد.
آیا پردازنده های تخصصی همیشه مورد نیاز هستند؟
GPU ها عملکرد را بسیار افزایش می دهند، اما این کار را با هزینه قابل توجهی انجام می دهند. همچنین، برای کسانی که نقاط کربن را ردیابی می کنند، GPU ها مقادیر قابل توجهی برق مصرف می کنند و گرمای قابل توجهی تولید می کنند. آیا افزایش عملکرد هزینه را توجیه می کند؟
CPU ها رایج ترین نوع پردازنده ها در رایانه ها هستند. آنها در همه جا هستند، از جمله در هر چیزی که برای خواندن این مقاله استفاده می کنید. پردازندهها میتوانند وظایف مختلفی را انجام دهند و تعداد هستههای آنها در مقایسه با پردازندههای گرافیکی کمتر است.
با این حال، آنها واحدهای کنترل پیچیده ای دارند و می توانند طیف وسیعی از دستورالعمل ها را اجرا کنند. این تطبیق پذیری به این معنی است که آنها می توانند بارهای کاری هوش مصنوعی را مدیریت کنند، مانند موارد استفاده که نیاز به استفاده از هر نوع هوش مصنوعی، از جمله هوش مصنوعی مولد دارند.
CPU ها می توانند معماری های شبکه عصبی جدید یا الگوریتم های آزمایشی را نمونه سازی کنند. آنها می توانند برای اجرای مدل های کوچکتر یا کمتر پیچیده کافی باشند. این همان چیزی است که بسیاری از کسبوکارها در حال حاضر میسازند (و برای مدتی خواهد بود) و پردازندههای مرکزی برای موارد استفاده من در حال حاضر کافی هستند.
واقعاً چقدر باید پرداخت کنید؟
CPU ها از نظر سرمایه گذاری اولیه و مصرف برق برای سازمان های کوچکتر یا افرادی که منابع محدودی دارند مقرون به صرفه تر هستند. با این حال، حتی برای شرکتهایی که منابع زیادی دارند، همچنان ممکن است انتخاب مقرونبهصرفهتری باشند.
همچنین، هوش مصنوعی در حال تکامل است. با پیشرفت های اخیر در الگوریتم های هوش مصنوعی، پیشرفت های جدیدی مانند SLIDE (موتور یادگیری عمیق زیر خطی) وجود دارد. این فناوری ادعا می کند که تحت شرایط خاص، شبکه های عصبی عمیق را در CPU سریعتر از GPU ها آموزش می دهد. آنها از تکنیک های هش استفاده می کنند و هزینه های دسترسی به حافظه را کاهش می دهند.
همچنین، آرایه های دروازه قابل برنامه ریزی میدانی (FPGA) را در نظر بگیرید. این پردازنده ها را می توان پس از ساخت برنامه ریزی کرد تا وظایف خاصی مانند هوش مصنوعی را بسیار کارآمدتر انجام دهند. همچنین، واحدهای پردازش انجمنی (APU) در تشخیص الگو تخصص دارند و می توانند وظایف حافظه انجمنی را انجام دهند و باعث می شوند که انواع خاصی از برنامه های شبکه عصبی سریعتر اجرا شوند.
موردهای زیادی وجود دارد که پردازندههای غیر GPU مقرون به صرفهتر هستند. پس چرا وقتی صحبت از هوش مصنوعی مولد یا به طور کلی فقط هوش مصنوعی به میان می آید، پاسخ همیشه پردازنده گرافیکی است؟ مطمئن نیستم که لازم باشد.
من گمان میکنم که شرکتها میلیونها دلار بیشتر از آنچه نیاز دارند خرج میکنند، زیرا احساس میکنند که هزینه، دستاوردهای عملکرد را توجیه میکند. این هم مصرف پردازش GPU در یک ابر عمومی، در محل، و هم در رایانه های لبه خواهد بود.
درخواست در اینجا محدود کردن استفاده از پردازندههای گرافیکی نیست، بلکه در نظر گرفتن آنچه واقعاً برای استفاده خاص خود نیاز دارید، است. بیشتر برنامههای مولد هوش مصنوعی، پیادهسازیهای تاکتیکی کوچکی هستند و واقعاً به هزینه و تأثیر کربن پردازندههای گرافیکی نیازی ندارند.
وظیفه اصلی معماران سیستم، معماران ابر، و اکنون معماران هوش مصنوعی مولد یافتن بهینه ترین راه حل است. چه پیکربندی از فناوری کمترین هزینه را خواهد داشت و در عین حال بیشترین ارزش تجاری را ارائه می دهد؟ شاید هوش مصنوعی مولد حوزه ای از توسعه جدید آینده باشد که در آن می توانیم انتخاب های بهتر و عمل گرایانه تری داشته باشیم. فقط تبلیغات تبلیغاتی را دنبال نکنید.
پست های مرتبط
آیا برای سیستم های هوش مصنوعی مولد به GPU نیاز دارید؟
آیا برای سیستم های هوش مصنوعی مولد به GPU نیاز دارید؟
آیا برای سیستم های هوش مصنوعی مولد به GPU نیاز دارید؟