تمام پردازشها و ذخیرهسازیهایی را که میتوانید بخرید یا با حداقل پلتفرم قابل دوام بروید؟ توسعه دهندگان و طراحان هوش مصنوعی به دو کمپ تقسیم می شوند.
اخیراً، مهندسی بیش از حد و تأمین بیش از حد منابع برای پشتیبانی از هوش مصنوعی را پوشش میدهم، هم در فضای ابری و نه در فضای ابری. معماران هوش مصنوعی پردازندههای پرقدرت مانند پردازندههای گرافیکی را در فهرست خرید پلتفرم هوش مصنوعی خود قرار میدهند و در این مورد فکر نمیکنند که آیا ارزش کسبوکار را برمیگردانند یا خیر.
من در مورد استفاده از این منابع برای هوش مصنوعی بیش از چند اختلاف نظر شدید با معماران فناوری اطلاعات دیگر پیدا کردم. به نظر میرسد دو اردوگاه در حال شکلگیری است: اول، اردوگاهی که معتقد است هوش مصنوعی به تمام قدرت پردازش و ذخیرهسازی نیاز دارد که اکنون میتوانیم بپردازیم. آنها سیستم ها را پیش از نیاز تقویت می کنند. لازم نیست پول و ردپای کربن در نظر گرفته شود.
دوم، اردوگاهی که حداقل پلتفرم قابل دوام (MVP) را پیکربندی میکند که میتواند از عملکردهای اصلی سیستمهای هوش مصنوعی پشتیبانی کند. ایده این است که آن را تا حد امکان نازک نگه دارید و از پلتفرمهای کم مصرف مانند محاسبات لبه و موبایل استفاده کنید.
حق با چه کسی است؟
روند کوچک شدن
همانطور که در نیمه دوم سال ۲۰۲۴ پیش می رویم، واضح است که یک تغییر پارادایم در حال تغییر شکل چشم انداز است: هوش مصنوعی اشتهای سخت افزاری خود را کاهش می دهد. در عصری که کارایی دیجیتالی حاکم است، فناوریهای پیشرفته هوش مصنوعی امروزی وابستگیهای منابع بزرگ را از بین میبرند و به مدلهای ناب و چابک تبدیل میشوند.
روایت سنتی توسعه هوش مصنوعی مدتهاست که تقاضای زیادی دارد. با این حال، روایت در حال بازنویسی چشمگیر است که عمدتاً به لطف پیشرفتهای جدید در الگوریتمهای هوش مصنوعی و طراحی سختافزار است.
توسعه معماریهای شبکههای عصبی کارآمدتر، مانند ترانسفورماتورها و الگوریتمهای فشردهسازی بدون تلفات، نقشی اساسی ایفا کرده است. این نوآوری ها داده های مورد نیاز برای آموزش و استنتاج را کوچک کرده اند و در نتیجه تلاش محاسباتی را کاهش داده اند. این روند به طور قابل توجهی مانع ورود را کاهش می دهد و پلتفرم های بسیار کوچکتر و مقرون به صرفه تری را در فضای ابری یا خارج از آن ارائه می دهد.
کارآمدتر و مقرون به صرفه تر
یک نقطه عطف مهم در این تکامل، ظهور پردازندههای تخصصی هوش مصنوعی، مانند واحدهای پردازش تانسور (TPU) و واحدهای پردازش عصبی (NPU) بود. برخلاف همتایان عمومی خود، مانند پردازندههای گرافیکی، این پردازندهها برای نیازهای خاص حجم کاری هوش مصنوعی بهینه شدهاند. آنها محاسبات بیشتری را در هر وات انجام می دهند که به معنای عملکرد بهتر با مصرف انرژی کمتر است.
احتمالاً شاهد پردازندههای کارآمدتر و مقرونبهصرفهتر خواهیم بود زیرا میلیاردها دلار سرمایهای که به فضای پردازنده سرازیر میشود، گزینههای بهتری نسبت به GPUهای بسیار گران قیمت ایجاد میکند. قدرت پردازش جزئی تر و در نتیجه هوش مصنوعی دستگاه محور جایی است که سیستم های هوش مصنوعی در حال حرکت هستند. بر روی مدلهای زبان بزرگ (LLM) که فضای هوش مصنوعی مولد را تعریف میکنند، تمرکز ندارد.
همانطور که بارها اشاره کردهام، کسبوکارها برای پیادهسازی هوش مصنوعی خود، LLM نمیسازند. برای چند سال آینده، آنها مدل های کوچکتر و موارد استفاده تاکتیکی خواهند بود. اینجاست که باید سرمایه گذاری انجام شود.
در زمینه نرمافزار، چارچوبهایی مانند TensorFlow Lite و ONNX به توسعهدهندگان این امکان را میدهند تا مدلهای هوش مصنوعی با کارایی بالا بسازند که بهطور مناسب برای دستگاههای لبهای کاهش یابد. به نظر می رسد تمرکز حول توسعه سیستم های هوش مصنوعی در اینجا در حال تغییر است. کسبوکارها در ساخت سیستمهای هوش مصنوعی سبکتر مزایای بیشتری پیدا میکنند که میتواند ارزش تجاری بیشتری را با سرمایهگذاری کمتر فراهم کند.
باید جادوی بافته شده توسط محاسبات لبه را تشخیص داد. این تصور زمانی آیندهنگر اکنون بسیار یک واقعیت است و پردازش دادهها را به سمت حاشیه شبکه سوق میدهد. با استفاده از دستگاههای لبهای – از گجتهای اینترنت اشیا گرفته تا تلفنهای هوشمند – حجم کاری هوش مصنوعی بیشتر توزیع شده و غیرمتمرکز میشود. این کار ازدحام پهنای باند و مشکلات تأخیر را کاهش میدهد و از گرایش به سمت پردازندههای حداقلی و در عین حال قدرتمند پشتیبانی میکند.
بزرگتر همیشه بهتر نیست
به سرعت به سال ۲۰۲۴ می رسیم و اتکای ما به زیرساخت های داده عظیم به طور پیوسته در حال کاهش است. سیستم های پیچیده هوش مصنوعی به طور یکپارچه روی دستگاه هایی اجرا می شوند که در کف دست شما قرار می گیرند. اینها LLM نیستند و وانمود نمیکنند که LLM هستند، اما میتوانند در صورت نیاز با LLMها تماس بگیرند و میتوانند ۹۵٪ از آنچه را که باید در دستگاه پردازش کنند پردازش کنند. این ایده پشت ویژگیهای هوش اپل است که هنوز اجرا نشده و در نسخه بعدی IOS ارائه میشود. البته، این ممکن است به منظور ارتقاء آیفون به جای افزایش کارایی به سمت هوش مصنوعی باشد.
پیشرفت هوش تعبیه شده در گوشی های هوشمند را در نظر بگیرید. پردازندههایی مانند A16 Bionic اپل و Qualcomm’s Snapdragon 8 Gen 2 دارای قابلیتهای هوش مصنوعی یکپارچه هستند و انقلابی را در محاسبات تلفن همراه ایجاد میکنند. این تراشهها دارای شتابدهندههای یادگیری ماشینی هستند که وظایفی مانند ترجمه همزمان زبان، بازیهای مبتنی بر واقعیت افزوده، و پردازش عکس پیچیده را مدیریت میکنند.
بهعلاوه، اکنون میتوان مدلهای هوش مصنوعی را بدون از دست دادن کارایی «کوچک کرد». کوانتیزاسیون مدل، هرس، و تقطیر دانش به طراحان اجازه میدهد تا مدلها را کاهش داده و آنها را برای استقرار در محیطهای با منابع محدود سادهسازی کنند.
این امر روایت فعلی را عقب میاندازد. بیشتر شرکتهای مشاوره و فناوری بزرگتر در حال مشارکت با ارائهدهندگان پردازنده هستند. این زنگی خواهد بود که به سختی به صدا در می آید. آیا ما نگران هستیم که تصمیمات بیشتر بر اساس تعهدات تجاری باشد تا الزامات تجاری، و ما مدام تلاش می کنیم GPU های گران قیمت و پرقدرت را در ابرها و مراکز داده قرار دهیم؟ ما از شرکتها انتظار داریم که سیستمهای هوش مصنوعی عظیمی را ایجاد و راهاندازی کنند که دو برابر انرژی بیشتری مصرف میکنند و دو برابر هزینهای که در حال حاضر دارند هزینه میکنند. این یک نتیجه ترسناک است.
این بدان معنا نیست که ما قدرت مورد نیاز هوش مصنوعی را محدود خواهیم کرد. ما باید نگران حقوقی سازی منابع خود و استفاده موثرتر از هوش مصنوعی باشیم. ما در مسابقه ای نیستیم که ببینیم چه کسی می تواند بزرگترین و قدرتمندترین سیستم را بسازد. این در مورد افزودن ارزش تجاری با اتخاذ رویکردی مینیمالیستی به این فناوری است.
پست های مرتبط
تمام درخشش هوش مصنوعی در سیستم عامل های مینیمالیستی
تمام درخشش هوش مصنوعی در سیستم عامل های مینیمالیستی
تمام درخشش هوش مصنوعی در سیستم عامل های مینیمالیستی