Hyperscalers از رشد کندتر از حد انتظار از AI تولیدی بر روی سیستم عامل های خود استفاده می کند ، و بسیاری از آنها اکنون شرط بندی را در AI عامل قرار می دهند. من خبرهای بدی دارم
در حالی که ارائه دهندگان اصلی ابر ، مانند AWS ، Google و Microsoft در تلاش هستند تا خود را به عنوان رهبر توسعه و استقرار AI قرار دهند ، واقعیت AI AI بیشتر از یک فناوری معماری است تا یک فناوری که نیاز به عظیم دارد cloud منابع. این سیستم های هوش مصنوعی را قادر می سازد تا به طور مستقل در جهت اهداف کار کنند ، تصمیم بگیرند و منابع خود را مدیریت کنند. ماهیت توزیع شده سیستم های AI عامل به این معنی است که آنها می توانند به طور مؤثر در انواع زیرساخت های مختلف کار کنند ، غالباً بدون نیاز به خوشه های GPU تخصصی که ارائه دهنده های ابر به شدت سرمایه گذاری می کنند. الگوهای مهاجرت نشان می دهد رویکرد هیبریدی ، جایی که کار می کند بین محیط های در رسوب حرکت می کند ، ابرهای خصوصی و ارائه دهندگان مختلف ابری عمومی ، از جمله AWS ، Google Cloud Platform و دیگران. این انعطاف پذیری در گزینه های استقرار این فرض را به چالش می کشد که AI عاملی باعث پذیرش ابر عمومی عمومی از سه سرپرست بزرگ می شود. Aticic AI آن چیزی نیست که اکثر مردم فکر می کنند. وقتی به این سیستم ها نگاه می کنم ، می بینم که اساساً متفاوت از رویکردهای هوش مصنوعی بی رحمانه است که به آن عادت کرده ایم. AI عامل را بیشتر از یک ماشین حساب قدرتمند مانند یک کارمند صالح در نظر بگیرید. جالب توجه است که چگونه این سیستم ها به قدرت پردازش متمرکز احتیاج ندارند. درعوض ، آنها بیشتر شبیه به شبکه های توزیع شده هستند ، که اغلب روی سخت افزار استاندارد کار می کنند و در محیط های مختلف هماهنگ می شوند. آنها در مورد استفاده از منابع هوشمندانه هستند ، در صورت لزوم مدل های تخصصی زبان کوچک را می کشند و با خدمات خارجی در صورت تقاضا ادغام می شوند. دستیابی به موفقیت واقعی مربوط به قدرت خام نیست – این در مورد ایجاد سیستم های هوشمندانه تر و خودمختار است که می توانند به طور مؤثر وظایف خود را انجام دهند. ارائه دهندگان Cloud Big بر AI و یادگیری دستگاه در کنار سیستم های سازنده و سازگاری های Cloud Sogumations Sogumations Cloud Sohions ، تأکید می کنند. رویکرد توزیع شده این سیستم ها با مدلهای بزرگ زبان در درجه اول به عنوان خدمات خارجی به جای اجزای اصلی ادغام می شوند. این الگوی معماری از مدلهای زبان کوچکتر و هدفمند ساخته شده و پردازش توزیع شده از منابع ابر متمرکز را ارائه می دهد. از من بپرسید که چگونه می دانم من اخیراً ده ها نفر برای مشتری های خود ساخته ام. چشم انداز متنوع زیرساخت های مدرن فناوری اطلاعات ، بسترهای ایده آل را برای استقرار سیستم های AI عامل ارائه می دهد. ارائه دهندگان منطقه ای ، ابرهای حاکم ، خدمات مدیریت شده ، امکانات جابجایی و ابرهای خصوصی می توانند گزینه های مقرون به صرفه تر و انعطاف پذیر بیشتری را برای ابرهای عمومی عمومی فراهم کنند. این رویکرد توزیع شده کاملاً با نیاز عامل AI به edge reghines comparting ادغام در مقابل تمرکز
کارآیی این رویکردهای توزیع شده در نحوه کنترل تغییرات و پردازش داده ها مشهود است. سیستم های مدرن می توانند ضمن ادغام مستقیم با زیر سیستم های ذخیره سازی ، از عملیات I/O غیر ضروری ، به عملیات تقریباً مداوم و سطح بلوک دست یابند. این کارآیی اغلب ارائه دهندگان تخصصی کوچکتر را نسبت به HyperScalers جذاب تر می کند.
مسیر رشد آینده
Although developments such as SQL Server 2025’s ادغام قابلیت های تولید AI در محیط های داخلی و محیط های ابری وعده ، الگوی رشد برای افراد مختلف ممکن است با انتظارات آنها مطابقت نداشته باشد. ماهیت توزیع شده از AI عامل ، همراه با نیاز به راه حل های تخصصی مقرون به صرفه ، نشان می دهد که رشد در یک اکوسیستم وسیع تر از ارائه دهندگان به جای تمرکز در میان سکوهای اصلی ابر عمومی گسترش می یابد.
آینده ممکن است شبیه یک معماری پل باشد که در آن اجزای مختلف به عنوان واسطه بین محیط های مختلف عمل می کنند. با این حال ، آنها باید منابع و قابلیت های مختلف را در بین ارائه دهندگان و سیستم عامل های مختلف ارکستر کنند. این رویکرد انعطاف پذیری و کارآیی نسبت به ادغام فروشنده را در اولویت قرار می دهد ، و به طور بالقوه تسلط هر یک از افراد اصلی اصلی در فضای AI عامل را محدود می کند.
AWS ، Google Cloud و Microsoft Azure مطمئناً نقش مهمی را در منظره AI عامل بازی می کنند ، اما موقعیت آنها ممکن است بیشتر به عنوان مؤلفه های معماری گسترده تر و توزیع شده تر باشد نه به عنوان سیستم عامل های اصلی و غالب. سازمانهایی که راه حل های AI عامل را اجرا می کنند ، به احتمال زیاد استراتژی های چند مرحله ای را اتخاذ می کنند که برای نیازهای خاص ، هزینه ها و نیازهای عملکرد بهینه می شوند و نه تثبیت با یک فشارخون منفرد.
هنگامی که شرکت ها استراتژی های هوش مصنوعی خود را ارزیابی می کنند ، بسیاری از آنها در حال اعتماد به نفس خود به ارائه دهندگان ابر عمومی هستند. هزینه های سریع در حال افزایش بار کار AI در زیرساخت های HyperScaler ، مشاغل را از گارد محافظت کرده است ، به خصوص هنگامی که با شوک برچسب پس انداز هزینه افزایش یافته است.
در عین حال ، هزینه زیرساخت های داخلی به میزان قابل توجهی کاهش یافته است. با قیمت مناسب بیشتر سخت افزار متعلق به یا اجاره ای و در دسترس بودن ارائه دهندگان مدرن جمع آوری و خدمات مدیریت شده ، شرکت ها دیگر نیازی به مدیریت عملیات روزانه یک مرکز داده ندارند. این تغییر به مشاغل کنترل هزینه و انعطاف پذیری را بدون قربانی کردن مقیاس پذیری یا عملکرد می دهد.
Hyperscalers اکنون باید در اکوسیستم AI دوباره مورد تجدید نظر قرار بگیرند. از آنجا که بازار زیرساخت های هوش مصنوعی عادی می شود ، شرکت ها به دنبال کارآمدترین ترکیب ابر ، جمع آوری ، MSP ، ابرهای هدفمند و راه حل های داخلی هستند. سازمان ها پایداری ، حاکمیت و کارآیی منابع را بر فرضیات میراث در مورد تسلط ابر عمومی اولویت بندی می کنند. برای hyperscalers ، این به معنای پذیرش این تغییر و تطبیق پیشنهادات آنها در طول این انتقال است – هرچند که برخی از درد اولیه با تنظیم صنعت اجتناب ناپذیر است.
پست های مرتبط
AI عامل AI ارائه دهندگان ابر عمومی را غنی نمی کنند
AI عامل AI ارائه دهندگان ابر عمومی را غنی نمی کنند
AI عامل AI ارائه دهندگان ابر عمومی را غنی نمی کنند