۲۹ شهریور ۱۴۰۳

Techboy

اخبار و اطلاعات روز تکنولوژی

شش نکته کلیدی از Google Cloud Next ’24

هوش مصنوعی مولد موضوع غالب در Google Cloud Next ’24 بود، زیرا گوگل تراشه‌های جدید، به‌روزرسانی‌های نرم‌افزاری برای حجم کاری هوش مصنوعی، به‌روزرسانی‌های LLM و دستیارهای مبتنی بر هوش مصنوعی را برای پلتفرم یادگیری ماشینی Vertex AI خود عرضه کرد.

هوش مصنوعی مولد موضوع غالب در Google Cloud Next ’۲۴ بود، زیرا گوگل تراشه‌های جدید، به‌روزرسانی‌های نرم‌افزاری برای حجم کاری هوش مصنوعی، به‌روزرسانی‌های LLM و دستیارهای مبتنی بر هوش مصنوعی را برای پلتفرم یادگیری ماشینی Vertex AI خود عرضه کرد.

برای پیش‌بینی اینکه موضوع اصلی کنفرانس امسال Google Cloud Next، هوش مصنوعی مولد خواهد بود، به یک میلیارد پارامتر نیازی نداشت مدل زبان بزرگ (LLM) —در واقع، احتمالاً موضوع اصلی سال برای اکثر توسعه دهندگان نرم افزار سازمانی خواهد بود.

در این رویداد، گوگل مجموعه‌ای از به‌روزرسانی‌ها را برای پلتفرم ابری خود معرفی کرد تا کار با LLM‌ها را آسان‌تر کند و دستیارهای مبتنی بر هوش مصنوعی را به بسیاری از پیشنهادات خود اضافه کرد. در اینجا شش نکته کلیدی از کنفرانس آورده شده است:

۱ – بارهای کاری هوش مصنوعی به زیرساخت های تخصصی نیاز دارند پشتیبانی

با تشخیص اینکه حجم کاری هوش مصنوعی با سایر بارهای کاری متفاوت است، Google طیف وسیعی از به روز رسانی ها را در زیرساخت ابری خود به نمایش گذاشت تا از آنها پشتیبانی کند و به شرکت ها کمک کند تا مخارج ابری را بهینه کنند. اول: گوگل آخرین نسخه از ماژول شتاب دهنده اختصاصی خود را برای بارهای کاری هوش مصنوعی، واحد پردازش Tensor (TPU) v5p، به طور کلی در فضای ابری خود ارائه کرده است. پادهای TPU اکنون از Google Kubernetes Engine (GKE) و خدمات چند میزبان در GKE پشتیبانی می‌کنند.

علاوه بر این، تحت یک همکاری گسترده با انویدیا، Google همچنین ماشین مجازی A3 Mega (VM) را با پردازنده‌های گرافیکی Nvidia H100 به ابر خود معرفی می‌کند.

به‌روزرسانی‌های دیگر شامل مجموعه‌ای از بهینه‌سازی‌ها، به ویژه حافظه پنهان، در محصولات ذخیره‌سازی آن است. این پیشرفت‌ها همچنین با یک سرویس مدیریت منابع و زمان‌بندی شغلی جدید برای بارهای کاری هوش مصنوعی به نام Dynamic Workload Scheduler ارائه می‌شوند.

۲ – هوش مصنوعی مولد می تواند به برنامه نویسی زوج کمک کند…

با این وجود، برنامه‌نویسی جفت با ابزار کدنویسی هوش مصنوعی Google دیگر دوئت نخواهد بود. Google نام هوش مصنوعی Duet که قبلاً برای توسعه دهندگان منتشر شده بود را تغییر داد و نام آن را Gemini Code Assist تغییر داد تا با برند جدیدترین LLM خود مطابقت داشته باشد.

WSO2 PaaS با کد پایین و بومی ابری را برای توسعه API راه‌اندازی می‌کند

Gemini Code Assist ویژگی‌های جدیدی با نام جدید خود دارد. بر اساس مدل Gemini 1.5 Pro، تکمیل کد، تولید کد و خدمات چت مبتنی بر هوش مصنوعی را ارائه می دهد. در Google Cloud Console کار می‌کند، و با ویرایشگرهای کد محبوب مانند Visual Studio Code و JetBrains ادغام می‌شود، در حالی که از پایه کد یک شرکت در سراسر محل پشتیبانی می‌کند. GitHub، GitLab، Bitbucket یا چندین مخزن.

پیشرفت‌ها و ویژگی‌های جدید اضافه‌شده به Gemini Code Assist شامل آگاهی کامل از پایگاه کد، سفارشی‌سازی کد و پیشرفت‌هایی در اکوسیستم شریک ابزار است که کارایی آن را افزایش می‌دهد.

به منظور افزایش کارایی تولید کد، این شرکت در حال گسترش اکوسیستم شریک Gemini Code Assist با افزودن شرکای مانند Datadog، Datastax، Elastic، HashiCorp، < a>Neo4j، Pinecone، Redis، Singlestore، Synk و Stack Overflow. p>

۳ – … و با مدیریت برنامه‌ها و عملیات ابری

برای مدیریت خدمات ابری، ارائه‌دهنده خدمات ابری Gemini Cloud Assist را معرفی کرده است، یک دستیار مجهز به هوش مصنوعی که برای کمک به تیم‌های سازمانی در مدیریت برنامه‌ها و شبکه‌ها در Google Cloud طراحی شده است.

Gemini Cloud Assist از طریق رابط چت در کنسول Google Cloud قابل دسترسی است. این توسط مدل زبان بزرگ اختصاصی Google، Gemini، طراحی شده است.

شرکت‌ها همچنین می‌توانند از Gemini Cloud Assist برای اولویت‌بندی صرفه‌جویی در هزینه، عملکرد یا در دسترس بودن بالا استفاده کنند. بر اساس ورودی زبان طبیعی ارائه شده توسط هر تیم سازمانی، Gemini Cloud Assist مناطقی را برای بهبود شناسایی می‌کند و نحوه دستیابی به آن اهداف را پیشنهاد می‌کند. همچنین می‌تواند مستقیماً در رابط‌هایی جاسازی شود که تیم‌های سازمانی محصولات مختلف ابری و بارهای کاری ابری را مدیریت می‌کنند.

به‌جز مدیریت چرخه‌های عمر برنامه‌ها، Gemini Cloud Assist می‌تواند توسط شرکت‌ها برای ایجاد کمک مبتنی بر هوش مصنوعی در انواع وظایف شبکه، از جمله طراحی، عملیات، و بهینه‌سازی استفاده شود.

پیشرفت‌های هوش مصنوعی به هزینه‌های زیرساخت ابری دامن می‌زند

دستیار هوش مصنوعی مبتنی بر Gemini نیز به مجموعه پیشنهادات عملیات امنیتی Google Cloud اضافه شده است. می‌تواند مدیریت هویت و دسترسی (IAM) توصیه‌ها و بینش‌های کلیدی، از جمله بینش‌هایی برای محاسبات محرمانه، ارائه کند که به کاهش مواجهه با ریسک کمک می‌کند.

۴ – همه به یک عامل سازنده نیاز دارند

به منظور رقابت با پیشنهادات مشابه مایکروسافت و AWS، Google Cloud ابزار جدیدی با هوش مصنوعی برای ساخت ربات‌های گفتگو به نام Vertex AI Agent Builder منتشر کرده است. این یک ابزار بدون کد است که جستجوی Vertex AI و مجموعه محصولات مکالمه شرکت را ترکیب می کند. این ابزار طیف وسیعی از ابزارها را برای ساخت نمایندگی های مجازی ارائه می دهد که زیربنای آن Gemini LLM های Google است.

نقطه فروش بزرگ آن، سیستم خارج از جعبه RAG آن، Vertex AI Search است که می‌تواند عوامل را سریع‌تر از تکنیک‌های RAG سنتی زمین‌گیر کند. APIهای RAG داخلی آن می‌تواند به توسعه‌دهندگان کمک کند تا به سرعت ورودی‌های اتصال زمین را بررسی کنند.

به‌علاوه، توسعه‌دهندگان این گزینه را دارند که خروجی‌های مدل را در جستجوی Google زمین‌بندی کنند تا پاسخ‌ها را بهبود ببخشند.

سایر تغییرات Vertex AI شامل به‌روزرسانی‌های LLM‌های موجود و قابلیت‌های MLops است.

به‌روزرسانی‌های LLM شامل یک پیش‌نمایش عمومی از مدل Gemini 1.5 Pro است که از زمینه ۱ میلیون توکن پشتیبانی می‌کند. علاوه بر این، Gemini 1.5 Pro در Vertex AI همچنین می‌تواند جریان‌های صوتی، از جمله گفتار و صدای ویدیوها را پردازش کند.

ارائه‌دهنده خدمات ابری همچنین خانواده Imagen 2 LLM خود را با ویژگی‌های جدید، از جمله قابلیت‌های ویرایش عکس و امکان ایجاد ویدیوهای ۴ ثانیه‌ای یا “تصاویر زنده” از پیام‌های متنی به‌روزرسانی کرده است. دیگر به‌روزرسانی‌های LLM به Vertex AI شامل اضافه شدن CodeGemma، یک مدل سبک وزن جدید از خانواده اختصاصی Gemma است.

به‌روزرسانی‌های ابزارهای Mlops شامل افزودن Vertex AI Prompt Management است که به تیم‌های سازمانی کمک می‌کند تا درخواست‌ها را آزمایش کنند، درخواست‌ها را انتقال دهند، و درخواست‌ها را همراه با پارامترها دنبال کنند. سایر قابلیت‌های توسعه‌یافته شامل ابزارهایی مانند ارزیابی سریع برای بررسی عملکرد مدل در حین تکرار در طراحی سریع است.

4 گواهینامه ابری که به شما کمک می کند متمایز شوید

۵ – مدیران پایگاه داده نیز به کمک هوش مصنوعی نیاز دارند

Google Cloud قابلیت‌های مبتنی بر مدل زبان بزرگ اختصاصی خود، Gemini، را به ارائه‌های پایگاه داده خود اضافه کرده است که شامل Bigtable، Spanner، Memorystore برای Redis، Firestore، CloudSQL برای MySQL، و AlloyDB برای PostgreSQL است.

قابلیت‌های مبتنی بر Gemini عبارتند از نسل SQL و  AI کمک در مدیریت و انتقال پایگاه‌های داده.

به منظور کمک به مدیریت بهتر پایگاه‌های داده، ارائه‌دهنده خدمات ابری ویژگی جدیدی به نام مرکز پایگاه داده را اضافه کرده است که به اپراتورها امکان می‌دهد کل ناوگان پایگاه‌های داده را از یک صفحه واحد مدیریت کنند.

Google همچنین Gemini را به سرویس مهاجرت پایگاه داده خود که قبلاً از Duet AI پشتیبانی می‌کرد، گسترش داده است.

شرکت گفت که ویژگی‌های بهبود یافته Gemini این سرویس را بهتر می‌کند و افزود که Gemini می‌تواند به تبدیل کدهای مقیم پایگاه داده، مانند رویه‌های ذخیره‌شده، توابع به گویش PostgreSQL کمک کند.

علاوه بر این، انتقال پایگاه داده مبتنی بر Gemini نیز بر توضیح ترجمه کد با مقایسه کنار هم گویش‌ها، همراه با توضیحات دقیق کد و توصیه‌ها تمرکز دارد.

به عنوان بخشی از این به‌روزرسانی‌ها، ارائه‌دهنده خدمات ابری ویژگی‌های جدید مبتنی بر هوش مصنوعی را به AlloyDB AI اضافه کرده است. این ویژگی‌های جدید شامل اجازه دادن به برنامه‌های مبتنی بر هوش مصنوعی برای جستجوی داده‌ها با زبان طبیعی و نوع جدیدی از نمای پایگاه داده است.

۶ – Google از AI مولد منبع باز پشتیبانی می کند

Google در Google Cloud Next 24 از سه پروژه منبع باز برای ساخت و اجرای مدل‌های هوش مصنوعی مولد رونمایی کرد.

پروژه‌های منبع باز که به تازگی رونمایی شده‌اند، MaxDiffusion، JetStream، و Optimum-TPU.

این شرکت همچنین LLMهای جدیدی را به پروژه LLMهای ساخت JAX خود MaxText معرفی کرد. مدل‌های جدید LLM در MaxText شامل Gemma، GPT-3، Llama 2، و Mistral هستند که در هر دو TPU Google Cloud و GPUهای Nvidia پشتیبانی می‌شوند.