۲۹ شهریور ۱۴۰۳

Techboy

اخبار و اطلاعات روز تکنولوژی

به‌روزرسانی‌های Snowflake تقاضای مولد هوش مصنوعی از سوی شرکت‌ها را هدف قرار می‌دهند

در حالی که Snowpark Container Services و همکاری انویدیا به شرکت‌ها در مدیریت مدل‌های زبان بزرگ کمک می‌کنند، به‌روزرسانی‌های Streamlit و Git کاملاً با هدف آسان کردن وظایف توسعه‌دهندگان هستند.

در حالی که Snowpark Container Services و همکاری انویدیا به شرکت‌ها در مدیریت مدل‌های زبان بزرگ کمک می‌کنند، به‌روزرسانی‌های Streamlit و Git کاملاً با هدف آسان کردن وظایف توسعه‌دهندگان هستند.

شرکت انبار داده مبتنی بر ابر Snowflake توجه خود را به سمت مدل‌های زبان بزرگ و هوش مصنوعی مولد معطوف کرده است. این شرکت که در سال ۲۰۱۴ با تمرکز بر ایجاد اختلال در بازار سنتی انبار داده و تجزیه و تحلیل کلان داده راه اندازی شد، به افزودن ویژگی های جدید مانند برنامه بومی خود ادامه داده است. Framework، برای هدف قرار دادن مجموعه‌های مختلف از کاربران سازمانی.

در نشست سالانه Snowflake Summit سه‌شنبه، این شرکت خدمات کانتینر Snowpark، مشارکت با Nvidia و به‌روزرسانی‌های کتابخانه Streamlit Python خود را اعلام کرد که برای کمک به کاربران سازمانی در مدیریت مدل‌های زبان بزرگ (LLM) و ساختن آن طراحی شده است. برنامه هایی که از آنها در بستر Data Cloud خود استفاده می کنند.

کریستین کلاینرمن، معاون ارشد محصول در Snowflake، گفت:

Snowpark خدمات کانتینری که در حال حاضر در پیش نمایش خصوصی است، به شرکت ها اجازه می دهد تا حجم های کاری متنوع تری از جمله LLM ها را به پلتفرم Data Cloud بیاورند. همچنین به توسعه دهندگان اجازه می دهد تا برنامه های کاربردی را در هر زبان برنامه نویسی بسازند.

سرویس‌های کانتینری جدید به‌عنوان پایه‌ای عمل می‌کنند، داده‌های سازمانی ذخیره‌شده در Snowflake را با LLM، رابط‌های آموزشی مدل، چارچوب‌های حاکمیت مدل، برنامه‌های افزایش داده شخص ثالث، مدل‌های آموزش ماشینی، را به هم متصل می‌کند. APIها و چارچوب برنامه بومی Snowflake.

هیون پارک، تحلیلگر ارشد در Amalgam Insights گفت: «خدمات کانتینری Snowpark به شرکت‌ها کمک می‌کند تا حجم کاری مانند مدل‌های یادگیری ماشین یا LLM را بین ابر عمومی و خصوصی بر اساس ترجیحات مشتری جابه‌جا کنند.

در رکود رایانش ابری چه باید کرد؟

فرآیند جابجایی ایمن بارهای کاری اهمیت فزاینده‌ای پیدا می‌کند زیرا شرکت‌ها متوجه می‌شوند که ورود و استفاده گسترده داده‌های مرتبط با آموزش LLM و سایر مدل‌های یادگیری ماشین خطرات بالقوه انطباق هستند و باعث می‌شوند این مدل‌ها را به سیستم‌های کنترل‌شده و ایزوله منتقل کنند، Park اضافه.

به گفته داگ هنشن، تحلیلگر اصلی در Constellation Research،

خدمات کانتینر همچنین به کاهش بار موتور انبار داده Snowflake کمک می کند زیرا در یک محیط انتزاعی Kubernetes کار می کند.

Henschen گفت: «به عبارت ساده، این روشی است برای اجرای مجموعه‌ای از سرویس‌های کاربردی مستقیماً بر روی داده‌های Snowflake، اما بدون بارگذاری انبارهای داده و برنامه‌های تحلیلی حساس به عملکرد که روی آنها اجرا می‌شوند.

مشارکت انویدیا فناوری آموزش LLM را فراهم می کند

به منظور کمک به شرکت‌ها برای آموزش LLM با داده‌هایی که در Snowflake ذخیره کرده‌اند، این شرکت با Nvidia شریک شده تا به پلتفرم هوش مصنوعی، که ترکیبی از قابلیت های سخت افزاری و نرم افزاری است. Snowflake Nvidia NeMo اجرا خواهد شد، این شرکت گفت که بخشی از پلتفرم هوش مصنوعی از داخل Data Cloud است و افزود که NeMo می تواند برای توسعه برنامه های کاربردی مبتنی بر هوش مصنوعی مانند چت بات ها و موتورهای جستجوی هوشمند استفاده شود.

Sanjeev Mohan، تحلیلگر اصلی SanjMo، گفت: علاوه بر این، Snowpark Container Services به شرکت‌ها اجازه می‌دهد تا به ارائه‌دهندگان مدل‌های هوش مصنوعی مولد شخص ثالث مانند Reka AI دسترسی پیدا کنند.

موهان گفت:

سایر LLMها، مانند آنهایی که از OpenAI، Cohere و Anthropic هستند، نیز از طریق API قابل دسترسی هستند.

به گفته تحلیلگران

به‌روزرسانی‌های Snowflake راهبردی را نشان می‌دهد که هدف آن مقابله با Databricks است.

اندی گفت: «Databricks در حال حاضر قابلیت‌های بسیار بیشتری را برای ساخت مدل‌های بومی هوش مصنوعی، ML [یادگیری ماشینی] نسبت به Snowflake ارائه می‌کند، به خصوص با اکتساب MosiacML که توانایی آموزش مدل‌ها را ارزان‌تر و سریع‌تر می‌دهد.» Thurai، تحلیلگر اصلی در Constellation Research.

Zilliz Cloud عملکرد پایگاه داده برداری را افزایش می دهد

به گفته تونی بائر، تحلیلگر اصلی dbInsights، تفاوت در استراتژی بین این دو شرکت، به نظر می رسد رویکرد آنها در گسترش پایگاه های کاربری خود باشد.

بائر گفت: “Snowflake به دنبال گسترش از پایگاه داده و توسعه دهندگان BI خود به دانشمندان داده و مهندسان داده است، در حالی که Databricks از طرف مقابل نزدیک می شود.”

هوش مصنوعی سند بینش‌هایی را از داده‌های بدون ساختار ایجاد می‌کند

سرویس‌های کانتینری جدید به شرکت‌ها اجازه می‌دهد به ابزارهای افزایش داده و یادگیری ماشین، مانند نوت‌بوک‌های Hex برای تجزیه و تحلیل و علم داده، ابزارهای هوش مصنوعی Alteryx، Dataiku و SAS، به همراه ابزار مدیریت گردش کار داده از Astronomer دسترسی داشته باشند. این شرکت گفت که بر اساس Apache Airflow است. نرم افزارهای شخص ثالث از Amplitude، CARTO، H2O.ai، Kumo AI، Pinecone، RelationalAI، و Weights & Biases نیز در دسترس هستند.

 همچنین Snowflake گفت که در حال انتشار یک LLM خودساخته با نام Document AI است که برای ایجاد بینش از اسناد طراحی شده است.

این شرکت گفت که Document AI که بر اساس فناوری خرید Applica توسط Snowflake در سال گذشته ساخته شده است، هدف آن کمک به شرکت‌ها در استفاده بیشتر از داده‌های بدون ساختار است و افزود که LLM جدید می‌تواند به افزایش بهره‌وری سازمانی کمک کند.

بائر DbInsights معتقد است که افزودن LLM جدید گامی برای همگام شدن با پیشنهادات رقیب از اصطبل‌های AWS، Oracle و Microsoft است.

ابزارهای MLOps و سایر به‌روزرسانی‌ها

به منظور کمک به شرکت‌ها با عملیات مدل یادگیری ماشینی (MLOps)، Snowflake Snowpark Model Registry را معرفی کرده است.

 به گفته این شرکت، رجیستری یک مخزن یکپارچه برای مدل‌های یادگیری ماشینی یک سازمان است. این طراحی شده است تا کاربران را قادر سازد تا انتشار و کشف مدل‌ها را متمرکز کنند، در نتیجه همکاری بین دانشمندان داده و مهندسان یادگیری ماشین را ساده‌تر می‌کند.

DataStax روی ThirdAI ضربه می زند تا هوش مصنوعی مولد را به پایگاه داده های ارائه شده خود بیاورد

اگرچه رقبایی مانند AWS، Databricks، Google Cloud و Microsoft از قبل ابزارهای MLOps را ارائه می‌دهند، تحلیلگران مدل جدید رجیستری را به‌روزرسانی مهمی می‌دانند.

پارک گفت: «رجیستری‌ها و مخازن مدل یکی از میدان‌های نبرد بزرگ جدید در داده‌ها هستند، زیرا شرکت‌ها انتخاب می‌کنند مدل‌های اختصاصی یا تجاری ارزشمند خود را کجا قرار دهند و اطمینان حاصل کنند که ذخیره‌سازی، ابرداده و نسخه‌سازی به درستی کنترل می‌شوند.

>

علاوه بر این، Snowflake همچنین در حال ادغام Streamlit در پلتفرم Data Cloud خود است و آن را برای تنظیم دقیق نهایی قبل از انتشار عمومی در پیش نمایش عمومی قرار می دهد.

علاوه بر این، این شرکت گفت که در حال گسترش استفاده از جداول Apache Iceberg به فضای ذخیره سازی خود یک شرکت است.

به‌روزرسانی‌های دیگر که عمدتاً توسعه‌دهندگان را هدف قرار می‌دهند، شامل ادغام Git و یک رابط خط فرمان جدید (CLI) در داخل پلتفرم Data Cloud است که هر دو در پیش‌نمایش خصوصی هستند.

در حالی که انتظار می‌رود ادغام Git بومی از جریان‌های کاری CI/CD پشتیبانی کند، CLI جدید به توسعه و آزمایش برنامه در Snowflake کمک می‌کند.

به منظور کمک به توسعه‌دهندگان در دریافت داده‌های جریان و حذف مرزهای بین خطوط لوله دسته‌ای و جریان، Snowflake همچنین ویژگی‌های جدیدی را در قالب جداول پویا و پخش جریانی Snowpipe رونمایی کرد.

در حالی که انتظار می رود Snowpipe Streaming به زودی در دسترس عموم قرار گیرد، جداول پویا در حال حاضر در پیش نمایش عمومی است.

Snowflake همچنین گفت که Native Application Framework اکنون در پیش نمایش عمومی در AWS است.