۳۰ شهریور ۱۴۰۳

Techboy

اخبار و اطلاعات روز تکنولوژی

به گفته تحلیلگران، اوراکل استراتژی هوش مصنوعی مولد بهتری دارد

به گفته تحلیلگران، اوراکل رویکرد ساده‌تری را برای کاهش هزینه‌های آموزش مستمر LLM در دانش سازمانی به شرکت‌ها ارائه می‌کند، اگرچه در خدمات هوش مصنوعی مولد از رقبای خود عقب‌تر است.

به گفته تحلیلگران، اوراکل رویکرد ساده‌تری را برای کاهش هزینه‌های آموزش مستمر LLM در دانش سازمانی به شرکت‌ها ارائه می‌کند، اگرچه در خدمات هوش مصنوعی مولد از رقبای خود عقب‌تر است.

به‌روزرسانی‌های اخیر Oracle برای سرویس هوش مصنوعی OCI Generative، که با سرویس‌های مشابه رقبای AWS، Microsoft و Google رقابت می‌کند. تحلیلگران می گویند ، آن را بیشتر با نیازهای آتی شرکت ها هماهنگ می کند. اما اوراکل ممکن است از نظر مدل کلی هوش مصنوعی و ارائه خدمات بسیار از رقبا عقب باشد.

«Oracle می‌تواند به شرکت‌ها رویکرد ساده‌تری برای کاهش هزینه‌ها و منابع یا تعهد زمانی برای پیش‌آموزش، تنظیم دقیق و آموزش مداوم مدل‌های زبان بزرگ (LLM) بر اساس دانش شرکت ارائه دهد. ران وست فال، مدیر تحقیقات گروه Futurum، می گوید که در بسیاری از محیط های سازمانی امروزی، به استثنای برخی از مراکز تماس و برنامه های کاربردی پشتیبانی از تجربه مشتری، مانعی محسوب می شود.

طبق گفته وست فال، تمایز اوراکل در توانایی آن برای هدایت نوآوری هوش مصنوعی مولد در سراسر یک شرکت نهفته است، زیرا از مجموعه وسیعی از قابلیت‌های نمونه کار داخلی در فیوژن و NetSuite، AI و یادگیری ماشینی (ML) برای پلتفرم های داده، مانند < a>MySQL HeatWave Vector Store و AI Vector Search در پایگاه داده Oracle.

وست فال توضیح داد در حالی که به نظر می رسد AWS و Google قادر به مقابله با مجموعه متنوع برنامه های سازمانی Oracle به طور مستقیم در پورتفولیو نیستند، رقبایی مانند IBM از نظر ارائه پایگاه داده ابری در سطح جهانی از Oracle عقب تر هستند.

کاهش هزینه و پیچیدگی کلیدی است

Westfall معتقد است که Oracle متمایزکننده‌های عملکرد قیمت در دسته‌های کلیدی پایگاه داده ابری ارائه می‌کند که می‌تواند پذیرش و مقیاس‌بندی هوش مصنوعی مولد را در چنین محیط‌هایی تسهیل کند.

برادلی شیمین، تحلیلگر ارشد شرکت تحقیقاتی Omdia، با گسترش فرضیه Westfall، گفت که اوراکل در تلاش است تا عناصر بنیادی هوش مصنوعی مولد را در ارائه‌های اولیه خود، به‌ویژه پایگاه‌های داده، ادغام کند تا منابع محاسباتی را بهینه کند و هزینه را کاهش دهد.

>

به گفته Shimmin، در پی نوآوری های سرسام آور در زمینه هوش مصنوعی مولد، ارائه دهندگان خدمات فناوری مانند Oracle می دانند که بهینه سازی استفاده از سخت افزار هنگام استقرار یک مدل هوش مصنوعی با میلیاردها پارامتر در مقیاس با درجه تأخیر قابل تحمل اهمیت دارد.< /p>

“ما در مناطق مجاور داده‌ها و تجزیه و تحلیل‌ها نیز همین نوع زنگ هشدار را تجربه می‌کنیم، به‌ویژه زمانی که پایگاه‌های اطلاعاتی و ابزارهای پردازش داده‌ها شروع به ایفای نقش مهم فزاینده‌ای در حمایت از ارائه‌های مبتنی بر هوش مصنوعی مولد می‌کنند. شیمین گفت: «مورد استفاده از مواردی مانند نسل تقویت شده با بازیابی است.

فراتر از SQL: 8 زبان جدید برای جستجوی داده ها

در حالی که ساختن یک خط لوله اصلی بازیابی با نسل افزوده (RAG) که قادر به نمایه سازی چند فایل PDF برای پشتیبانی از LLM تک کاربره باشد یک چیز است، پیاده سازی RAG برای پتابایت داده های شرکتی به طور مداوم در حال تکامل یک چالش کاملا جدید است. تحلیلگر توضیح داد و برای ارائه بینش از آن داده ها به مخاطبان جهانی در کمتر از یک میلی ثانیه.

«بنابراین، تعجبی ندارد که می‌بینیم بسیاری از فروشندگان پایگاه داده، مانند MongoDB، از قابلیت‌های یادگیری ماشینی درون پایگاه داده و اخیراً ساخت، ذخیره و بازیابی جاسازی برداری< /a> در همان پایگاه داده ای که داده های بردار شده در آن زندگی می کنند. شیمین گفت: همه چیز در مورد به حداقل رساندن پیچیدگی و به حداکثر رساندن هزینه است.

اصل اساسی این است که حرکت داده ها را بین دو پایگاه داده، بین پایگاه داده و رسانه ذخیره سازی، و بین رسانه ذخیره سازی و تراشه های استنتاج مدل کاهش دهیم.

علاوه بر این، شیمین گفت که شرکت‌ها در بسیاری از موارد ممکن است مجبور باشند دو پایگاه داده جداگانه، یکی برای بردارها و دیگری برای داده‌های منبع نگهداری کنند، که گران خواهد بود زیرا باید هزینه مدیریت یکپارچه‌سازی داده‌ها و تأخیر را بپردازند. بین این دو.

“شرکت‌هایی مانند اوراکل، که به دنبال بهینه‌سازی زیرساخت‌های ابری خود از پردازش پایگاه داده تا شبکه‌سازی تراشه‌ها و بازیابی داده‌ها هستند، به نظر می‌رسد در موقعیت خوبی قرار دارند تا با کاهش پیچیدگی و در عین حال افزایش عملکرد، ارزش متفاوتی را برای مشتریان خود فراهم کنند.” تحلیلگر توضیح داد.

از رقبای بسیار عقب تر در مدل ها و خدمات

در حالی که استراتژی Oracle ممکن است برای مشتریان سازمانی جذاب باشد، اندی تورای، تحلیلگر اصلی در Constellation Research، معتقد است که Oracle در مقایسه با رقبای خود در مقایسه با ارائه کلی هوش مصنوعی مولد، «بسیار عقب‌تر» است.

Thurai گفت: «گزینه Oracle برای ارائه سرویس میزبانی مورد نیاز شما با پیشنهادات بسیار قدرتمندتر AWS رقابت می‌کند، که گزینه‌ها و عملکردهای بیشتری در مقایسه با ارائه OCI دارد. Thurai همچنین اشاره کرد که Oracle دارای کمبود LLM است و در مقایسه با رقبای خود، استفاده از آنها محدود است.

با این حال، Thurai معتقد است که انتخاب Oracle برای استفاده از سرویس هوش مصنوعی در Oracle Cloud و در محل از طریق منطقه اختصاصی OCI یک پیشنهاد منحصر به فرد است که ممکن است برای برخی از مشتریان سازمانی بزرگ، به‌ویژه مشتریانی که در صنایع تحت نظارت هستند، جالب باشد.< /p>

پلتفرم جاوا مشتری غنی JavaFX 19 وارد شد

این تحلیلگر گفت: «گزینه ادغام با برنامه‌های Oracle ERP، HCM، SCM، و CX که روی OCI اجرا می‌شوند، می‌تواند جذاب‌تر باشد، در صورت قیمت مناسب، برای پایگاه کاربر آن‌ها،» و اضافه کرد که عدم انجام این کار کمک می‌کند. AWS در بین مشتریان سازمانی موقعیت مطلوب تری دارد.

چه‌های جدید در سرویس هوش مصنوعی OCI Generative

Oracle استراتژی هوش مصنوعی مولد سه لایه خود را ارائه کرده است. /a> در چندین محصول پیشنهادی برای بخش بهتری از یک سال. این شرکت سرویس هوش مصنوعی OCI Generative را در پیش نمایش بتا در ماه سپتامبر منتشر کرد. امروز Oracle مدل‌های جدیدی از Cohere و Meta، عوامل هوش مصنوعی جدید، یک چارچوب کد کم جدید برای مدیریت LLM‌های منبع باز معرفی کرده و این سرویس را به طور کلی در دسترس قرار داده است. p>

مدل‌های جدید شامل مدل‌هایی مانند Meta’s Llama 2 70B، یک مدل تولید متن بهینه‌سازی شده برای موارد استفاده از چت، و آخرین نسخه‌های مدل‌های Cohere، مانند Command، Summarize، و Embed است. Oracle در بیانیه‌ای گفت که این مدل‌ها در یک سرویس مدیریت‌شده قابل استفاده از طریق تماس‌های API در دسترس خواهند بود و افزود که این مدل‌ها همچنین می‌توانند از طریق سرویس به‌روزرسانی شده تنظیم شوند.

یک عامل هوش مصنوعی برای نسل افزوده شده با بازیابی

علاوه بر مدل‌های جدید، اوراکل عوامل هوش مصنوعی جدیدی را به این سرویس اضافه کرده است تا به شرکت‌ها کمک کند از داده‌های سازمانی خود بهترین استفاده را در حین استفاده از مدل‌های زبان بزرگ و ساخت برنامه‌های مبتنی بر هوش مصنوعی داشته باشند.

اولین عامل هوش مصنوعی معرفی شده در بتا، عامل RAG است. Vinod Mamtani، معاون خدمات هوش مصنوعی OCI گفت: این عامل، که مشابه LangChain کار می کند، قدرت LLM و جستجوی سازمانی ساخته شده بر روی OCI OpenSearch را برای ارائه نتایج متنی که با داده های سازمانی بهبود می یابد، ترکیب می کند. .

وقتی یک کاربر سازمانی یک درخواست زبان طبیعی را از طریق یک برنامه تجاری به عامل RAG وارد می‌کند، پرس و جو به OCI OpenSearch ارسال می‌شود، که نوعی جستجوی برداری یا معنایی است. OCI OpenSearch به نوبه خود اطلاعات مربوطه را از مخزن داده یک شرکت می خواند و جمع آوری می کند. سپس نتایج جستجو توسط ReRanker LLM رتبه‌بندی می‌شوند، که رتبه‌بندی را به یک LLM تولید متن منتقل می‌کند، که به درخواست به زبان طبیعی پاسخ می‌دهد.

شما نمی توانید از بدهی فنی فرار کنید

تولید متن LLM بررسی هایی دارد تا اطمینان حاصل شود که پاسخ برگشتی زمینی است یا به عبارت دیگر برای مصرف کاربر مناسب است. این شرکت گفت که اگر کوئری برگشتی نتواند الزامات زمینی را برآورده کند، حلقه دوباره اجرا می شود، و اضافه کرد که این امر نیاز به متخصصانی مانند توسعه دهندگان و دانشمندان داده را برطرف می کند.

ممتانی توضیح داد: «اطلاعات بازیابی شده جاری است – حتی با ذخیره‌های داده پویا – و نتایج با ارجاع به داده‌های منبع اصلی ارائه می‌شوند.

rag infra oracle

به‌روزرسانی‌های آتی، که انتظار می‌رود در نیمه اول سال ۲۰۲۴ منتشر شوند، برای عامل RAG، پشتیبانی از طیف وسیع‌تری از ابزارهای جستجو و جمع‌آوری داده را اضافه می‌کنند و همچنین دسترسی به Oracle Database 23c را با جستجوی بردار هوش مصنوعی و MySQL Heatwave با Vector Store.

قابلیت‌های دیگر، که در همان بازه زمانی منتشر می‌شوند، شامل توانایی ایجاد یک عامل هوش مصنوعی از داخل کنسول OCI است. ممتنی گفت که یک کاربر قادر خواهد بود با مشخص کردن کار مورد نیاز خود و پیوست کردن آن به منبع داده، یک عامل ایجاد کند و افزود که این عوامل به طور پیش فرض از Llama 2 یا Cohere LLM استفاده می کنند.

عوامل AI بر اساس چارچوب ReAct

این عوامل هوش مصنوعی، طبق گفته Oracle، با کمک مقاله ReAct ایجاد شده‌اند که توسط محققان دانشگاه پرینستون و گوگل. عوامل از چارچوب ReAct برای استدلال، عمل و برنامه ریزی بر اساس یک سری افکار، اعمال و مشاهدات استفاده می کنند.

ممتانی گفت که این قابلیت‌ها به عوامل اجازه می‌دهد تا فراتر از وظایف بازیابی اطلاعات رفته و از طرف کاربر با API تماس بگیرند و سایر وظایف را خودکار کنند. اوراکل همچنین قصد دارد عوامل چند نوبتی را به این سرویس اضافه کند که از آنها خواسته شود تا حافظه تعاملات گذشته را حفظ کنند تا بافت مدل و پاسخ‌های آن را غنی‌تر کنند.

به گفته شرکت، اکثر این عوامل و اقدامات آنها را می توان به مجموعه برنامه های SaaS آن، از جمله Oracle Fusion Cloud Applications Suite، Oracle NetSuite، و برنامه های صنعتی مانند Oracle Cerner اضافه کرد.

علاوه بر این، در تلاشی برای کمک به شرکت‌ها برای استفاده و مدیریت LLM با کتابخانه‌های منبع باز، اوراکل در حال افزودن قابلیت جدیدی به ارائه‌شده OCI Data Science است که ویژگی AI Quick Actions نام دارد. این ویژگی، که ماه آینده در نسخه بتا خواهد بود، دسترسی بدون کد به انواع LLM های منبع باز را امکان پذیر می کند.