۲۹ شهریور ۱۴۰۳

Techboy

اخبار و اطلاعات روز تکنولوژی

اینتل، RedHat و دیگران دست به دست هم داده اند تا Open Platform for Enterprise AI را ایجاد کنند

پلتفرم باز برای هوش مصنوعی سازمانی، توسعه سیستم‌های GenAI باز، قوی، چند ارائه‌دهنده و قابل ترکیب را که انعطاف‌پذیر، مقیاس‌پذیر و در سطح سازمانی هستند، هدایت می‌کند.

پلتفرم باز برای هوش مصنوعی سازمانی، توسعه سیستم‌های GenAI باز، قوی، چند ارائه‌دهنده و قابل ترکیب را که انعطاف‌پذیر، مقیاس‌پذیر و در سطح سازمانی هستند، هدایت می‌کند.

در اقدامی که می‌تواند نحوه استفاده هوش مصنوعی مولد توسط شرکت‌ها را بدون ابهام موجود در مورد توانایی آن در مقیاس‌پذیری و قابلیت همکاری در سیستم‌های تجاری مجدداً تعریف کند، LF AI & Data Foundation اعلام کرد راه اندازی پلتفرم باز برای هوش مصنوعی سازمانی (OPEA) با همکاری چندین شرکت فناوری.

هدف پیشروی در توسعه سیستم‌های GenAI باز، قوی، چند ارائه‌دهنده و قابل ترکیب است که انعطاف‌پذیر، مقیاس‌پذیر و در سطح سازمانی هستند. بزرگان فناوری حامی این ابتکار عبارتند از: Intel، VMWare، Red Hat، SAS، Cloudera، MariaDB Foundation، Anyscale و Datastax. LF AI & Data Foundation از اعضای بیشتری دعوت کرده و انتظار دارد که به این گروه بپیوندند.

ابراهیم حداد، مدیر اجرایی LF AI & Data در بیانیه‌ای گفت: «OPEA با ایجاد یک چارچوب دقیق و قابل ترکیب که در خط مقدم پشته‌های فناوری قرار دارد، امکانات جدیدی را در هوش مصنوعی باز خواهد کرد. خطوط لوله مدولار استاندارد شده و پشتیبانی از کامپایلرها و زنجیره های ابزار مختلف. حداد گفت: “این ابتکار گواهی بر ماموریت ما برای هدایت نوآوری منبع باز و همکاری در داخل هوش مصنوعی و جوامع داده تحت یک مدل حکومتی خنثی و باز است.”

چرا باز بودن همیشه مهم است

Saurabh Gugnani، رئیس جهانی دفاع سایبری و امنیت برنامه‌های کاربردی در شرکت هلندی TMF Group گفت: «سیستم‌های هوش مصنوعی باز و چند ارائه‌دهنده مانند OPEA فرصت‌های هیجان‌انگیزی برای ایجاد نوآوری و ارزش در استراتژی هوش مصنوعی سازمان ما ارائه می‌دهند. با استفاده از این ابتکارات، می‌توانیم به اکوسیستم متنوعی از فناوری‌ها، ابزارها و تخصص‌های چندین ارائه‌دهنده هوش مصنوعی دسترسی داشته باشیم. با دسترسی به طیف گسترده ای از فناوری ها و راه حل های هوش مصنوعی، می توانیم در خط مقدم نوآوری باقی بمانیم. ما می‌توانیم آخرین پیشرفت‌های هوش مصنوعی، از جمله الگوریتم‌ها، مدل‌ها و تکنیک‌های جدید را برای ارتقای محصولات و خدمات خود کاوش کرده و به کار ببریم.»

فیصل کاوسا، تحلیلگر ارشد و بنیانگذار شرکت تحقیقاتی فناوری Techarc، گفت: این یک پیشرفت جالب است همانطور که در گذشته شاهد بودیم و همچنین اینکه چگونه پلتفرم های منبع باز به بسیاری از شرکت ها آزادی داده اند تا راه حل های بسیار تخصصی خود را توسعه دهند. در GenAI نیز ما انتظار داریم که چنین مرحله ای آغاز شود. به عنوان مثال، جایی که یک شرکت فناوری حقوقی می تواند راه حل های تخصصی GenAI را برای برادری حقوقی ایجاد کند که اطلاعات عمیق و معتبری را در مورد مسائل حقوقی ارائه می دهد.”

14 LLM که ChatGPT نیستند

چالش هایی که هدف OPEA برای رفع آنها است

در حال حاضر، اکثر سیستم‌های GenAI به پرسش‌ها پاسخ می‌دهند و وظایف را بر اساس داده‌هایی که بر روی آن‌ها آموزش دیده‌اند انجام می‌دهند، و سؤالاتی در مورد توانایی آن‌ها در مقیاس‌سازی و عملکرد ایجاد می‌کنند. فقدان استانداردسازی و مقررات چالش دیگری در مورد استقرار GenAI در شرکت ها است.

LF AI & Data Foundation گفت: «OPEA قصد دارد این مشکل را با همکاری با صنعت برای استانداردسازی مؤلفه‌ها، از جمله چارچوب‌ها، نقشه‌های معماری و راه‌حل‌های مرجعی که عملکرد، قابلیت همکاری، قابلیت اطمینان و آمادگی در سطح سازمانی را به نمایش می‌گذارد، رسیدگی کند».

در زمان‌های اخیر، مدل Retrieval-Augmented Generation (RAG) به دلیل توانایی آن در استخراج ارزش قابل توجهی از مخازن داده‌های موجود، در بین هوش مصنوعی سازمانی مورد توجه قرار گرفته است، زیرا پایگاه دانش آن می‌تواند فراتر از داده‌های آموزش‌دیده باشد.

«RAG مهم‌ترین رویکردی است که به LLM اجازه می‌دهد به خطوط لوله داده مناسب و مرتبط برای بهبود کیفیت هوش مصنوعی و تجربه کاربر دسترسی داشته باشد. نیل شاه، معاون تحقیقات و شریک در Counterpoint Research گفت: این یک گلوگاه بزرگ به دلیل بسته بودن و ادغام خطوط لوله داده اختصاصی به خصوص در فضای سازمانی است. “بنابراین، دیدن LF و سهامداران کلیدی صنعت برای کاهش پیچیدگی های بازیابی داده ها و طراحی رویکرد بازتر، انعطاف پذیرتر و مدولارتر از طریق OPEA، گرد هم می آیند.”

در مورد فیناپ های ابری چه می گذرد؟

شاه اشاره کرد

استانداردسازی و باز بودن چنین چارچوب‌هایی کلید پذیرش GenAI در شرکت‌ها است.

اینتل، شریک حیاتی LF AI & Data در این ابتکار، بر اهمیت OPEA در پرداختن به نقاط درد بحرانی پذیرش و مقیاس‌بندی RAG تاکید کرد. ملیسا اوورز، معاون گروه مهندسی نرم‌افزار و مدیر ارشد اجرایی اینتل در بیانیه‌ای گفت: «اینتل برای ایجاد زیرساخت‌های باز قابل اعتماد و مقیاس‌پذیر که ناهمگونی را امکان‌پذیر می‌کند و بستری برای نوآوری توسعه‌دهندگان فراهم می‌کند، در خط مقدم توسعه منبع باز است.» . همچنین پلتفرمی را برای مراحل بعدی نوآوری توسعه‌دهندگان تعریف می‌کند که از ارزش بالقوه‌ای که هوش مصنوعی مولد برای شرکت‌ها و تمام زندگی ما به ارمغان می‌آورد، استفاده می‌کند.»

گوگنانی از گروه‌های TMF گفت که ابتکار OPEA توسط LF AI & Data و سایر غول‌های صنعت، پنج چالش کلیدی شرکت‌ها را حل می‌کند: افزایش انعطاف‌پذیری و مقیاس‌پذیری، تقویت همکاری، ارائه فناوری‌های پیشرفته و افزایش هزینه‌ها.

>