از آنجایی که فروشندگان بزرگ توانایی های پروژه های هوش مصنوعی مولد خود را اغراق می کنند، شاید زمان آن رسیده است که از منبع باز استفاده کنید تا آنها را صادق نگه دارید.
این ماه سختی برای هوش مصنوعی مولد (genAI) بود. ابتدا، AWS آمازون Q را راهاندازی کرد، پاسخی که به Copilot مایکروسافت داده بود، فقط برای اینکه کارمندان خود را داشته باشد در مورد “توهمات شدید” و نشت اطلاعات هشدار دهید. سپس Google Gemini را راهاندازی کرد، پاسخ آن به ChatGPT، با هیاهوی بسیار و یک نسخه نمایشی باورنکردنی، تنها پس از تایید این واقعیت دمو جعلی بود. اوه، و متا ابزارهای منبع باز جدیدی را برای ایمنی هوش مصنوعی منتشر کرد (هور!) اما به نوعی نتوانست ناامن ترین جنبه ابزارهای genAI را تشخیص دهد: مستعد بودن آنها در برابر حملات سریع تزریق .
میتوانم ادامه دهم، اما چه فایدهای دارد؟ این خرابیها و سایر خرابیها نشان نمیدهند که genAI خالی است یا یک آتشسوزی در زبالهدانهای تبلیغاتی است. آنها نشانه هایی هستند که نشان می دهد ما به عنوان یک صنعت به وعده هوش مصنوعی اجازه داده ایم واقعیت فعلی را تحت الشعاع قرار دهد. این واقعیت بسیار خوب است. ما نیازی به گران فروشی آن نداریم.
آنچه ممکن است به آن نیاز داشته باشیم، با وجود تناسب ناقص آن برای genAI، متن باز است.
جلوتر رفتن از خود
اخیراً نوشتم که انتشار Amazon Q توسط AWS نقطه عطفی برای این شرکت است: فرصتی برای کاهش فاصله یا در برخی موارد پیشی گرفتن از رقبا. ماموریت انجام شد.
تقریبا. یک مشکل بزرگ، در میان چندین مشکل دیگر که اقتصاددان ارشد داک بیل کوری کوئین برجسته میکند ، این است که اگرچه AWS احساس می کرد که باید Q را به طور قابل توجهی امن تر از رقبایی مانند ChatGPT قرار دهد، اما اینطور نیست. نمیدانم که بدتر است، اما به AWS کمک نمیکند که خود را در جایگاه بهتری قرار دهد و در واقع بهتر نباشد. کوین استدلال می کند که این امر ناشی از AWS است که فضای برنامه را دنبال می کند، منطقه ای که به طور سنتی در آن قدرت نشان نداده است:
به محض اینکه AWS تلاش می کند تا پشته را به سمت فضای برنامه حرکت دهد، چرخ ها به روش های عمده ای از بین می روند. این به یک شایستگی نیاز دارد که AWS آن را ندارد و از زمان شروعش ایجاد نکرده است.
شاید. اما حتی اگر این را درست بپذیریم، مسئله بزرگتر این است که فشار زیادی برای ارائه به هیاهوی هوش مصنوعی وجود دارد که شرکت های بزرگی مانند AWS ممکن است مجبور شوند برای رسیدن به آن (یا ظاهر) میانبرهایی را انتخاب کنند. برای رسیدن به آنجا).
به نظر میرسد در مورد Google هم همینطور باشد. این شرکت سالها را صرف انجام کارهای چشمگیر با هوش مصنوعی کرده است، اما هنوز هم احساس میکند که مجبور است میانبرهایی را با یک نسخه نمایشی انتخاب کند. همانطور که پارمی اولسون میگوید، «ویدئوی Google به نظر میرسد که میتوانید چیزهای مختلفی را به Gemini Ultra در زمان واقعی نشان دهید و با آن صحبت کنید. شما نمی توانید.” گریدی بوچ میگوید، “این نسخه نمایشی فوقالعاده قابل ویرایش بود.
چرا این شرکتها وانمود میکنند که تواناییهایشان بیشتر از چیزی است که واقعاً هستند؟ تشخیص دلایل آن کار سختی نیست. فشار برای جایگاه به عنوان آینده هوش مصنوعی بسیار زیاد است. و فقط AWS و Google نیستند. به فراخوان های درآمد اخیر برای شرکت های دولتی گوش دهید. به نظر می رسد که هر مدیری نمی تواند به اندازه کافی “AI” بگوید. هجوم طلای هوش مصنوعی ادامه دارد و همه میخواهند ادعای خود را مطرح کنند.
GenAI هنوز در قابلیت های خود نوپا است. با وجود تمام گزارشهای بینفس از این یا آن مدل جدید و همه چیزهایی که ارائه میدهد، واقعیت همیشه بهطور چشمگیری از هیاهوها عقب میماند. بهجای رفع فوریترین مشکل GenAI – تزریق سریع – با ترغیب شرکتهای بیشتر به استفاده از نرمافزارهای اساساً غیرایمن، مشکل را تشدید میکنیم.
ممکن است برای کمک به منبع باز نیاز داشته باشیم.
منبع باز برای نجات
منظورم این نیست که اگر همه چیز را فقط منبع باز کنیم، هوش مصنوعی بطور جادویی عالی خواهد بود. این اتفاق برای ابر یا هیچ حوزه دیگری از فناوری اطلاعات سازمانی رخ نداده است، پس چرا genAI متفاوت است؟ ناگفته نماند که به همان اندازه که ما دوست داریم اصطلاح منبع باز را در زمینه هوش مصنوعی مطرح کنیم، حتی منظورمان مشخص نیست، همانطور که من نوشتم.
احتمالاً این صنعت، همانطور که متا با ابتکار Llama بنفش خود انجام داده است، روی چالشهای نسبتاً بیاهمیت تمرکز کند. سایمون ویلیسون اظهار تاسف میکند، “عدم اذعان به تهدید حملات تزریق فوری در این ابتکار جدید Purple Llama از Meta AI برای من گیج کننده است.”
علاوه بر این، سیستم هایی مانند Gemini چند وجهی و پیچیده هستند. “باید تعداد زیادی از ترفندهای مهندسی و قوانین سخت کدگذاری شده وجود داشته باشد، و ما هرگز نمی دانیم چه تعداد مدل در سیستم ها قبل از منبع باز وجود دارد.” یادداشتهای پروفسور شین اریک وانگ. این پیچیدگی به معنای «منبع باز» یک مدل زبان بزرگ یا سیستم genAI است که در حال حاضر به همان اندازه که پاسخ میدهد، سؤال ایجاد میکند.
ابتکار منبع باز (OSI) با این مشکلات دست و پنجه نرم می کند. مدیر اجرایی OSI استفانو مافولی تأکید میکند: «برای یک توسعهدهنده چه معنایی دارد که به یک مدل دسترسی داشته باشد، و چه حقوقی باید اعمال شود، و به چه چیزی نیاز دارید تا آیا امکان تغییر [و توزیع مجدد] آن مدل را دارید؟»
همه چیز نامشخص است.
آنچه واضح است این است که تلاشها برای مرتبط کردن منبع باز برای genAI بسیار مهم است. ما به شفافیت بیشتر و کدورت جعبه سیاه کمتری نیاز داریم. مایکروسافت، AWS، گوگل و دیگران همچنان احساس می کنند که مجبورند خود را به عنوان رهبران قرار دهند، اما منبع باز واقعیت را از داستان جدا می کند. کد دروغ نمی گوید.
بیایید آن اعلانهای Q، Copilot و Gemini را به عقب برگردانیم، اما تصور کنید به جای پیشنمایشها و دموهای خصوصی، کد وجود داشته باشد. به این فکر کنید که چگونه می تواند پویایی را تغییر دهد. به فروتنی که آن را مجبور می کند فکر کنید. با توجه به اینکه تا حد زیادی متداول ترین پذیرندگان اولیه genAI در سازمان توسعه دهندگان هستند، ، شرکت ها باید به زبان خود صحبت کنند: کد. اکثر توسعه دهندگان هرگز به کد یک پروژه منبع باز نگاه نمی کنند، اما در دسترس قرار دادن آن برای برخی از آنها مهم است. اعتماد را به روشی جلب می کند که اعلان های بیش از حد غیرقابل اعتماد نیست.
منبع باز پاسخ کاملی برای مشکلاتی که فروشندگان genAI دارند نیست. اما آرزوی شفافیت بیشتر، که منبع باز آن را تقویت می کند، به شدت مورد نیاز است.
پست های مرتبط
هوش مصنوعی مولد شروع سختی دارد
هوش مصنوعی مولد شروع سختی دارد
هوش مصنوعی مولد شروع سختی دارد