۳۰ آذر ۱۴۰۳

Techboy

اخبار و اطلاعات روز تکنولوژی

کفش دیگر روی هوش مصنوعی مولد می افتد

از آنجایی که مدل‌های به اصطلاح «منبع باز» به سمت تسلط بر چشم‌انداز LLM و هوش مصنوعی حرکت می‌کنند، باید تصمیم بگیریم که آیا اهمیت می‌دهیم یا خیر.

از آنجایی که مدل‌های به اصطلاح «منبع باز» به سمت تسلط بر چشم‌انداز LLM و هوش مصنوعی حرکت می‌کنند، باید تصمیم بگیریم که آیا اهمیت می‌دهیم یا خیر.

Reality به دستگاه هیپ هوش مصنوعی ضربه زده است. در تماس کسب درآمد اخیر Alphabet a>، ساندار پیچای، مدیر عامل شرکت، پذیرش گسترده Google Cloud را تبلیغ کرد راه حل های مولد AI، اما با یک اخطار – و یک نکته بزرگ. ما در حال پیشرفت عمیق‌تری در قفل کردن ارزش هستیم، که من بسیار خوش‌بین هستم که این اتفاق خواهد افتاد. اما این چیزها زمان می برد.» TL;DR؟ تعداد زیادی تیراندازی با هوش مصنوعی مولد وجود دارد، و برای برنامه‌های کاربردی جدی که درآمدزایی می‌کنند، استقبال چندانی نمی‌شود.

این احتمالاً برای بهترین است زیرا به ما زمان می‌دهد تا بفهمیم منظورمان از «هوش مصنوعی منبع باز» چیست. این مهم است، زیرا مارک زاکربرگ، مدیر عامل متا به ما گفته است و موارد دیگری که باز می شوند منبع بر مدل های زبان بزرگ تسلط خواهد داشت. a> (LLMs) و AI، به طور کلی. شاید. اما در حالی که OSI و سایرین تلاش می کنند راه خود را به یک تعریف منبع باز (OSD) به روز کنند، شرکت کنندگان قدرتمندی مانند متا در حال انتشار مدل های تعریف کننده صنعت هستند و آنها را «متن باز» می نامند و بی توجهی هنگامی که برخی آنها را به دلیل چسباندن برچسبی که به نظر نمی رسد مناسب باشد، با صدای بلند سرزنش می کنند. OSD در واقع، اساسا هیچ یک از مدل های امروزی به روشی که ما به طور سنتی این اصطلاح را در نظر می گیریم، “متن باز” نیستند.

آیا مهم است؟ برخی اصرار خواهند داشت که نه تنها کاملاً مهم است، بلکه مهمترین چیز است. اگر چنین است، ما به یک راه حل نزدیک نیستیم. همانطور که خلاصه شده توسط مدیر اجرایی OSI استفانو مافولی، «مدت کردن با یک مدل هوش مصنوعی می‌تواند مستلزم دسترسی به مدل آموزش‌دیده، داده‌های آموزشی آن، کد مورد استفاده برای پیش‌پردازش این داده‌ها، کد حاکم بر فرآیند آموزش، معماری زیربنایی مدل، یا مجموعه‌ای از موارد ظریف دیگر باشد. جزئیات.” این موضوع صرفاً دسترسی به کد نیست. قلب مشکل داده است.

شما همچنان از آن کلمه استفاده می کنید

اگر داده‌ها باز نیستند، سیستم هم باز نیست، استدلال می‌کند< /a> جولیا فرائولی، یکی از شرکت‌کنندگان در کمیته OSI برای تعریف منبع باز برای هوش مصنوعی. این درست است، او در جای دیگری ادامه می‌دهد، زیرا اگر مدل هوش مصنوعی را نداشته باشید، به هیچ وجه باز نمی‌شود. داده های مورد استفاده برای آموزش آن در هوش مصنوعی، چیزی به نام کد بدون داده‌ای که آن را متحرک می‌کند و به آن هدف می‌دهد، وجود ندارد.

یادداشت پرانتزی: به نظر من کمی طعنه آمیز است که تعدادی از کارمندان AWS، از جمله Ferraioli، این استدلال را بیان می کنند، زیرا شبیه آنچه من و دیگران در مورد ابر گفته ایم است. نرم افزار بدون پیکربندی های سخت افزاری که به آن حیات می بخشد به چه معناست؟ برخی، به‌ویژه کارمندان ابرهای بزرگ، معتقدند که چنین نرم‌افزاری واقعاً نمی‌تواند باز باشد، اگر اجرای نرم‌افزار را برای ابرها بدون منبع باز زیرساخت‌های مرتبط با آنها سخت کند. خوب. اما چه تفاوتی با این دارد که آنها اطلاعات دیگران را مطالبه می کنند تا بتوانند آن مدل ها را برای مشتریان خود اجرا کنند؟ من فکر نمی‌کنم که کارمندان ابر با نیت بد عمل می‌کنند. من فقط فکر می کنم آنها به اندازه کافی درونگرا در مورد این موضوع نبوده اند. به همین دلیل است که من موضوع را مطرح کردم که برای رفع نواقص در هوش مصنوعی منبع باز، باید نقص های مشابه در ابر منبع باز را دوباره بررسی کنیم.

در همین حال، شرکت‌هایی که داده‌های زیادی دارند، مطلقاً هیچ انگیزه‌ای برای خم شدن در این موضوع ندارند (همانطور که شرکت‌های ابری انگیزه کمی برای تسلیم شدن در مورد مسائل کپی‌لفت دارند)، عمدتاً به این دلیل که اصلاً مشخص نیست که توسعه‌دهندگان به آن اهمیت می‌دهند. یکی از مدیران منبع باز صنعت، که خواست ناشناس بماند، پیشنهاد می کند که توسعه دهندگان علاقه ای به موقعیت یابی منبع باز ندارند. به گفته او، «توسعه‌دهندگان هوش مصنوعی اهمیتی نمی‌دهند و نمی‌خواهند سخنرانی را از سوی OSI یا دیگران درباره معنای باز انجام دهند. زاکربرگ مطمئناً با این توصیف مطابقت دارد. او بدون ردی از کنایه، در مورد ارزش منبع باز سخن گفت: “مسیری که لاما به استاندارد صنعت تبدیل شود، رقابتی بودن، کارآمدی و باز بودن نسل به نسل است.”

به جز Llama باز نیست. حداقل، نه طبق گفته Maffulli و دیگران از OSI. بازم مهمه؟ از این گذشته، بسیاری از توسعه‌دهندگان با خوشحالی از متا لاما ۲ استفاده می‌کنند، بدون اینکه نگران این باشند که تعریف دقیقی از منبع باز ندارد. ظاهراً به اندازه کافی باز است.

به اندازه کافی خوب هستید؟ به اندازه کافی باز شود؟

حتی در میان افراد خوش‌نیت و آگاه، هیچ اتفاق نظری در مورد اینکه چه چیزی باید در هوش مصنوعی باز باشد تا به عنوان «منبع باز» واجد شرایط باشد، وجود ندارد. برای مثال، Jim Jagielski این ایده را رد می‌کند که داده‌ها برای AI منبع باز ضروری هستند. حتی اگر ایده باز کردن داده های آموزشی را دوست داشته باشیم، انجام این کار می تواند انواع پیچیدگی های حفظ حریم خصوصی و توزیع را باز کند.

OSI انتظار دارد تا ماه اکتبر پیش‌نویسی از تعریف منبع باز برای هوش مصنوعی داشته باشد. با توجه به اینکه تقریباً اوت است و شرکت کنندگان کلیدی مانند Ferraioli توجه داشته باشند که اجزای مهم تعریف AI منبع باز (OSAID) “به طرز تاسف باری نادرست”، “مبهم” هستند، و “بسیار کمتر از حد مجاز” هستند، تردید وجود دارد که صنعت تا اکتبر وضوح زیادی داشته باشد. در همین حال، متا و دیگران (و اساساً هیچ‌کس به اندازه‌ای که OSI می‌خواهد باز نیست) به انتشار مدل‌های باز ادامه می‌دهد و معمولاً آنها را «متن باز» می‌نامند. آن‌ها این کار را انجام می‌دهند زیرا برخی، مانند تنظیم‌کننده‌های اروپایی، می‌خواهند اصطلاح دلپذیر «منبع باز» را روی نرم‌افزار و هوش مصنوعی مورد استفاده خود ببینند.

دوباره، مهم است؟ آیا مخدوش کردن آنچه به معنای متن باز است، صنعت را متوقف می کند؟ مشکوک. توسعه دهندگان در حال حاضر با صفحه کلید خود رای می دهند و از Llama 2 و سایر مدل های “به اندازه کافی باز” استفاده می کنند. برای اینکه OSI بتواند در مقابل این شتاب قرار گیرد، باید رویکردی اصولی و در عین حال عمل گرایانه برای منبع باز داشته باشد و از پیروی از دستورات جزمی طرفداران پر سر و صدا خود دست بردارد. این کار را برای ابر انجام نداده است، به همین دلیل است که ما زمینه قانونی بسیار نامساعدی برای پوشش هوش مصنوعی داریم.