۲۰ آبان ۱۴۰۳

Techboy

اخبار و اطلاعات روز تکنولوژی

استفاده از درس های منبع باز برای هوش مصنوعی مولد

هیجان و آشفتگی پیرامون هوش مصنوعی مولد بی شباهت به روزهای اولیه منبع باز یا غرب وحشی نیست. ما می توانیم عدم قطعیت و سردرگمی را حل کنیم.

هیجان و آشفتگی پیرامون هوش مصنوعی مولد بی شباهت به روزهای اولیه منبع باز یا غرب وحشی نیست. ما می توانیم عدم قطعیت و سردرگمی را حل کنیم.

بیشتر مردم می توانند “تولدت مبارک” را از صمیم قلب بخوانند. اما آیا می دانید چگونه آن را یاد گرفتید؟ چه کسی برای اولین بار آن را با شما به اشتراک گذاشت؟ چه کسی آن را نوشته است؟ شما اشعار و ملودی را دارید و می توانید به دیگران آموزش دهید، اما احتمالاً نمی دانید از کجا آمده است.

این به طور موثر “مالش” را با هوش مصنوعی مولد توصیف می‌کند و برای افراد و سازمان‌هایی که از آن استفاده می‌کنند مشکل ایجاد می‌کند. بسیار شبیه روزهای اولیه متن باز، و به طور کلی مجوز نرم افزار، هوش مصنوعی مولد یک قلمرو ناشناخته است، هیجان انگیز است، و چیزهای زیادی برای یادگیری وجود دارد.

حتی بین تصمیم برای توسعه این ستون و نشستن برای نوشتن آن، ده‌ها و ده‌ها خبر حواس من را پرت کردند – و مسائل مربوط به هوش مصنوعی را که فکر می‌کردم بیشتر گیج کردند – به‌خصوص داستانی در مورد مدیر عامل OpenAI سام آلتمن به سنا می‌گوید که، بله، در مواقعی که این فناوری “هیجان زده” می شود، باید یک آژانس نظارتی وجود داشته باشد.

به عبارت دیگر، هوش مصنوعی مولد آشفته است.

یادداشت‌های بازنگری هاروارد که هوش مصنوعی مولد یک مشکل مالکیت معنوی دارد که شامل مجموعه پیچیده ای از سوالات:

  • قوانین موجود چگونه باید اعمال شوند؟
  • در مورد تخلف چه کنیم؟
  • کاربران هوش مصنوعی چه حقوقی دارند؟
  • سازندگان محتوا چه حقوقی دارند؟
  • چه کسی صاحب آثار تولید شده توسط هوش مصنوعی است؟
  • آیا باید از محتوای بدون مجوز برای آموزش استفاده شود؟
  • آیا کاربران باید بتوانند از مدل‌های هوش مصنوعی بخواهند آثار مجاز و بدون مجوزی را که در آن آموزش دیده‌اند ذکر کنند؟

چطور به این سرعت به این نقطه رسیدیم؟ بخشی از سردرگمی در عدم شفافیت مدل هوش مصنوعی مولد نهفته است.

GPT در ChatGPT

همه به “GPT” در ChatGPT برمی‌گردد. GPT مخفف ترانسفورماتور مولد از پیش آموزش دیده است. یک ترانسفورماتور آنقدر بزرگ نیست – حدود ۲۰۰۰ خط کد. این اساساً معادل یک کارتن تخم مرغ است – هدف اصلی آن نگه داشتن “تخم مرغ” یا چیزهایی است که واقعاً برای مصرف کنندگان ارزش دارند. در مورد هوش مصنوعی مولد، «تخم‌ها» متغیر یا وزن هستند.

گاهی اوقات انسان ها فراموش می کنند که از کجا چیزی یاد گرفته اند، اما اغلب می توانند به خاطر بسپارند و می توانند منابع را ذکر کنند. برخلاف انسان، ChatGPT و دیگر پلتفرم‌های هوش مصنوعی مولد نمی‌توانند هیچ‌یک از اطلاعاتی را که بلعیده‌اند را به خاطر بسپارند و نمی‌توانند به آن استناد کنند. ممکن است گزارشی وجود داشته باشد که در جایی وجود داشته باشد، اما در خود مدل نباشد. کاربران نمی توانند درخواستی برای استناد به داده های آموزشی بنویسند. مدل فقط دارای یک دسته اعداد و متغیر است. این شبیه به دسته ای از نورون ها و نورون های جعلی است. این مدل ها فقط از نظر آماری کلمه بعدی را بر اساس یک دسته از محتوا پیش بینی می کنند.

Vue 3.3 برای پشتیبانی از انواع وارداتی خارجی

بنابراین، چگونه می‌خواهیم مشکل را حل کنیم؟

مکانیسم‌های متعددی برای کنترل استفاده از مدل‌های هوش مصنوعی، محتوای تولید شده و وزن‌ها در حال بررسی است:

  1. مقررات. دولت می تواند قوانینی را برای کنترل نحوه استفاده از هوش مصنوعی وضع کند و برای نقض این قوانین مجازات تعیین کند.
  2. مجوز. این یک توافقنامه حقوقی مقیاس‌پذیر بین سازندگان و مصرف‌کنندگان نرم‌افزار، نثر، تصاویر، ویدیو و غیره است. منبع باز بر پایه‌های «حقوق» و «آزادی‌هایی» که با صدور مجوز فعال می‌شوند، بنا شده است، اما هوش مصنوعی ما را مجبور می‌کند که سختی‌گیری کنیم. نگاه کنید (Llama و ChatGPT منبع باز نیستند) به اینکه آیا آزادی نهایی است یا خیر واقعا بهترین راه حل.
  3. قراردادها. سازندگان محتوا و کسانی که هزینه تولید آن را پرداخت می کنند، معمولاً هنگام انجام تجارت قرارداد دارند. برای مثال، انجمن نویسندگان آمریکای غربی یک قرص سمی را در قرارداد پیشنهاد کرد که از حق نسخه برداری هر محتوای تولید شده توسط هوش مصنوعی جلوگیری می کند. مدل‌های کسب‌وکار استودیوها بر مواد دارای حق نسخه‌برداری تکیه می‌کنند، بنابراین استفاده از محتوای تولید شده توسط هوش مصنوعی به جای نویسندگان انسانی را بسیار دشوار می‌کند.
  4. کنترل‌های فنی: مانند امنیت، بین «سیاست» و «کنترل‌های فنی» تفاوت وجود دارد. به عنوان مثال، تفاوت عمده ای بین الزام افراد به تغییر رمز عبور هر ۹۰ روز و اجبار آنها برای تغییر رمز عبور هنگام تلاش برای ورود به سیستم وجود دارد. به همین ترتیب، بسیاری از شرکت ها و محققان هوش مصنوعی در تلاش هستند تا کنترل کنند که یک مدل یا سرویس هوش مصنوعی چه خواهد شد. و این کار را نخواهد کرد، اما کاربران با استفاده از حملات سریع تزریق.

من تردید دارم که هر یک از چهار روش بالا واقعاً آنچه را افراد می‌توانند با هوش مصنوعی انجام دهند و نمی‌توانند انجام دهند را کنترل کند. اگرچه، مانند متن باز، من فکر می‌کنم مجوزهای منسجم و کاملاً درک شده کلید پذیرش گسترده توسط مشاغل است.

ارتقاء زبان دارت در Wasm، هوش مصنوعی مولد می درخشد

مقاله HBR که قبلاً به آن اشاره کردم، موافق است، و خاطرنشان می کند که صدور مجوز برای محافظت از سازندگان و مصرف کنندگان هوش مصنوعی کلیدی خواهد بود. اما چگونه این اتفاق می افتد؟

غرب وحشی هوش مصنوعی

هیجان و آشفتگی پیرامون هوش مصنوعی مولد بی شباهت به روزهای اولیه منبع باز نیست. و، روزهای اولیه منبع باز مانند غرب وحشی بود. مجوزها بدون هیچ نظارتی ایجاد و استفاده می‌شدند، که باعث عدم اطمینان و سردرگمی می‌شد، که برعکس کاری است که مجوزها باید انجام دهند. در اواخر دهه ۹۰، ابتکار منبع باز (OSI) کار را به دست گرفت و اساساً گفت: “ما نگهبان هر چیزی هستیم که منبع باز است.” امروزه، هم OSI و هم بنیاد نرم‌افزار آزاد، تعاریف منبع باز را منتشر می‌کنند که برای تعیین انطباق مجوزهای منبع باز استفاده می‌شود.

و برای حدود ۲۵ سال فکر می‌کردیم که با مجوز منبع باز “تمام” شده‌ایم. اما به دلیل هوش مصنوعی (و چیزهای دیگری مانند ارائه دهندگان ابری)، ما باید در طرح‌های صدور مجوز تجدیدنظر کنیم، یا شاید طرح‌های کاملاً جدیدی تولید کنیم. وزن‌ها، مدل‌ها و داده‌های آموزشی همگی احتمالاً به مجوز نیاز دارند زیرا بدون اینکه همه ورودی‌ها و خروجی‌ها به خوبی درک شوند، پذیرش آن برای کسب‌وکارها دشوار خواهد شد.

هوش مصنوعی این خطوط را محو می کند. وقتی انسان ها دانش تولید می کنند، درک منبع و اخلاقیات پشت مالکیت دانش آسان است. اما وقتی شروع به ورود به مدل‌های هوش مصنوعی می‌کنید، مثل این است که، خوب، به هر حال صاحب آن چیزها کیست؟ زیرا، بیایید صادق باشیم، دلیل این امر این است که همه مدل‌ها بر روی محتوایی که برای استفاده در آن روش تأیید شده است، آموزش نمی‌بینند. در واقع، من فکر می‌کنم کاملاً مطمئن است که بگوییم بسیاری از این مدل‌ها قراردادهای حق چاپ و مجوز را نقض می‌کنند. اما، چگونه آن را ثابت می کنید؟ این فقط یک دسته از اعداد در یک مدل است. چگونه می توانید به خاطر این موضوع از شخصی در دادگاه شکایت کنید؟

همانطور که OSI با منبع باز انجام داد، OSI نیز در تلاش است تا برخی از نرده های محافظ را در اطراف همه اینها قرار دهد. پروژه Deep Dive OSI بیان می‌کند که «نمای سنتی کد منبع باز اجرای الگوریتم‌های هوش مصنوعی ممکن است برای تضمین کافی نباشد. قابلیت بازرسی و تکرارپذیری سیستم های هوش مصنوعی.” OSI یک مجموعه پادکست در این زمینه منتشر کرده است، و در حال انجام چهار سمینار مجازی طراحی شده برای “فراب بندی یک مکالمه برای کشف آنچه برای سیستم های AI قابل قبول است که “منبع باز” باشند.” OSI حتی وبلاگی درباره نتیجه اولین بحث رو در رو با جامعه دارد: موارد مهم کارگاه آموزشی “تعریف هوش مصنوعی باز”.

نحوه کار با موجودیت های قطع شده در Entity Framework Core

اگر همه اینها واقعاً گیج کننده به نظر می رسد، به این دلیل است که اینطور است. و چشم انداز روز به روز در حال تغییر است. برای سازمان‌ها بسیار مهم خواهد بود که از همه اخبار مطلع بمانند و بهترین کار را برای جلوگیری از هیاهو و ترس‌آفرینی انجام دهند و در عوض روی کارهایی که می‌توان انجام داد – اکنون – برای ایجاد تعادل بین مزایای هوش مصنوعی با حاکمیت و نرده‌های محافظ تمرکز کنند.

من به شدت توصیه می‌کنم به کار OSI توجه کافی داشته باشید و فروشندگانی را که با آنها کار می‌کنید تحت فشار قرار دهید تا توضیح دهند که چه کاری انجام می‌دهند (و خواهند کرد) تا از استفاده مؤثر و اخلاقی AI در یک زمینه منبع باز اطمینان حاصل کنید. هدف ارائه برنامه‌های مبتنی بر هوش مصنوعی با منشأ قابل اعتماد است.

(و برای ثبت، “تولدت مبارک”، که به اواخر دهه ۱۸۰۰ برمی گردد، برگرفته از آهنگی است که توسط معلم مدرسه پتی هیل و خواهرش، میلدرد نوشته شده است. در مرکز بسیاری از نبردهای حق چاپ و میلیون ها دلار هزینه صدور مجوز بوده است. در حال حاضر در دامنه عمومی.)

در Red Hat، اسکات مک کارتی مدیر ارشد محصول RHEL Server است که مسلماً بزرگترین تجارت نرم افزار منبع باز در جهان است. اسکات یک کهنه‌کار استارت‌آپ در شبکه‌های اجتماعی، یک تایمر قدیمی تجارت الکترونیک، و یک تکنسین تحقیقاتی دولتی است که دارای تجربه در شرکت‌ها و سازمان‌های مختلف، از هفت نفر استارت‌آپ تا ۱۲۰۰۰ شرکت فناوری کارمند است. این به یک دیدگاه منحصر به فرد در توسعه، تحویل و نگهداری نرم افزار منبع باز ختم شده است.

Generative AI Insights مکانی را برای رهبران فناوری – از جمله فروشندگان و سایر اشخاص ثالث – فراهم می‌کند تا چالش‌ها و فرصت‌های هوش مصنوعی مولد را بررسی و بحث کنند. این انتخاب گسترده است، از غواصی عمیق فناوری گرفته تا مطالعات موردی گرفته تا نظرات متخصص، اما همچنین ذهنی است، بر اساس قضاوت ما در مورد اینکه کدام موضوعات و درمان‌ها به بهترین وجه به مخاطبان فنی پیشرفته InfoWorld خدمت می‌کنند. InfoWorld وثیقه بازاریابی را برای انتشار نمی پذیرد و حق ویرایش تمام محتوای ارائه شده را برای خود محفوظ می دارد. تماس با doug_dineley@foundryco.com.