هیجان و آشفتگی پیرامون هوش مصنوعی مولد بی شباهت به روزهای اولیه منبع باز یا غرب وحشی نیست. ما می توانیم عدم قطعیت و سردرگمی را حل کنیم.
بیشتر مردم می توانند “تولدت مبارک” را از صمیم قلب بخوانند. اما آیا می دانید چگونه آن را یاد گرفتید؟ چه کسی برای اولین بار آن را با شما به اشتراک گذاشت؟ چه کسی آن را نوشته است؟ شما اشعار و ملودی را دارید و می توانید به دیگران آموزش دهید، اما احتمالاً نمی دانید از کجا آمده است.
این به طور موثر “مالش” را با هوش مصنوعی مولد توصیف میکند و برای افراد و سازمانهایی که از آن استفاده میکنند مشکل ایجاد میکند. بسیار شبیه روزهای اولیه متن باز، و به طور کلی مجوز نرم افزار، هوش مصنوعی مولد یک قلمرو ناشناخته است، هیجان انگیز است، و چیزهای زیادی برای یادگیری وجود دارد.
حتی بین تصمیم برای توسعه این ستون و نشستن برای نوشتن آن، دهها و دهها خبر حواس من را پرت کردند – و مسائل مربوط به هوش مصنوعی را که فکر میکردم بیشتر گیج کردند – بهخصوص داستانی در مورد مدیر عامل OpenAI سام آلتمن به سنا میگوید که، بله، در مواقعی که این فناوری “هیجان زده” می شود، باید یک آژانس نظارتی وجود داشته باشد.
به عبارت دیگر، هوش مصنوعی مولد آشفته است.
یادداشتهای بازنگری هاروارد که هوش مصنوعی مولد یک مشکل مالکیت معنوی دارد که شامل مجموعه پیچیده ای از سوالات:
- قوانین موجود چگونه باید اعمال شوند؟
- در مورد تخلف چه کنیم؟
- کاربران هوش مصنوعی چه حقوقی دارند؟
- سازندگان محتوا چه حقوقی دارند؟
- چه کسی صاحب آثار تولید شده توسط هوش مصنوعی است؟
- آیا باید از محتوای بدون مجوز برای آموزش استفاده شود؟
- آیا کاربران باید بتوانند از مدلهای هوش مصنوعی بخواهند آثار مجاز و بدون مجوزی را که در آن آموزش دیدهاند ذکر کنند؟
چطور به این سرعت به این نقطه رسیدیم؟ بخشی از سردرگمی در عدم شفافیت مدل هوش مصنوعی مولد نهفته است.
GPT در ChatGPT
همه به “GPT” در ChatGPT برمیگردد. GPT مخفف ترانسفورماتور مولد از پیش آموزش دیده است. یک ترانسفورماتور آنقدر بزرگ نیست – حدود ۲۰۰۰ خط کد. این اساساً معادل یک کارتن تخم مرغ است – هدف اصلی آن نگه داشتن “تخم مرغ” یا چیزهایی است که واقعاً برای مصرف کنندگان ارزش دارند. در مورد هوش مصنوعی مولد، «تخمها» متغیر یا وزن هستند.
گاهی اوقات انسان ها فراموش می کنند که از کجا چیزی یاد گرفته اند، اما اغلب می توانند به خاطر بسپارند و می توانند منابع را ذکر کنند. برخلاف انسان، ChatGPT و دیگر پلتفرمهای هوش مصنوعی مولد نمیتوانند هیچیک از اطلاعاتی را که بلعیدهاند را به خاطر بسپارند و نمیتوانند به آن استناد کنند. ممکن است گزارشی وجود داشته باشد که در جایی وجود داشته باشد، اما در خود مدل نباشد. کاربران نمی توانند درخواستی برای استناد به داده های آموزشی بنویسند. مدل فقط دارای یک دسته اعداد و متغیر است. این شبیه به دسته ای از نورون ها و نورون های جعلی است. این مدل ها فقط از نظر آماری کلمه بعدی را بر اساس یک دسته از محتوا پیش بینی می کنند.
بنابراین، چگونه میخواهیم مشکل را حل کنیم؟
مکانیسمهای متعددی برای کنترل استفاده از مدلهای هوش مصنوعی، محتوای تولید شده و وزنها در حال بررسی است:
- مقررات. دولت می تواند قوانینی را برای کنترل نحوه استفاده از هوش مصنوعی وضع کند و برای نقض این قوانین مجازات تعیین کند.
- مجوز. این یک توافقنامه حقوقی مقیاسپذیر بین سازندگان و مصرفکنندگان نرمافزار، نثر، تصاویر، ویدیو و غیره است. منبع باز بر پایههای «حقوق» و «آزادیهایی» که با صدور مجوز فعال میشوند، بنا شده است، اما هوش مصنوعی ما را مجبور میکند که سختیگیری کنیم. نگاه کنید (Llama و ChatGPT منبع باز نیستند) به اینکه آیا آزادی نهایی است یا خیر واقعا بهترین راه حل.
- قراردادها. سازندگان محتوا و کسانی که هزینه تولید آن را پرداخت می کنند، معمولاً هنگام انجام تجارت قرارداد دارند. برای مثال، انجمن نویسندگان آمریکای غربی یک قرص سمی را در قرارداد پیشنهاد کرد که از حق نسخه برداری هر محتوای تولید شده توسط هوش مصنوعی جلوگیری می کند. مدلهای کسبوکار استودیوها بر مواد دارای حق نسخهبرداری تکیه میکنند، بنابراین استفاده از محتوای تولید شده توسط هوش مصنوعی به جای نویسندگان انسانی را بسیار دشوار میکند.
- کنترلهای فنی: مانند امنیت، بین «سیاست» و «کنترلهای فنی» تفاوت وجود دارد. به عنوان مثال، تفاوت عمده ای بین الزام افراد به تغییر رمز عبور هر ۹۰ روز و اجبار آنها برای تغییر رمز عبور هنگام تلاش برای ورود به سیستم وجود دارد. به همین ترتیب، بسیاری از شرکت ها و محققان هوش مصنوعی در تلاش هستند تا کنترل کنند که یک مدل یا سرویس هوش مصنوعی چه خواهد شد. و این کار را نخواهد کرد، اما کاربران با استفاده از حملات سریع تزریق.
من تردید دارم که هر یک از چهار روش بالا واقعاً آنچه را افراد میتوانند با هوش مصنوعی انجام دهند و نمیتوانند انجام دهند را کنترل کند. اگرچه، مانند متن باز، من فکر میکنم مجوزهای منسجم و کاملاً درک شده کلید پذیرش گسترده توسط مشاغل است.
مقاله HBR که قبلاً به آن اشاره کردم، موافق است، و خاطرنشان می کند که صدور مجوز برای محافظت از سازندگان و مصرف کنندگان هوش مصنوعی کلیدی خواهد بود. اما چگونه این اتفاق می افتد؟
غرب وحشی هوش مصنوعی
هیجان و آشفتگی پیرامون هوش مصنوعی مولد بی شباهت به روزهای اولیه منبع باز نیست. و، روزهای اولیه منبع باز مانند غرب وحشی بود. مجوزها بدون هیچ نظارتی ایجاد و استفاده میشدند، که باعث عدم اطمینان و سردرگمی میشد، که برعکس کاری است که مجوزها باید انجام دهند. در اواخر دهه ۹۰، ابتکار منبع باز (OSI) کار را به دست گرفت و اساساً گفت: “ما نگهبان هر چیزی هستیم که منبع باز است.” امروزه، هم OSI و هم بنیاد نرمافزار آزاد، تعاریف منبع باز را منتشر میکنند که برای تعیین انطباق مجوزهای منبع باز استفاده میشود.
و برای حدود ۲۵ سال فکر میکردیم که با مجوز منبع باز “تمام” شدهایم. اما به دلیل هوش مصنوعی (و چیزهای دیگری مانند ارائه دهندگان ابری)، ما باید در طرحهای صدور مجوز تجدیدنظر کنیم، یا شاید طرحهای کاملاً جدیدی تولید کنیم. وزنها، مدلها و دادههای آموزشی همگی احتمالاً به مجوز نیاز دارند زیرا بدون اینکه همه ورودیها و خروجیها به خوبی درک شوند، پذیرش آن برای کسبوکارها دشوار خواهد شد.
هوش مصنوعی این خطوط را محو می کند. وقتی انسان ها دانش تولید می کنند، درک منبع و اخلاقیات پشت مالکیت دانش آسان است. اما وقتی شروع به ورود به مدلهای هوش مصنوعی میکنید، مثل این است که، خوب، به هر حال صاحب آن چیزها کیست؟ زیرا، بیایید صادق باشیم، دلیل این امر این است که همه مدلها بر روی محتوایی که برای استفاده در آن روش تأیید شده است، آموزش نمیبینند. در واقع، من فکر میکنم کاملاً مطمئن است که بگوییم بسیاری از این مدلها قراردادهای حق چاپ و مجوز را نقض میکنند. اما، چگونه آن را ثابت می کنید؟ این فقط یک دسته از اعداد در یک مدل است. چگونه می توانید به خاطر این موضوع از شخصی در دادگاه شکایت کنید؟
همانطور که OSI با منبع باز انجام داد، OSI نیز در تلاش است تا برخی از نرده های محافظ را در اطراف همه اینها قرار دهد. پروژه Deep Dive OSI بیان میکند که «نمای سنتی کد منبع باز اجرای الگوریتمهای هوش مصنوعی ممکن است برای تضمین کافی نباشد. قابلیت بازرسی و تکرارپذیری سیستم های هوش مصنوعی.” OSI یک مجموعه پادکست در این زمینه منتشر کرده است، و در حال انجام چهار سمینار مجازی طراحی شده برای “فراب بندی یک مکالمه برای کشف آنچه برای سیستم های AI قابل قبول است که “منبع باز” باشند.” OSI حتی وبلاگی درباره نتیجه اولین بحث رو در رو با جامعه دارد: موارد مهم کارگاه آموزشی “تعریف هوش مصنوعی باز”.
اگر همه اینها واقعاً گیج کننده به نظر می رسد، به این دلیل است که اینطور است. و چشم انداز روز به روز در حال تغییر است. برای سازمانها بسیار مهم خواهد بود که از همه اخبار مطلع بمانند و بهترین کار را برای جلوگیری از هیاهو و ترسآفرینی انجام دهند و در عوض روی کارهایی که میتوان انجام داد – اکنون – برای ایجاد تعادل بین مزایای هوش مصنوعی با حاکمیت و نردههای محافظ تمرکز کنند.
من به شدت توصیه میکنم به کار OSI توجه کافی داشته باشید و فروشندگانی را که با آنها کار میکنید تحت فشار قرار دهید تا توضیح دهند که چه کاری انجام میدهند (و خواهند کرد) تا از استفاده مؤثر و اخلاقی AI در یک زمینه منبع باز اطمینان حاصل کنید. هدف ارائه برنامههای مبتنی بر هوش مصنوعی با منشأ قابل اعتماد است.
(و برای ثبت، “تولدت مبارک”، که به اواخر دهه ۱۸۰۰ برمی گردد، برگرفته از آهنگی است که توسط معلم مدرسه پتی هیل و خواهرش، میلدرد نوشته شده است. در مرکز بسیاری از نبردهای حق چاپ و میلیون ها دلار هزینه صدور مجوز بوده است. در حال حاضر در دامنه عمومی.)
در Red Hat، اسکات مک کارتی مدیر ارشد محصول RHEL Server است که مسلماً بزرگترین تجارت نرم افزار منبع باز در جهان است. اسکات یک کهنهکار استارتآپ در شبکههای اجتماعی، یک تایمر قدیمی تجارت الکترونیک، و یک تکنسین تحقیقاتی دولتی است که دارای تجربه در شرکتها و سازمانهای مختلف، از هفت نفر استارتآپ تا ۱۲۰۰۰ شرکت فناوری کارمند است. این به یک دیدگاه منحصر به فرد در توسعه، تحویل و نگهداری نرم افزار منبع باز ختم شده است.
—
Generative AI Insights مکانی را برای رهبران فناوری – از جمله فروشندگان و سایر اشخاص ثالث – فراهم میکند تا چالشها و فرصتهای هوش مصنوعی مولد را بررسی و بحث کنند. این انتخاب گسترده است، از غواصی عمیق فناوری گرفته تا مطالعات موردی گرفته تا نظرات متخصص، اما همچنین ذهنی است، بر اساس قضاوت ما در مورد اینکه کدام موضوعات و درمانها به بهترین وجه به مخاطبان فنی پیشرفته InfoWorld خدمت میکنند. InfoWorld وثیقه بازاریابی را برای انتشار نمی پذیرد و حق ویرایش تمام محتوای ارائه شده را برای خود محفوظ می دارد. تماس با doug_dineley@foundryco.com a>.
پست های مرتبط
استفاده از درس های منبع باز برای هوش مصنوعی مولد
استفاده از درس های منبع باز برای هوش مصنوعی مولد
استفاده از درس های منبع باز برای هوش مصنوعی مولد