Google Answers به مردم گفته است که برای شارژ مارماهی ها و تامین انرژی گلف استریم باتری ها را به اقیانوس بیاندازند. سپس بینگ آن را برداشت. بعدش چی؟
من هم مانند همه و برادرشان، با ChatGPT بازی میکردم و از آن سؤالات ضروری زندگی میپرسیدم. با اطمینان چیزهایی را به من می گوید، و برخی از آن چیزها فوق العاده روشنگر هستند. با این حال، افراد و رباتهای گفتگوی اشتباه اغلب موارد را با اطمینان بیان میکنند.
من یک پاسخ Google اخیر پست شده در Mastodon را دیدم. در این «پاسخ»، گوگل پیشنهاد کرد که دور انداختن باتریهای ماشینهای مستعمل در اقیانوس مزایایی دارد، از جمله شارژ کردن مارماهیهای الکتریکی و تامین انرژی گلف استریم. سپس بینگ این پاسخ را گرفت و همچنین مزایای زیست محیطی دفع غیرقانونی باتری را پیشنهاد کرد. نمی دانم آیا گوگل متوجه می شود که می توانید از روغن موتور برای کود دادن به چمن خود استفاده کنید. (یادداشت نویسنده: لطفاً باتری ها را در اقیانوس نیندازید یا چمن خود را با روغن موتور کود نکنید.)
احتمالاً، افرادی که در این مورد جستجو می کنند به دنبال جوک هستند، اما این یک سوال جالب را ایجاد می کند. از آنجایی که افراد بیشتری از ChatGPT استفاده می کنند و نتایج خود را در وب منتشر می کنند، و هوش مصنوعی بیشتر a href=”https://www.youtube.com/watch?v=7iSex2Tyj70&list=PLU6n9Voqu_1FJ7AmHPzDCZJMBGz1NfjPs” rel=”nofollow”>سیستمهای پاسخگویی به سؤالات پاسخهای تولید شده خود و دیگران را انتخاب میکنند و بر اساس آن آموزش میبینند— چه اتفاقی خواهد افتاد؟
من کاری را انجام دادم که هر کسی برای سؤالی که پاسخ آن را نمی داند انجام می دهد. از ChatGPT پرسیدم، “وقتی افراد خروجی ChatGPT را منتشر کنند و پاسخ های خود را آموزش ببینند چه اتفاقی می افتد؟”
ربات پاسخ داد:
اگر افراد خروجی ChatGPT را منتشر کنند و از آن برای آموزش بیشتر مدل در مورد پاسخهای خود استفاده کنند، این به عنوان خودآموزی یا یادگیری خود نظارت شناخته میشود. در این سناریو، مدل همچنان از خروجی خود یاد میگیرد و به طور بالقوه عملکرد خود را در طول زمان بهبود میبخشد.
با این حال، هنگام استفاده از خودآموزی، خطرات احتمالی وجود دارد که باید در نظر گرفته شود. یک ریسک این است که مدل ممکن است بیش از حد با خروجی خود تطبیق یابد، به این معنی که در پاسخ به انواع سؤالات و اظهاراتی که قبلاً با آنها مواجه شده بود بیش از حد تخصصی می شود. این میتواند منجر به عملکرد ضعیف مدل در دادههای جدید یا دیده نشده شود.
خطر دیگر این است که مدل ممکن است شروع به تولید پاسخهای بیمعنا یا نامناسب کند، اگر در طول خودآموزی به درستی نظارت و نظارت نشود. این ممکن است به دلیل این باشد که مدل الگوها یا سوگیری ها را در خروجی خود انتخاب کرده و آنها را در طول زمان تقویت می کند.
بنابراین، هنگام آموزش خودآموزی یک مدل زبانی مانند ChatGPT و نظارت دقیق بر عملکرد و خروجی آن برای اطمینان از ادامه تولید پاسخهای باکیفیت، مهم است.
این به برخی پیامدهای اجتماعی واقعاً ترسناک اشاره می کند، زیرا به نظر می رسد مردم ChatGPT را باور می کنند و فکر می کنند که از نظر جادویی درست است (و همچنین احساسی). من نمی دانم که پیامدهای اجتماعی آن چه خواهد بود؟ من پرسیدم، “اثرات اجتماعی افراد وابسته به ChatGPT و شروع به تولید نتایج بیهوده به دلیل اینکه بر اساس اطلاعات خود آموزش داده می شود، چه می تواند باشد؟”
روبات گفت:
اگر افراد بیش از حد به یک مدل زبانی مانند ChatGPT متکی شوند و به دلیل اینکه بر اساس اطلاعات خود آموزش داده شده، شروع به تولید نتایج غیرمعنا کند، این می تواند چندین اثر اجتماعی منفی داشته باشد.
اولاً، وقتی ChatGPT پاسخهای نامناسب یا نامناسبی به سؤالات یا اظهارات آنها ارائه میکند، ممکن است افراد ناامید یا گیج شوند. این می تواند منجر به اختلال در ارتباطات و از دست دادن اعتماد به فناوری شود.
ثانیاً، اگر افراد برای ارائه اطلاعات مهم یا تصمیمگیریهای مهم به ChatGPT متکی باشند، عواقب حاصل از مدل نتایج مزخرف میتواند شدید باشد. برای مثال، اگر از یک chatbot مبتنی بر ChatGPT برای ارائه توصیههای پزشکی یا تشخیص بیماریها استفاده شود، تکیه بر پاسخهای بیمعنی میتواند منجر به خطرات جدی برای سلامتی شود.
ثالثاً، اگر از ChatGPT برای تولید محتوا برای رسانههای اجتماعی یا سایر پلتفرمهای آنلاین استفاده شود، میتواند منجر به انتشار اطلاعات نادرست یا اخبار جعلی شود. این میتواند پیامدهای اجتماعی و سیاسی جدی داشته باشد، زیرا از اطلاعات نادرست میتوان برای دستکاری افکار عمومی یا تضعیف فرآیندهای دموکراتیک استفاده کرد.
به طور کلی، مهم است که از مدلهای زبانی مانند ChatGPT با احتیاط استفاده کنید و عملکرد آنها را به دقت بررسی کنید تا اطمینان حاصل کنید که آنها به تولید پاسخهای دقیق و مناسب ادامه میدهند. همچنین مهم است که محدودیت های این مدل ها را بشناسیم و به آنها به عنوان جایگزینی برای هوش و تخصص انسان اعتماد نکنیم.
اوه، پس باید از فناوری مسئولانه استفاده کنیم. من تعجب می کنم که ChatGPT فکر می کند ما باید در مورد آن چه کاری انجام دهیم؟ من پرسیدم، “با توجه به اینکه انسان ها تقریباً هرگز از یک فناوری جدید به طور مسئولانه استفاده نکرده اند، نتیجه احتمالی این سناریو چه خواهد بود؟”
پاسخ داد:
در حالی که درست است که انسانها در گذشته اغلب برای استفاده مسئولانه از فناوریهای جدید تلاش کردهاند، مهم است که بدانیم هر فناوری جدید منحصربهفرد است و ممکن است مجموعهای از خطرات و چالشهای خاص خود را داشته باشد. بنابراین، پیشبینی با قطعیت دشوار است که نتیجه سناریویی که شامل یک مدل زبانی مانند ChatGPT میشود چه خواهد بود.
همانطور که گفته شد، اقداماتی وجود دارد که می توان برای به حداقل رساندن اثرات منفی احتمالی این فناوری انجام داد. برای مثال، توسعهدهندگان و کاربران مدلهای زبانی مانند ChatGPT میتوانند برای شناسایی و رسیدگی به هرگونه سوگیری یا نگرانی اخلاقی که ممکن است در طول توسعه و استقرار فناوری ایجاد شود، کار کنند. این میتواند شامل اجرای پادمانهایی برای جلوگیری از انتشار اطلاعات نادرست یا محتوای نامناسب و اطمینان از اینکه مدل بر روی دادههای متنوع و معرف آموزش داده شده است.
بهعلاوه، دولتها و نهادهای نظارتی میتوانند در حصول اطمینان از استفاده مسئولانه از مدلهای زبانی مانند ChatGPT و وجود تدابیر حفاظتی مناسب برای محافظت از عموم، نقش ایفا کنند. این ممکن است شامل مقررات مربوط به استفاده از مدلهای زبان در صنایع یا برنامههای خاص، و الزامات شفافیت و پاسخگویی در توسعه و استقرار این فناوریها باشد.
به طور خلاصه، اگرچه مطمئناً خطرات مرتبط با استفاده از مدلهای زبانی مانند ChatGPT وجود دارد، میتوان این خطرات را از طریق توسعه و استقرار مسئولانه و همچنین نظارت نظارتی و آگاهی عمومی کاهش داد.
اوه وای، ChatGPT فکر می کند باید تنظیم شود؟ من به خالق آن، OpenAI ایمیل زدم که آیا موافق هستند یا خیر، و اگر نه، پس چه میدانند که مدل زبانشان اینطور نیست؟ آنها تا این انتشار پاسخی نداده اند.
ما مدتهاست که به خود آموزش دادهایم تا فقط «پاسخ را در گوگل جستجو کنیم» و اکنون ممکن است شروع کنیم به آموزش «فقط از ChatGPT بپرسیم». با این حال، مهم است که به یاد داشته باشید که این ابزار فقط بخشی از اینترنت را میمکد و آن را به شما بازمیگرداند. ChatGPT میتواند یک ابزار تحقیقاتی مناسب باشد، اما زبالهها را به داخل و خارج میکند.
این هم مانند همه فناوریها BYOB است. مغز خود را بیاورید و باتری ماشین را به مارماهی ها ندهید.
پست های مرتبط
وقتی ربات ها می آیند
وقتی ربات ها می آیند
وقتی ربات ها می آیند