۳۰ آذر ۱۴۰۳

Techboy

اخبار و اطلاعات روز تکنولوژی

وقتی ربات ها می آیند

Google Answers به ​​مردم گفته است که برای شارژ مارماهی ها و تامین انرژی گلف استریم باتری ها را به اقیانوس بیاندازند. سپس بینگ آن را برداشت. بعدش چی؟

Google Answers به ​​مردم گفته است که برای شارژ مارماهی ها و تامین انرژی گلف استریم باتری ها را به اقیانوس بیاندازند. سپس بینگ آن را برداشت. بعدش چی؟

من هم مانند همه و برادرشان، با ChatGPT بازی می‌کردم و از آن سؤالات ضروری زندگی می‌پرسیدم. با اطمینان چیزهایی را به من می گوید، و برخی از آن چیزها فوق العاده روشنگر هستند. با این حال، افراد و ربات‌های گفتگوی اشتباه اغلب موارد را با اطمینان بیان می‌کنند.

باتری‌هایی برای اقیانوس

من یک پاسخ Google اخیر پست شده در Mastodon را دیدم. در این «پاسخ»، گوگل پیشنهاد کرد که دور انداختن باتری‌های ماشین‌های مستعمل در اقیانوس مزایایی دارد، از جمله شارژ کردن مارماهی‌های الکتریکی و تامین انرژی گلف استریم. سپس بینگ این پاسخ را گرفت و همچنین مزایای زیست محیطی دفع غیرقانونی باتری را پیشنهاد کرد. نمی دانم آیا گوگل متوجه می شود که می توانید از روغن موتور برای کود دادن به چمن خود استفاده کنید. (یادداشت نویسنده: لطفاً باتری ها را در اقیانوس نیندازید یا چمن خود را با روغن موتور کود نکنید.)

احتمالاً، افرادی که در این مورد جستجو می کنند به دنبال جوک هستند، اما این یک سوال جالب را ایجاد می کند. از آنجایی که افراد بیشتری از ChatGPT استفاده می کنند و نتایج خود را در وب منتشر می کنند، و هوش مصنوعی بیشتر a href=”https://www.youtube.com/watch?v=7iSex2Tyj70&list=PLU6n9Voqu_1FJ7AmHPzDCZJMBGz1NfjPs” rel=”nofollow”>سیستم‌های پاسخگویی به سؤالات پاسخ‌های تولید شده خود و دیگران را انتخاب می‌کنند و بر اساس آن آموزش می‌بینند— چه اتفاقی خواهد افتاد؟

من کاری را انجام دادم که هر کسی برای سؤالی که پاسخ آن را نمی داند انجام می دهد. از ChatGPT پرسیدم، “وقتی افراد خروجی ChatGPT را منتشر کنند و پاسخ های خود را آموزش ببینند چه اتفاقی می افتد؟”

ربات پاسخ داد:

اگر افراد خروجی ChatGPT را منتشر کنند و از آن برای آموزش بیشتر مدل در مورد پاسخ‌های خود استفاده کنند، این به عنوان خودآموزی یا یادگیری خود نظارت شناخته می‌شود. در این سناریو، مدل همچنان از خروجی خود یاد می‌گیرد و به طور بالقوه عملکرد خود را در طول زمان بهبود می‌بخشد.

3 ابزار منبع باز NLP برای استخراج داده ها

با این حال، هنگام استفاده از خودآموزی، خطرات احتمالی وجود دارد که باید در نظر گرفته شود. یک ریسک این است که مدل ممکن است بیش از حد با خروجی خود تطبیق یابد، به این معنی که در پاسخ به انواع سؤالات و اظهاراتی که قبلاً با آنها مواجه شده بود بیش از حد تخصصی می شود. این می‌تواند منجر به عملکرد ضعیف مدل در داده‌های جدید یا دیده نشده شود.

خطر دیگر این است که مدل ممکن است شروع به تولید پاسخ‌های بی‌معنا یا نامناسب کند، اگر در طول خودآموزی به درستی نظارت و نظارت نشود. این ممکن است به دلیل این باشد که مدل الگوها یا سوگیری ها را در خروجی خود انتخاب کرده و آنها را در طول زمان تقویت می کند.

بنابراین، هنگام آموزش خودآموزی یک مدل زبانی مانند ChatGPT و نظارت دقیق بر عملکرد و خروجی آن برای اطمینان از ادامه تولید پاسخ‌های باکیفیت، مهم است.

این به برخی پیامدهای اجتماعی واقعاً ترسناک اشاره می کند، زیرا به نظر می رسد مردم ChatGPT را باور می کنند و فکر می کنند که از نظر جادویی درست است (و همچنین احساسی). من نمی دانم که پیامدهای اجتماعی آن چه خواهد بود؟ من پرسیدم، “اثرات اجتماعی افراد وابسته به ChatGPT و شروع به تولید نتایج بیهوده به دلیل اینکه بر اساس اطلاعات خود آموزش داده می شود، چه می تواند باشد؟”

روبات گفت:

اگر افراد بیش از حد به یک مدل زبانی مانند ChatGPT متکی شوند و به دلیل اینکه بر اساس اطلاعات خود آموزش داده شده، شروع به تولید نتایج غیرمعنا کند، این می تواند چندین اثر اجتماعی منفی داشته باشد.

اولاً، وقتی ChatGPT پاسخ‌های نامناسب یا نامناسبی به سؤالات یا اظهارات آنها ارائه می‌کند، ممکن است افراد ناامید یا گیج شوند. این می تواند منجر به اختلال در ارتباطات و از دست دادن اعتماد به فناوری شود.

هوش مصنوعی مولد برای شرکت های نرم افزاری به چه معناست؟

ثانیاً، اگر افراد برای ارائه اطلاعات مهم یا تصمیم‌گیری‌های مهم به ChatGPT متکی باشند، عواقب حاصل از مدل نتایج مزخرف می‌تواند شدید باشد. برای مثال، اگر از یک chatbot مبتنی بر ChatGPT برای ارائه توصیه‌های پزشکی یا تشخیص بیماری‌ها استفاده شود، تکیه بر پاسخ‌های بی‌معنی می‌تواند منجر به خطرات جدی برای سلامتی شود.

ثالثاً، اگر از ChatGPT برای تولید محتوا برای رسانه‌های اجتماعی یا سایر پلت‌فرم‌های آنلاین استفاده شود، می‌تواند منجر به انتشار اطلاعات نادرست یا اخبار جعلی شود. این می‌تواند پیامدهای اجتماعی و سیاسی جدی داشته باشد، زیرا از اطلاعات نادرست می‌توان برای دستکاری افکار عمومی یا تضعیف فرآیندهای دموکراتیک استفاده کرد.

به طور کلی، مهم است که از مدل‌های زبانی مانند ChatGPT با احتیاط استفاده کنید و عملکرد آن‌ها را به دقت بررسی کنید تا اطمینان حاصل کنید که آنها به تولید پاسخ‌های دقیق و مناسب ادامه می‌دهند. همچنین مهم است که محدودیت های این مدل ها را بشناسیم و به آنها به عنوان جایگزینی برای هوش و تخصص انسان اعتماد نکنیم.

اوه، پس باید از فناوری مسئولانه استفاده کنیم. من تعجب می کنم که ChatGPT فکر می کند ما باید در مورد آن چه کاری انجام دهیم؟ من پرسیدم، “با توجه به اینکه انسان ها تقریباً هرگز از یک فناوری جدید به طور مسئولانه استفاده نکرده اند، نتیجه احتمالی این سناریو چه خواهد بود؟”

پاسخ داد:

در حالی که درست است که انسان‌ها در گذشته اغلب برای استفاده مسئولانه از فناوری‌های جدید تلاش کرده‌اند، مهم است که بدانیم هر فناوری جدید منحصربه‌فرد است و ممکن است مجموعه‌ای از خطرات و چالش‌های خاص خود را داشته باشد. بنابراین، پیش‌بینی با قطعیت دشوار است که نتیجه سناریویی که شامل یک مدل زبانی مانند ChatGPT می‌شود چه خواهد بود.

Red Hat OpenShift پشتیبانی Nvidia، Arm، AI را اضافه می کند

همانطور که گفته شد، اقداماتی وجود دارد که می توان برای به حداقل رساندن اثرات منفی احتمالی این فناوری انجام داد. برای مثال، توسعه‌دهندگان و کاربران مدل‌های زبانی مانند ChatGPT می‌توانند برای شناسایی و رسیدگی به هرگونه سوگیری یا نگرانی اخلاقی که ممکن است در طول توسعه و استقرار فناوری ایجاد شود، کار کنند. این می‌تواند شامل اجرای پادمان‌هایی برای جلوگیری از انتشار اطلاعات نادرست یا محتوای نامناسب و اطمینان از اینکه مدل بر روی داده‌های متنوع و معرف آموزش داده شده است.

به‌علاوه، دولت‌ها و نهادهای نظارتی می‌توانند در حصول اطمینان از استفاده مسئولانه از مدل‌های زبانی مانند ChatGPT و وجود تدابیر حفاظتی مناسب برای محافظت از عموم، نقش ایفا کنند. این ممکن است شامل مقررات مربوط به استفاده از مدل‌های زبان در صنایع یا برنامه‌های خاص، و الزامات شفافیت و پاسخگویی در توسعه و استقرار این فناوری‌ها باشد.

به طور خلاصه، اگرچه مطمئناً خطرات مرتبط با استفاده از مدل‌های زبانی مانند ChatGPT وجود دارد، می‌توان این خطرات را از طریق توسعه و استقرار مسئولانه و همچنین نظارت نظارتی و آگاهی عمومی کاهش داد.

اوه وای، ChatGPT فکر می کند باید تنظیم شود؟ من به خالق آن، OpenAI ایمیل زدم که آیا موافق هستند یا خیر، و اگر نه، پس چه می‌دانند که مدل زبانشان اینطور نیست؟ آنها تا این انتشار پاسخی نداده اند.

ما مدت‌هاست که به خود آموزش داده‌ایم تا فقط «پاسخ را در گوگل جستجو کنیم» و اکنون ممکن است شروع کنیم به آموزش «فقط از ChatGPT بپرسیم». با این حال، مهم است که به یاد داشته باشید که این ابزار فقط بخشی از اینترنت را می‌مکد و آن را به شما بازمی‌گرداند. ChatGPT می‌تواند یک ابزار تحقیقاتی مناسب باشد، اما زباله‌ها را به داخل و خارج می‌کند.

این هم مانند همه فناوری‌ها BYOB است. مغز خود را بیاورید و باتری ماشین را به مارماهی ها ندهید.