کاربر معمولی هوش مصنوعی فاقد درک کافی از ابزارهایی است که به طور فزاینده ای برای تصمیم گیری و کار به آنها وابسته هستند. ما باید آن را تغییر دهیم.
از ماه مه ۲۰۲۳، کاخ سفید با همکاری شرکتهای پیشرو هوش مصنوعی به سمت چارچوبی جامع برای توسعه هوش مصنوعی مسئول حرکت کرده است. در حالی که نهاییسازی این چارچوب در انتظار است، تلاشهای صنعت برای خودتنظیمی، در درجه اول برای رسیدگی به نگرانیهای امنیتی فزاینده هوش مصنوعی، سرعت میگیرد.
تغییر جهت جاسازی اعتماد و ایمنی در ابزارها و مدلهای هوش مصنوعی پیشرفت مهمی است. با این حال، چالش واقعی این است که اطمینان حاصل کنیم که این بحثهای حیاتی رخ نمیدهند پشت درهای بسته. برای اینکه هوش مصنوعی به طور مسئولانه و فراگیر تکامل یابد، دموکراتیک کردن دانش هوش مصنوعی ضروری است.
پیشرفت سریع هوش مصنوعی منجر به انفجار ابزارهای قابل دسترسی گسترده شده است که اساساً نحوه تعامل کاربران نهایی با فناوری را تغییر می دهد. به عنوان مثال، چت بات ها خود را در تار و پود زندگی روزمره ما بافته اند. ۴۷٪ از آمریکاییها قابل توجه اکنون برای توصیههای سهام به هوش مصنوعی مانند ChatGPT روی میآورند، در حالی که ۴۲٪ از دانش آموزان برای اهداف تحصیلی به آن تکیه می کنند.
پذیرش گسترده هوش مصنوعی، نیاز فوری به پرداختن به یک مشکل رو به رشد را برجسته میکند – اتکا به ابزارهای هوش مصنوعی بدون درک اساسی از مدلهای زبان بزرگ (LLM) که بر اساس آنها ساخته شدهاند.
توهمات چت بات: اشتباهات جزئی یا اطلاعات نادرست؟
یک نگرانی مهم ناشی از این عدم درک، شیوع “توهمات ربات چت” است، به این معنی که مواردی که LLM ها به طور سهوی اطلاعات نادرست را منتشر می کنند. این مدلها که بر روی بخشهای وسیعی از دادهها آموزش داده شدهاند، میتوانند در صورت تغذیه دادههای نادرست، عمدا یا از طریق حذف ناخواسته دادههای اینترنتی، پاسخهای اشتباهی ایجاد کنند.
در جامعهای که به طور فزایندهای برای اطلاعات به فناوری متکی است، توانایی هوش مصنوعی برای تولید دادههای به ظاهر معتبر اما نادرست از ظرفیت کاربر متوسط برای پردازش و تأیید آن فراتر میرود. بزرگترین خطر در اینجا پذیرش بی چون و چرای اطلاعات تولید شده توسط هوش مصنوعی است که به طور بالقوه منجر به تصمیمات ناآگاهانه می شود که بر حوزه های شخصی، حرفه ای و آموزشی تأثیر می گذارد.
پس چالش دوگانه است. ابتدا، کاربران باید برای شناسایی اطلاعات غلط هوش مصنوعی مجهز باشند. و دوم، کاربران باید عادت هایی را برای تأیید محتوای تولید شده توسط هوش مصنوعی ایجاد کنند. این فقط یک موضوع افزایش امنیت کسب و کار نیست. پیامدهای اجتماعی و سیاسی اطلاعات غلط تولید شده توسط هوش مصنوعی کنترل نشده عمیق و گسترده است.
یک فراخوان برای همکاری آزاد
در پاسخ به این چالشها، سازمانهایی مانند فروم مدل مرزی که توسط رهبران صنعت OpenAI، Google و Microsoft ایجاد شده است، به ایجاد زمینه اعتماد و ایمنی در ابزارها و مدلهای هوش مصنوعی کمک میکند. با این حال، برای شکوفایی پایدار و مسئولانه هوش مصنوعی، رویکردی گستردهتر ضروری است. این به معنای گسترش همکاری فراتر از دیوارهای شرکتی است تا جوامع عمومی و منبع باز را شامل شود.
چنین فراگیری نه تنها قابلیت اعتماد مدلهای هوش مصنوعی را افزایش میدهد، بلکه نشاندهنده موفقیتی است که در جوامع منبع باز مشاهده میشود، جایی که طیف متنوعی از دیدگاهها در شناسایی تهدیدها و آسیبپذیریهای امنیتی مفید است.
دانش باعث ایجاد اعتماد و ایمنی می شود
یک جنبه اساسی از دموکراتیزه کردن دانش هوش مصنوعی در آموزش کاربران نهایی در مورد عملکرد درونی هوش مصنوعی نهفته است. ارائه بینش در مورد منبع داده، آموزش مدل، و محدودیت های ذاتی این ابزارها حیاتی است. چنین دانش بنیادی نه تنها باعث ایجاد اعتماد میشود، بلکه افراد را قادر میسازد تا از هوش مصنوعی بهرهورتر و ایمنتر استفاده کنند. در زمینههای تجاری، این درک میتواند ابزارهای هوش مصنوعی را از تقویتکنندههای صرفاً کارایی به محرکهای تصمیمگیری آگاهانه تبدیل کند.
حفظ و ترویج فرهنگ تحقیق و شک و تردید به همان اندازه حیاتی است، به خصوص که هوش مصنوعی فراگیرتر می شود. در محیط های آموزشی، جایی که هوش مصنوعی چشم انداز یادگیری را تغییر می دهد، پرورش درک نحوه استفاده صحیح از هوش مصنوعی بسیار مهم است. مربیان و دانشآموزان به طور یکسان باید هوش مصنوعی را نه تنها داور حقیقت، بلکه به عنوان ابزاری ببینند که تواناییهای انسان را در ایدهپردازی، فرمولبندی سؤال و تحقیق افزایش میدهد.
هوش مصنوعی بدون شک یک اکولایزر قدرتمند است که می تواند عملکرد را در زمینه های مختلف افزایش دهد. با این حال، “به خواب رفتن پشت فرمان” با اتکای بیش از حد به هوش مصنوعی بدون درک درست از مکانیزم آن میتواند منجر به رضایت خاطر شود و بر بهرهوری و کیفیت تأثیر منفی بگذارد.
ادغام سریع هوش مصنوعی در بازارهای مصرف کننده از ارائه راهنمایی یا دستورالعمل پیشی گرفته است و یک واقعیت آشکار را آشکار می کند: کاربر معمولی فاقد آموزش کافی در مورد ابزارهایی است که به طور فزاینده ای برای تصمیم گیری و کار به آنها وابسته هستند. اطمینان از پیشرفت ایمن و ایمن و استفاده از هوش مصنوعی در تجارت، آموزش و زندگی شخصی ما به دموکراتیک سازی گسترده دانش هوش مصنوعی بستگی دارد.
فقط از طریق تلاش جمعی و درک مشترک میتوانیم چالشها را پشت سر بگذاریم و از پتانسیل کامل فناوریهای هوش مصنوعی استفاده کنیم.
پیتر وانگ مدیر ارشد هوش مصنوعی و نوآوری و یکی از بنیانگذاران Anaconda است.
—
Generative AI Insights مکانی را برای رهبران فناوری – از جمله فروشندگان و سایر مشارکتکنندگان خارجی – فراهم میکند تا چالشها و فرصتهای هوش مصنوعی مولد را بررسی و بحث کنند. این انتخاب گسترده است، از غواصی عمیق فناوری گرفته تا مطالعات موردی گرفته تا نظرات متخصص، اما همچنین ذهنی است، بر اساس قضاوت ما در مورد اینکه کدام موضوعات و درمان ها به بهترین وجه به مخاطبان فنی پیشرفته InfoWorld خدمت می کنند. InfoWorld وثیقه بازاریابی را برای انتشار نمی پذیرد و حق ویرایش تمام محتوای ارائه شده را برای خود محفوظ می دارد. تماس با doug_dineley@foundryco.com a>.
پست های مرتبط
هوش مصنوعی مسئول با دموکراتیک کردن دانش هوش مصنوعی شروع می شود
هوش مصنوعی مسئول با دموکراتیک کردن دانش هوش مصنوعی شروع می شود
هوش مصنوعی مسئول با دموکراتیک کردن دانش هوش مصنوعی شروع می شود