۲۹ شهریور ۱۴۰۳

Techboy

اخبار و اطلاعات روز تکنولوژی

هوش مصنوعی مسئول با دموکراتیک کردن دانش هوش مصنوعی شروع می شود

کاربر معمولی هوش مصنوعی فاقد درک کافی از ابزارهایی است که به طور فزاینده ای برای تصمیم گیری و کار به آنها وابسته هستند. ما باید آن را تغییر دهیم.

کاربر معمولی هوش مصنوعی فاقد درک کافی از ابزارهایی است که به طور فزاینده ای برای تصمیم گیری و کار به آنها وابسته هستند. ما باید آن را تغییر دهیم.

از ماه مه ۲۰۲۳، کاخ سفید با همکاری شرکت‌های پیشرو هوش مصنوعی به سمت چارچوبی جامع برای توسعه هوش مصنوعی مسئول حرکت کرده است. در حالی که نهایی‌سازی این چارچوب در انتظار است، تلاش‌های صنعت برای خودتنظیمی، در درجه اول برای رسیدگی به نگرانی‌های امنیتی فزاینده هوش مصنوعی، سرعت می‌گیرد.

تغییر جهت جاسازی اعتماد و ایمنی در ابزارها و مدل‌های هوش مصنوعی پیشرفت مهمی است. با این حال، چالش واقعی این است که اطمینان حاصل کنیم که این بحث‌های حیاتی رخ نمی‌دهند پشت درهای بسته. برای اینکه هوش مصنوعی به طور مسئولانه و فراگیر تکامل یابد، دموکراتیک کردن دانش هوش مصنوعی ضروری است.

پیشرفت سریع هوش مصنوعی منجر به انفجار ابزارهای قابل دسترسی گسترده شده است که اساساً نحوه تعامل کاربران نهایی با فناوری را تغییر می دهد. به عنوان مثال، چت بات ها خود را در تار و پود زندگی روزمره ما بافته اند. ۴۷٪ از آمریکایی‌ها قابل توجه اکنون برای توصیه‌های سهام به هوش مصنوعی مانند ChatGPT روی می‌آورند، در حالی که ۴۲٪ از دانش آموزان برای اهداف تحصیلی به آن تکیه می کنند.

پذیرش گسترده هوش مصنوعی، نیاز فوری به پرداختن به یک مشکل رو به رشد را برجسته می‌کند – اتکا به ابزارهای هوش مصنوعی بدون درک اساسی از مدل‌های زبان بزرگ (LLM) که بر اساس آنها ساخته شده‌اند. 

توهمات چت بات: اشتباهات جزئی یا اطلاعات نادرست؟

یک نگرانی مهم ناشی از این عدم درک، شیوع “توهمات ربات چت” است، به این معنی که مواردی که LLM ها به طور سهوی اطلاعات نادرست را منتشر می کنند. این مدل‌ها که بر روی بخش‌های وسیعی از داده‌ها آموزش داده شده‌اند، می‌توانند در صورت تغذیه داده‌های نادرست، عمدا یا از طریق حذف ناخواسته داده‌های اینترنتی، پاسخ‌های اشتباهی ایجاد کنند.

زمان اجرای Bun JavaScript در فر است

در جامعه‌ای که به طور فزاینده‌ای برای اطلاعات به فناوری متکی است، توانایی هوش مصنوعی برای تولید داده‌های به ظاهر معتبر اما نادرست از ظرفیت کاربر متوسط ​​برای پردازش و تأیید آن فراتر می‌رود. بزرگترین خطر در اینجا پذیرش بی چون و چرای اطلاعات تولید شده توسط هوش مصنوعی است که به طور بالقوه منجر به تصمیمات ناآگاهانه می شود که بر حوزه های شخصی، حرفه ای و آموزشی تأثیر می گذارد.

پس چالش دوگانه است. ابتدا، کاربران باید برای شناسایی اطلاعات غلط هوش مصنوعی مجهز باشند. و دوم، کاربران باید عادت هایی را برای تأیید محتوای تولید شده توسط هوش مصنوعی ایجاد کنند. این فقط یک موضوع افزایش امنیت کسب و کار نیست. پیامدهای اجتماعی و سیاسی اطلاعات غلط تولید شده توسط هوش مصنوعی کنترل نشده عمیق و گسترده است.

یک فراخوان برای همکاری آزاد

در پاسخ به این چالش‌ها، سازمان‌هایی مانند فروم مدل مرزی که توسط رهبران صنعت OpenAI، Google و Microsoft ایجاد شده است، به ایجاد زمینه اعتماد و ایمنی در ابزارها و مدل‌های هوش مصنوعی کمک می‌کند. با این حال، برای شکوفایی پایدار و مسئولانه هوش مصنوعی، رویکردی گسترده‌تر ضروری است. این به معنای گسترش همکاری فراتر از دیوارهای شرکتی است تا جوامع عمومی و منبع باز را شامل شود.

مایکروسافت API طبقه بندی متن را برای ML.NET پیش نمایش می کند

چنین فراگیری نه تنها قابلیت اعتماد مدل‌های هوش مصنوعی را افزایش می‌دهد، بلکه نشان‌دهنده موفقیتی است که در جوامع منبع باز مشاهده می‌شود، جایی که طیف متنوعی از دیدگاه‌ها در شناسایی تهدیدها و آسیب‌پذیری‌های امنیتی مفید است.

دانش باعث ایجاد اعتماد و ایمنی می شود

یک جنبه اساسی از دموکراتیزه کردن دانش هوش مصنوعی در آموزش کاربران نهایی در مورد عملکرد درونی هوش مصنوعی نهفته است. ارائه بینش در مورد منبع داده، آموزش مدل، و محدودیت های ذاتی این ابزارها حیاتی است. چنین دانش بنیادی نه تنها باعث ایجاد اعتماد می‌شود، بلکه افراد را قادر می‌سازد تا از هوش مصنوعی بهره‌ورتر و ایمن‌تر استفاده کنند. در زمینه‌های تجاری، این درک می‌تواند ابزارهای هوش مصنوعی را از تقویت‌کننده‌های صرفاً کارایی به محرک‌های تصمیم‌گیری آگاهانه تبدیل کند.

حفظ و ترویج فرهنگ تحقیق و شک و تردید به همان اندازه حیاتی است، به خصوص که هوش مصنوعی فراگیرتر می شود. در محیط های آموزشی، جایی که هوش مصنوعی چشم انداز یادگیری را تغییر می دهد، پرورش درک نحوه استفاده صحیح از هوش مصنوعی بسیار مهم است. مربیان و دانش‌آموزان به طور یکسان باید هوش مصنوعی را نه تنها داور حقیقت، بلکه به عنوان ابزاری ببینند که توانایی‌های انسان را در ایده‌پردازی، فرمول‌بندی سؤال و تحقیق افزایش می‌دهد.

هوش مصنوعی بدون شک یک اکولایزر قدرتمند است که می تواند عملکرد را در زمینه های مختلف افزایش دهد. با این حال، “به خواب رفتن پشت فرمان” با اتکای بیش از حد به هوش مصنوعی بدون درک درست از مکانیزم آن می‌تواند منجر به رضایت خاطر شود و بر بهره‌وری و کیفیت تأثیر منفی بگذارد.

مایکروسافت ابزارهای توسعه‌دهنده Edge را برای ویژوال استودیو پیش‌نمایش می‌کند

ادغام سریع هوش مصنوعی در بازارهای مصرف کننده از ارائه راهنمایی یا دستورالعمل پیشی گرفته است و یک واقعیت آشکار را آشکار می کند: کاربر معمولی فاقد آموزش کافی در مورد ابزارهایی است که به طور فزاینده ای برای تصمیم گیری و کار به آنها وابسته هستند. اطمینان از پیشرفت ایمن و ایمن و استفاده از هوش مصنوعی در تجارت، آموزش و زندگی شخصی ما به دموکراتیک سازی گسترده دانش هوش مصنوعی بستگی دارد.

فقط از طریق تلاش جمعی و درک مشترک می‌توانیم چالش‌ها را پشت سر بگذاریم و از پتانسیل کامل فناوری‌های هوش مصنوعی استفاده کنیم.

پیتر وانگ مدیر ارشد هوش مصنوعی و نوآوری و یکی از بنیانگذاران Anaconda است.

Generative AI Insights مکانی را برای رهبران فناوری – از جمله فروشندگان و سایر مشارکت‌کنندگان خارجی – فراهم می‌کند تا چالش‌ها و فرصت‌های هوش مصنوعی مولد را بررسی و بحث کنند. این انتخاب گسترده است، از غواصی عمیق فناوری گرفته تا مطالعات موردی گرفته تا نظرات متخصص، اما همچنین ذهنی است، بر اساس قضاوت ما در مورد اینکه کدام موضوعات و درمان ها به بهترین وجه به مخاطبان فنی پیشرفته InfoWorld خدمت می کنند. InfoWorld وثیقه بازاریابی را برای انتشار نمی پذیرد و حق ویرایش تمام محتوای ارائه شده را برای خود محفوظ می دارد. تماس با doug_dineley@foundryco.com.