هوش مصنوعی پاسخهای زیادی ایجاد میکند و در زمان زیادی صرفهجویی میکند، اما اغلب ناقص یا غیرقابل اعتماد است.
از GitHub Copilot تا جستجوی Bing با ChatGPT، هوش مصنوعی به طور فزاینده ای در زندگی روزمره ما نفوذ می کند. اگرچه از نظر جهتگیری خوب است (ماشینها کار بیشتری انجام میدهند تا مردم بتوانند وقت ما را در جای دیگری متمرکز کنند)، برای اعتماد به نتایج ارائه شده توسط هوش مصنوعی به مقدار کافی تخصص در یک زمینه خاص نیاز دارید. بن کهو، دانشمند سابق تحقیقات رباتیک ابری برای iRobot، استدلال میکند که افراد همچنان باید مسئولیت نهایی را بپذیرند در قبال هر آنچه که هوش مصنوعی پیشنهاد میکند، که به شما نیاز دارد تا تعیین کنید که آیا پیشنهادات هوش مصنوعی خوب هستند یا خیر.
پاسخگویی برای نتایج
ما در مرحله ناخوشایند هوش مصنوعی هستیم، زمانی که این هوش مصنوعی وعدههای فوقالعادهای را نشان میدهد، اما همیشه مشخص نیست که وقتی بزرگ شود چه خواهد شد. قبلاً اشاره کردهام که بزرگترین موفقیتهای هوش مصنوعی تا به امروز به قیمت از دست دادن مردم تمام نشده است، بلکه به عنوان مکملی برای مردم بوده است. به ماشینهایی فکر کنید که جستارهای محاسباتی فشرده را در مقیاس وسیع اجرا میکنند و به سؤالاتی پاسخ میدهند که مردم میتوانند از عهده آن برآیند، اما بسیار کندتر.
اکنون ما چیزهایی مانند “خودروهای خودران کاملاً خودمختار” داریم که هر چیزی غیر از این هستند. نه تنها هوش مصنوعی/نرمافزار هنوز به اندازه کافی خوب نیست، بلکه قوانین همچنان به راننده اجازه نمیدهند هوش مصنوعی را برای تصادف مقصر بداند (و تصادفات فراوان — حداقل ۴۰۰ سال گذشته). ChatGPT شگفتانگیز است تا زمانی که اطلاعات را در طول راهاندازی عمومی شروع به تهیه اطلاعات کند بینگ جدید مجهز به هوش مصنوعی، به عنوان مثالی دیگر.
و غیره. این به معنای منتفی کردن این یا دیگر کاربردهای هوش مصنوعی نیست. در عوض، این یادآوری است که همانطور که Kehoe استدلال می کند، مردم نمی توانند هوش مصنوعی را برای نتایج استفاده از آن AI سرزنش کنند. او تاکید میکند: «بسیاری از هوش مصنوعی که من میبینم، ادعا میکنند که هوش مصنوعی میتواند تمام مسئولیت یک وظیفه معین را برای یک فرد به عهده بگیرد، و به طور ضمنی فرض میکند که مسئولیتپذیری شخص em> برای این کار به نوعی … تبخیر می شود؟ اگر تسلای آنها با ماشین دیگری تصادف کند، مردم مسئول هستند. آنها همچنین مسئول هر کاری که انتخاب می کنند با ChatGPT یا نقض حق نسخه برداری در صورت سوء استفاده DALL-E از مطالب محافظت شده و غیره هستند.
برای من، چنین پاسخگویی در هنگام استفاده از ابزارهای هوش مصنوعی مانند GitHub Copilot برای کار بسیار حیاتی می شود.
در حال تماشای تماشاگران
پیدا کردن توسعه دهندگانی که از Copilot سود می برند کار سختی نیست. اینجا یکی توسعهدهنده است که از این سریع قدردانی کرده است پیشنهادات APIها را پیشنهاد میکردند، اما در غیر این صورت آن را “ضعف” و “کند” میدانستند. نظرات مختلف دیگری نیز وجود دارد. توسعهدهندگان دوست دارند که چگونه کدهای دیگ بخار را مشخص میکند، APIهای مربوطه را پیدا کرده و پیشنهاد میکند، و موارد دیگر. توسعه دهنده ادوین میلر اشاره می کند که پیشنهادات Copilot «به طور کلی دقیق،» که هم خوب است و هم بد. خوب است که می توان بیشتر اوقات به Copilot اعتماد کرد، اما مشکل این است: فقط اکثر اوقات می توان به آن اعتماد کرد. برای اینکه بدانید چه زمانی نمیتوان به پیشنهادات آن اعتماد کرد، باید یک برنامهنویس با تجربه باشید.
باز هم، این مشکل بزرگی نیست. اگر Copilot به توسعه دهندگان کمک می کند تا در زمان خود صرفه جویی کنند، خوب است، درست است؟ این است، اما همچنین به این معنی است که توسعه دهندگان باید مسئولیت نتایج استفاده از Copilot را بر عهده بگیرند، بنابراین ممکن است همیشه گزینه خوبی برای توسعه دهندگانی نباشد که در حرفه خود جوان تر هستند. آنچه می تواند میانبر برای یک توسعه دهنده باتجربه باشد، می تواند برای توسعه دهنده ای با تجربه کمتر به نتایج بدی منجر شود. به هر حال، برای یک تازه کار احتمالاً عاقلانه نیست که سعی کند از آن میانبرها استفاده کند، زیرا می تواند یادگیری آنها از هنر برنامه نویسی را خفه کند.
بنابراین، بله، بیایید از هوش مصنوعی برای بهبود رانندگی، جستجو و برنامهنویسی خود استفاده کنیم. اما بیایید به یاد داشته باشیم که تا زمانی که به نتایج آن اعتماد کامل نداشته باشیم، افراد باتجربه باید دستان ضرب المثل خود را روی چرخ نگه دارند.
پست های مرتبط
هوش مصنوعی همچنان به تخصص انسانی نیاز دارد
هوش مصنوعی همچنان به تخصص انسانی نیاز دارد
هوش مصنوعی همچنان به تخصص انسانی نیاز دارد