سیستمهای هوش مصنوعی هنوز به بلوغ و توانایی کافی برای عملکرد مستقل نرسیدهاند، اما همچنان میتوانند با کمک انسان معجزه کنند. فقط به چند نرده محافظ نیاز داریم.
علیرغم پیشرفتهای قابلتوجهی که در زمینه هوش مصنوعی در چند دهه گذشته انجام شده است، این فناوری بارها و بارها نتوانسته به وعده خود عمل کند. پردازندههای زبان طبیعی مبتنی بر هوش مصنوعی میتوانند همه چیز را از مقالههای خبری گرفته تا رمان بنویسند، اما نه بدون زبان نژادپرستانه و تبعیض آمیز. خودروهای خودران میتوانند بدون ورودی راننده حرکت کنند، اما نمیتوانند خطر تصادفات احمقانه. هوش مصنوعی تبلیغات آنلاین را شخصیسازی کرده است، اما هر از چند گاهی به طرز وحشتناکی زمینه را از دست میدهد.
ما نمیتوانیم به هوش مصنوعی اعتماد کنیم تا هر بار تصمیم درستی بگیرد. این بدان معنا نیست که ما باید توسعه و استقرار فناوریهای هوش مصنوعی نسل بعدی را متوقف کنیم. درعوض، ما باید با فیلتر کردن و اعتبارسنجی فعال انسانها مجموعه دادهها، با حفظ کنترل تصمیمگیری، یا با افزودن دستورالعملهایی که بعداً بهطور خودکار اعمال میشوند، نردههای محافظ ایجاد کنیم.
یک سیستم هوشمند تصمیمات خود را بر اساس داده های تغذیه شده به الگوریتم پیچیده ای که برای ایجاد و آموزش مدل هوش مصنوعی در مورد نحوه تفسیر داده ها استفاده می شود، می گیرد. این به آن امکان میدهد به طور مستقل «یاد بگیرد» و تصمیم بگیرد و آن را از یک سیستم مهندسی شده که صرفاً بر اساس برنامهنویسی ارائهشده توسط خالق آن کار میکند، متمایز میکند.
آیا هوش مصنوعی است یا فقط مهندسی هوشمند؟
اما هر سیستمی که به نظر “هوشمند” است از هوش مصنوعی استفاده نمی کند. بسیاری از نمونههایی از مهندسی هوشمند هستند که برای آموزش رباتها یا از طریق برنامهنویسی صریح یا با انجام دادن عمل توسط انسان در حالی که ربات آن را ضبط میکند، استفاده میشود. هیچ فرآیند تصمیم گیری وجود ندارد در عوض، این فناوری اتوماسیون است که در یک محیط بسیار ساختار یافته کار می کند.
وعدهای که هوش مصنوعی برای این مورد استفاده میکند این است که ربات را قادر میسازد تا در محیطی بدون ساختارتر عمل کند، که واقعاً از نمونههایی که نشان داده شده است انتزاع میشود. فناوریهای یادگیری ماشین و یادگیری عمیق ربات را قادر میسازد تا یک پالت کالای کنسرو شده را در یک سفر در انبار شناسایی، بردارد و حمل کند، و سپس همین کار را با تلویزیون انجام دهد، بدون اینکه انسانها برنامههای خود را بهروزرسانی کنند تا تفاوتها را در نظر بگیرند. محصول یا مکان.
چالش ذاتی ساخت هر سیستم هوشمند این است که توانایی تصمیم گیری آن تنها به اندازه مجموعه داده های مورد استفاده برای توسعه و روش های مورد استفاده برای آموزش مدل هوش مصنوعی آن است.
چیزی به نام مجموعه داده ۱۰۰٪ کامل، بی طرفانه و دقیق وجود ندارد. این امر ایجاد مدلهای هوش مصنوعی را که به طور بالقوه نادرست و مغرضانه نیستند، بسیار سخت میکند.
مدل جدید زبان بزرگ (LLM) فیس بوک و شرکت مادر آن، متا، اخیراً در دسترس هر محققی که در حال مطالعه برنامه های کاربردی برای پردازش زبان طبیعی (NLP) هستند، مانند مجازی با قابلیت صوتی دستیار در گوشی های هوشمند و سایر دستگاه های متصل A گزارش توسط محققان شرکت هشدار می دهد که سیستم جدید، OPT-175B، “تمایل زیادی به تولید زبان سمی و تقویت کلیشه های مضر دارد، حتی زمانی که با درخواست نسبتاً بی ضرر ارائه شود، و یافتن درخواست های خصمانه امری بی اهمیت است.”
محققان گمان میکنند که مدل هوش مصنوعی، آموزشدیده بر روی دادههایی که شامل متنهای بدون فیلتر گرفتهشده از مکالمات رسانههای اجتماعی است، نمیتواند تشخیص دهد که چه زمانی «تصمیم میگیرد» از آن دادهها برای تولید سخنان نفرت انگیز یا زبان نژادپرستانه استفاده کند. من به تیم متا اعتبار کامل میدهم که در مورد چالشهایشان باز و شفاف هستند و این مدل را بدون هیچ هزینهای در دسترس محققانی قرار میدهند که میخواهند به حل مشکل سوگیری که همه برنامههای NLP را آزار میدهد کمک کنند. اما این مدرک دیگری است که نشان میدهد سیستمهای هوش مصنوعی به اندازه کافی بالغ و قادر نیستند که مستقل از فرآیندهای تصمیمگیری و مداخله انسانی عمل کنند.
اگر نتوانیم به هوش مصنوعی اعتماد کنیم، چه کاری می توانیم انجام دهیم؟
بنابراین، اگر نتوانیم به هوش مصنوعی اعتماد کنیم، چگونه میتوانیم توسعه آن را در عین کاهش خطرات، پرورش دهیم؟ با پذیرش یک (یا چند) از سه روش عملگرایانه برای رفع مشکلات.
گزینه شماره ۱: ورودی (داده ها) را فیلتر کنید
یک رویکرد استفاده از فیلترهای داده خاص دامنه است که از رسیدن داده های نامربوط و نادرست به مدل هوش مصنوعی در حین آموزش جلوگیری می کند. فرض کنید یک خودروساز که یک خودروی کوچک با موتور چهار سیلندر میسازد، میخواهد یک شبکه عصبی را ادغام کند که خرابیهای نرم سنسورها و محرکهای موتور را تشخیص میدهد. این شرکت ممکن است مجموعه دادههای جامعی داشته باشد که همه مدلهایش، از خودروهای کامپکت گرفته تا کامیونهای بزرگ و شاسیبلندها را پوشش میدهد. اما باید دادههای نامربوط را فیلتر کند تا مطمئن شود که مدل هوش مصنوعی خودروی چهار سیلندر خود را با دادههای مخصوص کامیونهای هشت سیلندر آموزش نمیدهد.
گزینه شماره ۲: خروجی (تصمیم) را فیلتر کنید
همچنین میتوانیم فیلترهایی ایجاد کنیم که از جهان در برابر تصمیمهای بد هوش مصنوعی محافظت میکنند، با تأیید اینکه هر تصمیم به نتیجه خوبی منجر میشود، و در غیر این صورت، از اقدام آن جلوگیری میکند. این امر مستلزم محرکهای بازرسی خاص دامنه است که اطمینان میدهند ما به هوش مصنوعی برای اتخاذ تصمیمهای خاص و انجام اقدامات در چارچوب پارامترهای از پیش تعریفشده اعتماد داریم، در حالی که هر تصمیم دیگری نیاز به “بررسی سلامت عقل” دارد.
فیلتر خروجی یک محدوده سرعت عملیاتی ایمن را در یک خودروی خودران ایجاد میکند که به مدل هوش مصنوعی میگوید: «من فقط به شما اجازه میدهم در این محدوده ایمن تنظیمات را انجام دهید. اگر خارج از این محدوده هستید و تصمیم دارید موتور را به کمتر از ۱۰۰ دور در دقیقه کاهش دهید، ابتدا باید با یک متخصص انسانی بررسی کنید.»
گزینه شماره ۳: از مدل “سرپرست” استفاده کنید
این غیرمعمول نیست که توسعه دهندگان یک مدل هوش مصنوعی موجود را برای یک برنامه جدید استفاده کنند. این امکان ایجاد گاردریل سوم را با اجرای یک مدل خبره بر اساس سیستم قبلی به صورت موازی فراهم می کند. یک ناظر تصمیمات سیستم جدید را با آنچه که سیستم قبلی انجام میداد بررسی میکند و سعی میکند دلیل هر گونه اختلاف را تعیین کند.
به عنوان مثال، سیستم خودران خودروی جدید هنگام حرکت در بزرگراه به اشتباه از سرعت ۵۵ مایل در ساعت به ۲۰ مایل در ساعت کاهش می یابد. فرض کنید سیستم قبلی در همان شرایط سرعت ۵۵ مایل در ساعت را حفظ می کرد. در آن صورت، ناظر میتواند بعداً دادههای آموزشی ارائهشده به مدلهای هوش مصنوعی هر دو سیستم را بررسی کند تا دلیل نابرابری را تعیین کند. اما درست در زمان تصمیم گیری، ممکن است بخواهیم این کاهش سرعت را به جای ایجاد تغییر به طور خودکار پیشنهاد کنیم.
نیاز به کنترل هوش مصنوعی را مانند نیاز به نگهداری از کودکان در هنگام یادگیری چیز جدیدی، مانند نحوه دوچرخه سواری در نظر بگیرید. یک بزرگسال با دویدن در کنارش به عنوان نرده محافظ عمل می کند، به سوارکار جدید کمک می کند تعادل خود را حفظ کند و اطلاعاتی را که برای تصمیم گیری هوشمندانه نیاز دارد، مانند زمان ترمز زدن یا تسلیم شدن برای عابران پیاده به او می دهد.
مراقبت و تغذیه برای هوش مصنوعی
در مجموع، توسعهدهندگان سه گزینه برای ثابت و باریک نگه داشتن هوش مصنوعی در طول فرآیند تولید دارند:
- فقط دادههای آموزشی معتبر را به مدل هوش مصنوعی ارسال کنید.
- برای بررسی مجدد تصمیمات هوش مصنوعی و جلوگیری از انجام اقدامات نادرست و بالقوه خطرناک، فیلترهایی را اجرا کنید.
- یک مدل موازی ساخته شده توسط انسان اجرا کنید که تصمیمات هوش مصنوعی را با تصمیمات یک مدل مشابه و از قبل موجود که بر روی یک مجموعه داده آموزش دیده است مقایسه می کند.
با این حال، اگر توسعه دهندگان فراموش کنند داده ها و روش های یادگیری را با دقت انتخاب کنند و یک فرآیند تولید قابل اعتماد و تکرارپذیر برای مدل های هوش مصنوعی خود ایجاد کنند، هیچ یک از این گزینه ها کار نمی کند. مهمتر از همه، توسعهدهندگان باید بدانند که هیچ قانونی آنها را ملزم نمیکند که برنامهها یا محصولات جدید خود را بر اساس هوش مصنوعی بسازند.
حتما از هوش طبیعی فراوان استفاده کنید و از خود بپرسید: “آیا هوش مصنوعی واقعا ضروری است؟” مهندسی هوشمند و فنآوریهای کلاسیک ممکن است راهحلی بهتر، تمیزتر، قویتر و شفافتر ارائه دهند. در برخی موارد، بهتر است به طور کلی از هوش مصنوعی اجتناب کنید.
Michael Berthold is founding CEO at KNIME، یک شرکت پلت فرم تجزیه و تحلیل داده ها. وی دارای دکترای علوم کامپیوتر و بیش از ۲۵ سال تجربه در زمینه علم داده است. مایکل در دانشگاه کار کرده است، اخیراً به عنوان استاد تمام در دانشگاه کنستانز (آلمان) و قبلاً در دانشگاه کالیفرنیا در برکلی و در کارنگی ملون، و در صنعت در گروه شبکه عصبی اینتل، Utopy و Tripos. مایکل در مورد تجزیه و تحلیل داده ها، یادگیری ماشینی و هوش مصنوعی مطالب زیادی منتشر کرده است. با مایکل در LinkedIn و در KNIME .
—
New Tech Forum مکانی برای کاوش و بحث در مورد فناوری سازمانی نوظهور در عمق و وسعت بی سابقه ای فراهم می کند. انتخاب ذهنی است، بر اساس انتخاب ما از فناوری هایی که معتقدیم مهم هستند و برای خوانندگان InfoWorld بیشترین علاقه را دارند. InfoWorld وثیقه بازاریابی را برای انتشار نمی پذیرد و حق ویرایش تمام محتوای ارائه شده را برای خود محفوظ می دارد. همه سوالات را به newtechforum@infoworld.com ارسال کنید.
پست های مرتبط
چگونه از هوش مصنوعی خود مراقبت کنیم
چگونه از هوش مصنوعی خود مراقبت کنیم
چگونه از هوش مصنوعی خود مراقبت کنیم