۳۰ آذر ۱۴۰۳

Techboy

اخبار و اطلاعات روز تکنولوژی

چگونه از هوش مصنوعی خود مراقبت کنیم

سیستم‌های هوش مصنوعی هنوز به بلوغ و توانایی کافی برای عملکرد مستقل نرسیده‌اند، اما همچنان می‌توانند با کمک انسان معجزه کنند. فقط به چند نرده محافظ نیاز داریم.

سیستم‌های هوش مصنوعی هنوز به بلوغ و توانایی کافی برای عملکرد مستقل نرسیده‌اند، اما همچنان می‌توانند با کمک انسان معجزه کنند. فقط به چند نرده محافظ نیاز داریم.

علیرغم پیشرفت‌های قابل‌توجهی که در زمینه هوش مصنوعی در چند دهه گذشته انجام شده است، این فناوری بارها و بارها نتوانسته به وعده خود عمل کند. پردازنده‌های زبان طبیعی مبتنی بر هوش مصنوعی می‌توانند همه چیز را از مقاله‌های خبری گرفته تا رمان بنویسند، اما نه بدون زبان نژادپرستانه و تبعیض آمیز. خودروهای خودران می‌توانند بدون ورودی راننده حرکت کنند، اما نمی‌توانند خطر تصادفات احمقانه. هوش مصنوعی تبلیغات آنلاین را شخصی‌سازی کرده است، اما هر از چند گاهی به طرز وحشتناکی زمینه را از دست می‌دهد.

ما نمی‌توانیم به هوش مصنوعی اعتماد کنیم تا هر بار تصمیم درستی بگیرد. این بدان معنا نیست که ما باید توسعه و استقرار فناوری‌های هوش مصنوعی نسل بعدی را متوقف کنیم. درعوض، ما باید با فیلتر کردن و اعتبارسنجی فعال انسان‌ها مجموعه داده‌ها، با حفظ کنترل تصمیم‌گیری، یا با افزودن دستورالعمل‌هایی که بعداً به‌طور خودکار اعمال می‌شوند، نرده‌های محافظ ایجاد کنیم.

یک سیستم هوشمند تصمیمات خود را بر اساس داده های تغذیه شده به الگوریتم پیچیده ای که برای ایجاد و آموزش مدل هوش مصنوعی در مورد نحوه تفسیر داده ها استفاده می شود، می گیرد. این به آن امکان می‌دهد به طور مستقل «یاد بگیرد» و تصمیم بگیرد و آن را از یک سیستم مهندسی شده که صرفاً بر اساس برنامه‌نویسی ارائه‌شده توسط خالق آن کار می‌کند، متمایز می‌کند.

آیا هوش مصنوعی است یا فقط مهندسی هوشمند؟

اما هر سیستمی که به نظر “هوشمند” است از هوش مصنوعی استفاده نمی کند. بسیاری از نمونه‌هایی از مهندسی هوشمند هستند که برای آموزش ربات‌ها یا از طریق برنامه‌نویسی صریح یا با انجام دادن عمل توسط انسان در حالی که ربات آن را ضبط می‌کند، استفاده می‌شود. هیچ فرآیند تصمیم گیری وجود ندارد در عوض، این فناوری اتوماسیون است که در یک محیط بسیار ساختار یافته کار می کند.

وعده‌ای که هوش مصنوعی برای این مورد استفاده می‌کند این است که ربات را قادر می‌سازد تا در محیطی بدون ساختارتر عمل کند، که واقعاً از نمونه‌هایی که نشان داده شده است انتزاع می‌شود. فناوری‌های یادگیری ماشین و یادگیری عمیق ربات را قادر می‌سازد تا یک پالت کالای کنسرو شده را در یک سفر در انبار شناسایی، بردارد و حمل کند، و سپس همین کار را با تلویزیون انجام دهد، بدون اینکه انسان‌ها برنامه‌های خود را به‌روزرسانی کنند تا تفاوت‌ها را در نظر بگیرند. محصول یا مکان.

چیزی که توسعه دهندگان از آن متنفرند

چالش ذاتی ساخت هر سیستم هوشمند این است که توانایی تصمیم گیری آن تنها به اندازه مجموعه داده های مورد استفاده برای توسعه و روش های مورد استفاده برای آموزش مدل هوش مصنوعی آن است.

چیزی به نام مجموعه داده ۱۰۰٪ کامل، بی طرفانه و دقیق وجود ندارد. این امر ایجاد مدل‌های هوش مصنوعی را که به طور بالقوه نادرست و مغرضانه نیستند، بسیار سخت می‌کند.

مدل جدید زبان بزرگ (LLM) فیس بوک و شرکت مادر آن، متا، اخیراً در دسترس هر محققی که در حال مطالعه برنامه های کاربردی برای پردازش زبان طبیعی (NLP) هستند، مانند مجازی با قابلیت صوتی دستیار در گوشی های هوشمند و سایر دستگاه های متصل A گزارش توسط محققان شرکت هشدار می دهد که سیستم جدید، OPT-175B، “تمایل زیادی به تولید زبان سمی و تقویت کلیشه های مضر دارد، حتی زمانی که با درخواست نسبتاً بی ضرر ارائه شود، و یافتن درخواست های خصمانه امری بی اهمیت است.”

محققان گمان می‌کنند که مدل هوش مصنوعی، آموزش‌دیده بر روی داده‌هایی که شامل متن‌های بدون فیلتر گرفته‌شده از مکالمات رسانه‌های اجتماعی است، نمی‌تواند تشخیص دهد که چه زمانی «تصمیم می‌گیرد» از آن داده‌ها برای تولید سخنان نفرت انگیز یا زبان نژادپرستانه استفاده کند. من به تیم متا اعتبار کامل می‌دهم که در مورد چالش‌هایشان باز و شفاف هستند و این مدل را بدون هیچ هزینه‌ای در دسترس محققانی قرار می‌دهند که می‌خواهند به حل مشکل سوگیری که همه برنامه‌های NLP را آزار می‌دهد کمک کنند. اما این مدرک دیگری است که نشان می‌دهد سیستم‌های هوش مصنوعی به اندازه کافی بالغ و قادر نیستند که مستقل از فرآیندهای تصمیم‌گیری و مداخله انسانی عمل کنند.

اگر نتوانیم به هوش مصنوعی اعتماد کنیم، چه کاری می توانیم انجام دهیم؟

بنابراین، اگر نتوانیم به هوش مصنوعی اعتماد کنیم، چگونه می‌توانیم توسعه آن را در عین کاهش خطرات، پرورش دهیم؟ با پذیرش یک (یا چند) از سه روش عملگرایانه برای رفع مشکلات.

گزینه شماره ۱: ورودی (داده ها) را فیلتر کنید

یک رویکرد استفاده از فیلترهای داده خاص دامنه است که از رسیدن داده های نامربوط و نادرست به مدل هوش مصنوعی در حین آموزش جلوگیری می کند. فرض کنید یک خودروساز که یک خودروی کوچک با موتور چهار سیلندر می‌سازد، می‌خواهد یک شبکه عصبی را ادغام کند که خرابی‌های نرم سنسورها و محرک‌های موتور را تشخیص می‌دهد. این شرکت ممکن است مجموعه داده‌های جامعی داشته باشد که همه مدل‌هایش، از خودروهای کامپکت گرفته تا کامیون‌های بزرگ و شاسی‌بلندها را پوشش می‌دهد. اما باید داده‌های نامربوط را فیلتر کند تا مطمئن شود که مدل هوش مصنوعی خودروی چهار سیلندر خود را با داده‌های مخصوص کامیون‌های هشت سیلندر آموزش نمی‌دهد.

چرا توسعه دهندگان از Confluent برای مدیریت آپاچی کافکا استفاده می کنند؟

گزینه شماره ۲: خروجی (تصمیم) را فیلتر کنید

همچنین می‌توانیم فیلترهایی ایجاد کنیم که از جهان در برابر تصمیم‌های بد هوش مصنوعی محافظت می‌کنند، با تأیید اینکه هر تصمیم به نتیجه خوبی منجر می‌شود، و در غیر این صورت، از اقدام آن جلوگیری می‌کند. این امر مستلزم محرک‌های بازرسی خاص دامنه است که اطمینان می‌دهند ما به هوش مصنوعی برای اتخاذ تصمیم‌های خاص و انجام اقدامات در چارچوب پارامترهای از پیش تعریف‌شده اعتماد داریم، در حالی که هر تصمیم دیگری نیاز به “بررسی سلامت عقل” دارد.

فیلتر خروجی یک محدوده سرعت عملیاتی ایمن را در یک خودروی خودران ایجاد می‌کند که به مدل هوش مصنوعی می‌گوید: «من فقط به شما اجازه می‌دهم در این محدوده ایمن تنظیمات را انجام دهید. اگر خارج از این محدوده هستید و تصمیم دارید موتور را به کمتر از ۱۰۰ دور در دقیقه کاهش دهید، ابتدا باید با یک متخصص انسانی بررسی کنید.»

گزینه شماره ۳: از مدل “سرپرست” استفاده کنید

این غیرمعمول نیست که توسعه دهندگان یک مدل هوش مصنوعی موجود را برای یک برنامه جدید استفاده کنند. این امکان ایجاد گاردریل سوم را با اجرای یک مدل خبره بر اساس سیستم قبلی به صورت موازی فراهم می کند. یک ناظر تصمیمات سیستم جدید را با آنچه که سیستم قبلی انجام می‌داد بررسی می‌کند و سعی می‌کند دلیل هر گونه اختلاف را تعیین کند.

به عنوان مثال، سیستم خودران خودروی جدید هنگام حرکت در بزرگراه به اشتباه از سرعت ۵۵ مایل در ساعت به ۲۰ مایل در ساعت کاهش می یابد. فرض کنید سیستم قبلی در همان شرایط سرعت ۵۵ مایل در ساعت را حفظ می کرد. در آن صورت، ناظر می‌تواند بعداً داده‌های آموزشی ارائه‌شده به مدل‌های هوش مصنوعی هر دو سیستم را بررسی کند تا دلیل نابرابری را تعیین کند. اما درست در زمان تصمیم گیری، ممکن است بخواهیم این کاهش سرعت را به جای ایجاد تغییر به طور خودکار پیشنهاد کنیم.

نیاز به کنترل هوش مصنوعی را مانند نیاز به نگهداری از کودکان در هنگام یادگیری چیز جدیدی، مانند نحوه دوچرخه سواری در نظر بگیرید. یک بزرگسال با دویدن در کنارش به عنوان نرده محافظ عمل می کند، به سوارکار جدید کمک می کند تعادل خود را حفظ کند و اطلاعاتی را که برای تصمیم گیری هوشمندانه نیاز دارد، مانند زمان ترمز زدن یا تسلیم شدن برای عابران پیاده به او می دهد.

Oracle JDK Mission Control 9 تم تیره و قابل تنظیم مرورگر JVM را اضافه می کند

مراقبت و تغذیه برای هوش مصنوعی

در مجموع، توسعه‌دهندگان سه گزینه برای ثابت و باریک نگه داشتن هوش مصنوعی در طول فرآیند تولید دارند:

  1. فقط داده‌های آموزشی معتبر را به مدل هوش مصنوعی ارسال کنید.
  2. برای بررسی مجدد تصمیمات هوش مصنوعی و جلوگیری از انجام اقدامات نادرست و بالقوه خطرناک، فیلترهایی را اجرا کنید.
  3. یک مدل موازی ساخته شده توسط انسان اجرا کنید که تصمیمات هوش مصنوعی را با تصمیمات یک مدل مشابه و از قبل موجود که بر روی یک مجموعه داده آموزش دیده است مقایسه می کند.

با این حال، اگر توسعه دهندگان فراموش کنند داده ها و روش های یادگیری را با دقت انتخاب کنند و یک فرآیند تولید قابل اعتماد و تکرارپذیر برای مدل های هوش مصنوعی خود ایجاد کنند، هیچ یک از این گزینه ها کار نمی کند. مهم‌تر از همه، توسعه‌دهندگان باید بدانند که هیچ قانونی آنها را ملزم نمی‌کند که برنامه‌ها یا محصولات جدید خود را بر اساس هوش مصنوعی بسازند.

حتما از هوش طبیعی فراوان استفاده کنید و از خود بپرسید: “آیا هوش مصنوعی واقعا ضروری است؟” مهندسی هوشمند و فن‌آوری‌های کلاسیک ممکن است راه‌حلی بهتر، تمیزتر، قوی‌تر و شفاف‌تر ارائه دهند. در برخی موارد، بهتر است به طور کلی از هوش مصنوعی اجتناب کنید.

Michael Berthold is founding CEO at KNIME، یک شرکت پلت فرم تجزیه و تحلیل داده ها. وی دارای دکترای علوم کامپیوتر و بیش از ۲۵ سال تجربه در زمینه علم داده است. مایکل در دانشگاه کار کرده است، اخیراً به عنوان استاد تمام در دانشگاه کنستانز (آلمان) و قبلاً در دانشگاه کالیفرنیا در برکلی و در کارنگی ملون، و در صنعت در گروه شبکه عصبی اینتل، Utopy و Tripos. مایکل در مورد تجزیه و تحلیل داده ها، یادگیری ماشینی و هوش مصنوعی مطالب زیادی منتشر کرده است. با مایکل در LinkedIn و در KNIME .

New Tech Forum مکانی برای کاوش و بحث در مورد فناوری سازمانی نوظهور در عمق و وسعت بی سابقه ای فراهم می کند. انتخاب ذهنی است، بر اساس انتخاب ما از فناوری هایی که معتقدیم مهم هستند و برای خوانندگان InfoWorld بیشترین علاقه را دارند. InfoWorld وثیقه بازاریابی را برای انتشار نمی پذیرد و حق ویرایش تمام محتوای ارائه شده را برای خود محفوظ می دارد. همه سوالات را به newtechforum@infoworld.com ارسال کنید.