۳۰ آذر ۱۴۰۳

Techboy

اخبار و اطلاعات روز تکنولوژی

وقتی هوش مصنوعی ابری شما را به دادگاه می‌آورد

واضح است که هوش مصنوعی، از جمله هوش مصنوعی مولد، در دادگاه آزمایش خواهد شد. معماران ابر و هوش مصنوعی باید طراحی تدافعی و حکمرانی را تمرین کنند تا از دردسر در امان بمانند.

واضح است که هوش مصنوعی، از جمله هوش مصنوعی مولد، در دادگاه آزمایش خواهد شد. معماران ابر و هوش مصنوعی باید طراحی تدافعی و حکمرانی را تمرین کنند تا از دردسر در امان بمانند.

در یک حکم قانونی اخیر علیه ایر کانادا در یک دادگاه دعاوی کوچک، این شرکت هواپیمایی شکست خورد زیرا ربات چت مبتنی بر هوش مصنوعی آن اطلاعات نادرستی در مورد کرایه های سوگواری ارائه کرد. ربات چت پیشنهاد کرد که مسافر می تواند عطف به ماسبق برای کرایه سوگواری درخواست کند، علیرغم اینکه خط مشی نرخ کرایه های شرکت هواپیمایی مغایر با این اطلاعات است. اوف البته پیوند این سیاست در پاسخ چت بات ارائه شده است. با این حال، دادگاه متوجه شد که شرکت هواپیمایی توضیح نداده است که چرا مسافر نباید به اطلاعات ارائه شده توسط چت بات شرکت اعتماد کند.

این مورد توجه را به تقاطع هوش مصنوعی و مسئولیت قانونی جلب کرده است و نمونه ای قانع کننده از پیامدهای قانونی و مالی احتمالی اطلاعات غلط و سوگیری هوش مصنوعی است.

نوک کوه یخ

من متوجه شده‌ام که انسان‌ها هوش مصنوعی را زیاد دوست ندارند—مطمئناً وقتی پاسخی می‌دهند که ممکن است با آن مخالف باشند. این می تواند به سادگی پرونده Air Canada، که در دادگاه دعاوی کوچک حل و فصل شد، یا به اندازه یک سوگیری سیستمی در یک مدل هوش مصنوعی که منافع نژادهای خاص را رد می کند، جدی باشد.

12 روش برای کاهش هزینه های ابری

در پرونده Air Canada، دادگاه آن را یک مورد “تعریف نادرست سهل انگارانه” نامید، به این معنی که این شرکت هواپیمایی مراقبت معقولی برای اطمینان از صحت چت بات خود انجام نداده است. این حکم پیامدهای مهمی دارد و سؤالاتی را در مورد مسئولیت شرکت در قبال عملکرد سیستم‌های مجهز به هوش مصنوعی ایجاد می‌کند، که در صورت زندگی در زیر سنگ، سریع و خشمگین می‌شوند.

همچنین، این حادثه آسیب پذیری ابزارهای هوش مصنوعی را در برابر عدم دقت برجسته می کند. این اغلب به دلیل دریافت داده های آموزشی است که دارای اطلاعات اشتباه یا مغرضانه است. این می تواند منجر به پیامدهای نامطلوب برای مشتریان شود که در تشخیص این مسائل و اطلاع رسانی به شرکت بسیار خوب عمل می کنند.

این مورد نیاز شرکت‌ها به بازنگری در میزان توانایی‌های هوش مصنوعی و قرار گرفتن در معرض احتمالی قانونی و مالی آنها را در معرض اطلاعات نادرست، که منجر به تصمیم‌گیری‌ها و نتایج بد سیستم‌های هوش مصنوعی می‌شود، برجسته می‌کند.

طراحی سیستم هوش مصنوعی را مانند اینکه در دادگاه شهادت می دهید، مرور کنید

چرا؟ زیرا این احتمال وجود دارد که شما باشید.

این را به دانش‌آموزانم می‌گویم زیرا واقعاً معتقدم که بسیاری از فراخوان‌های طراحی و معماری که به ساخت و استقرار یک سیستم هوش مصنوعی مولد می‌پردازند، روزی چه در دادگاه حقوقی یا توسط دیگرانی که تلاش می‌کنند زیر سؤال خواهند رفت. برای تشخیص اینکه آیا مشکلی در نحوه عملکرد سیستم هوش مصنوعی وجود دارد یا خیر.

همه در رایانش ابری برای یافتن یک استراتژی genAI عجله دارند

من به طور منظم مطمئن می شوم که باسنم با داده های آزمایش ردیابی و ثبت گزارش، از جمله تشخیص سوگیری و هر گونه توهم احتمالی که رخ دهد، پوشانده شده است. همچنین، آیا یک متخصص اخلاق هوش مصنوعی در تیم وجود دارد که سؤالات مناسب را در زمان مناسب بپرسد و بر آزمایش برای سوگیری و سایر مسائلی که ممکن است شما را به دادگاه بکشاند نظارت کند؟

آیا فقط سیستم‌های genAI مشمول بررسی قانونی هستند؟ نه، نه واقعا. ما سال ها با مسئولیت نرم افزاری سروکار داشتیم. این تفاوتی ندارد آنچه متفاوت است شفافیت است. سیستم های هوش مصنوعی از طریق کد کار نمی کنند. آنها از طریق مدل های دانش ایجاد شده از یک تن از داده ها کار می کنند. در یافتن الگوها در این داده‌ها، آنها می‌توانند به پاسخ‌های انسانی دست یابند و به یادگیری مداوم ادامه دهند.

این فرآیند به سیستم هوش مصنوعی اجازه می‌دهد تا نوآورانه‌تر شود، که خوب است. اما همچنین می تواند سوگیری و تصمیمات بد را بر اساس دریافت داده های آموزشی بد ایجاد کند. این مانند سیستمی است که هر روز خود را دوباره برنامه ریزی می کند و بر اساس آن برنامه ریزی مجدد، رویکردها و پاسخ های متفاوتی ارائه می دهد. گاهی اوقات خوب کار می کند و ارزش فوق العاده ای اضافه می کند. گاهی اوقات مانند ایر کانادا، پاسخ اشتباهی می دهد.

کوانتیزاسیون مدل و طلوع هوش مصنوعی لبه

چگونه از خود و سازمانتان محافظت کنید

در ابتدا، باید طراحی دفاعی را تمرین کنید. هر مرحله از فرآیند طراحی و معماری، از جمله چرایی انتخاب فناوری‌ها و پلتفرم‌ها را مستند کنید.

همچنین، بهتر است آزمایش را مستند کنید، از جمله ممیزی برای سوگیری و اشتباهات. مهم نیست که آنها را پیدا کنید. آنها همیشه آنجا هستند آنچه مهم است توانایی شما در حذف آن‌ها از مدل‌های دانش یا مدل‌های زبان بزرگ و مستندسازی آن فرآیند، از جمله هرگونه آزمایش مجددی است که باید انجام شود.

البته، و مهمتر از همه، باید هدف سیستم هوش مصنوعی را در نظر بگیرید. قرار است چه کار کند؟ چه مسائلی باید در نظر گرفته شود؟ چگونه در آینده تکامل خواهد یافت؟

ارزش این است که این موضوع را مطرح کنیم که آیا در وهله اول باید از هوش مصنوعی استفاده کنید. پیچیدگی های زیادی برای استفاده از هوش مصنوعی در فضای ابری یا داخلی وجود دارد، از جمله هزینه و ریسک بیشتر. شرکت‌ها اغلب دچار مشکل می‌شوند، زیرا از هوش مصنوعی برای موارد استفاده اشتباه استفاده می‌کنند و در عوض باید از فناوری‌های متعارف‌تری استفاده می‌کردند.

همه اینها شما را از دادگاه دور نمی کند. اما اگر این اتفاق بیفتد به شما کمک خواهد کرد.