واضح است که هوش مصنوعی، از جمله هوش مصنوعی مولد، در دادگاه آزمایش خواهد شد. معماران ابر و هوش مصنوعی باید طراحی تدافعی و حکمرانی را تمرین کنند تا از دردسر در امان بمانند.
در یک حکم قانونی اخیر علیه ایر کانادا در یک دادگاه دعاوی کوچک، این شرکت هواپیمایی شکست خورد زیرا ربات چت مبتنی بر هوش مصنوعی آن اطلاعات نادرستی در مورد کرایه های سوگواری ارائه کرد. ربات چت پیشنهاد کرد که مسافر می تواند عطف به ماسبق برای کرایه سوگواری درخواست کند، علیرغم اینکه خط مشی نرخ کرایه های شرکت هواپیمایی مغایر با این اطلاعات است. اوف البته پیوند این سیاست در پاسخ چت بات ارائه شده است. با این حال، دادگاه متوجه شد که شرکت هواپیمایی توضیح نداده است که چرا مسافر نباید به اطلاعات ارائه شده توسط چت بات شرکت اعتماد کند.
این مورد توجه را به تقاطع هوش مصنوعی و مسئولیت قانونی جلب کرده است و نمونه ای قانع کننده از پیامدهای قانونی و مالی احتمالی اطلاعات غلط و سوگیری هوش مصنوعی است.
نوک کوه یخ
من متوجه شدهام که انسانها هوش مصنوعی را زیاد دوست ندارند—مطمئناً وقتی پاسخی میدهند که ممکن است با آن مخالف باشند. این می تواند به سادگی پرونده Air Canada، که در دادگاه دعاوی کوچک حل و فصل شد، یا به اندازه یک سوگیری سیستمی در یک مدل هوش مصنوعی که منافع نژادهای خاص را رد می کند، جدی باشد.
در پرونده Air Canada، دادگاه آن را یک مورد “تعریف نادرست سهل انگارانه” نامید، به این معنی که این شرکت هواپیمایی مراقبت معقولی برای اطمینان از صحت چت بات خود انجام نداده است. این حکم پیامدهای مهمی دارد و سؤالاتی را در مورد مسئولیت شرکت در قبال عملکرد سیستمهای مجهز به هوش مصنوعی ایجاد میکند، که در صورت زندگی در زیر سنگ، سریع و خشمگین میشوند.
همچنین، این حادثه آسیب پذیری ابزارهای هوش مصنوعی را در برابر عدم دقت برجسته می کند. این اغلب به دلیل دریافت داده های آموزشی است که دارای اطلاعات اشتباه یا مغرضانه است. این می تواند منجر به پیامدهای نامطلوب برای مشتریان شود که در تشخیص این مسائل و اطلاع رسانی به شرکت بسیار خوب عمل می کنند.
این مورد نیاز شرکتها به بازنگری در میزان تواناییهای هوش مصنوعی و قرار گرفتن در معرض احتمالی قانونی و مالی آنها را در معرض اطلاعات نادرست، که منجر به تصمیمگیریها و نتایج بد سیستمهای هوش مصنوعی میشود، برجسته میکند.
طراحی سیستم هوش مصنوعی را مانند اینکه در دادگاه شهادت می دهید، مرور کنید
چرا؟ زیرا این احتمال وجود دارد که شما باشید.
این را به دانشآموزانم میگویم زیرا واقعاً معتقدم که بسیاری از فراخوانهای طراحی و معماری که به ساخت و استقرار یک سیستم هوش مصنوعی مولد میپردازند، روزی چه در دادگاه حقوقی یا توسط دیگرانی که تلاش میکنند زیر سؤال خواهند رفت. برای تشخیص اینکه آیا مشکلی در نحوه عملکرد سیستم هوش مصنوعی وجود دارد یا خیر.
من به طور منظم مطمئن می شوم که باسنم با داده های آزمایش ردیابی و ثبت گزارش، از جمله تشخیص سوگیری و هر گونه توهم احتمالی که رخ دهد، پوشانده شده است. همچنین، آیا یک متخصص اخلاق هوش مصنوعی در تیم وجود دارد که سؤالات مناسب را در زمان مناسب بپرسد و بر آزمایش برای سوگیری و سایر مسائلی که ممکن است شما را به دادگاه بکشاند نظارت کند؟
آیا فقط سیستمهای genAI مشمول بررسی قانونی هستند؟ نه، نه واقعا. ما سال ها با مسئولیت نرم افزاری سروکار داشتیم. این تفاوتی ندارد آنچه متفاوت است شفافیت است. سیستم های هوش مصنوعی از طریق کد کار نمی کنند. آنها از طریق مدل های دانش ایجاد شده از یک تن از داده ها کار می کنند. در یافتن الگوها در این دادهها، آنها میتوانند به پاسخهای انسانی دست یابند و به یادگیری مداوم ادامه دهند.
این فرآیند به سیستم هوش مصنوعی اجازه میدهد تا نوآورانهتر شود، که خوب است. اما همچنین می تواند سوگیری و تصمیمات بد را بر اساس دریافت داده های آموزشی بد ایجاد کند. این مانند سیستمی است که هر روز خود را دوباره برنامه ریزی می کند و بر اساس آن برنامه ریزی مجدد، رویکردها و پاسخ های متفاوتی ارائه می دهد. گاهی اوقات خوب کار می کند و ارزش فوق العاده ای اضافه می کند. گاهی اوقات مانند ایر کانادا، پاسخ اشتباهی می دهد.
چگونه از خود و سازمانتان محافظت کنید
در ابتدا، باید طراحی دفاعی را تمرین کنید. هر مرحله از فرآیند طراحی و معماری، از جمله چرایی انتخاب فناوریها و پلتفرمها را مستند کنید.
همچنین، بهتر است آزمایش را مستند کنید، از جمله ممیزی برای سوگیری و اشتباهات. مهم نیست که آنها را پیدا کنید. آنها همیشه آنجا هستند آنچه مهم است توانایی شما در حذف آنها از مدلهای دانش یا مدلهای زبان بزرگ و مستندسازی آن فرآیند، از جمله هرگونه آزمایش مجددی است که باید انجام شود.
البته، و مهمتر از همه، باید هدف سیستم هوش مصنوعی را در نظر بگیرید. قرار است چه کار کند؟ چه مسائلی باید در نظر گرفته شود؟ چگونه در آینده تکامل خواهد یافت؟
ارزش این است که این موضوع را مطرح کنیم که آیا در وهله اول باید از هوش مصنوعی استفاده کنید. پیچیدگی های زیادی برای استفاده از هوش مصنوعی در فضای ابری یا داخلی وجود دارد، از جمله هزینه و ریسک بیشتر. شرکتها اغلب دچار مشکل میشوند، زیرا از هوش مصنوعی برای موارد استفاده اشتباه استفاده میکنند و در عوض باید از فناوریهای متعارفتری استفاده میکردند.
همه اینها شما را از دادگاه دور نمی کند. اما اگر این اتفاق بیفتد به شما کمک خواهد کرد.
پست های مرتبط
وقتی هوش مصنوعی ابری شما را به دادگاه میآورد
وقتی هوش مصنوعی ابری شما را به دادگاه میآورد
وقتی هوش مصنوعی ابری شما را به دادگاه میآورد