کلید بهره مندی از مزایای هوش مصنوعی و در عین حال به حداقل رساندن خطرات از طریق توسعه و استفاده مسئولانه است. در اینجا آمده است که چگونه SAS Viya شیوه های هوش مصنوعی اخلاقی را به کار می گیرد.
از آنجایی که استفاده از مدلهای هوش مصنوعی قویتر به رشد خود ادامه میدهد، اطمینان از اعتماد و مسئولیتپذیری باید در صدر فهرست اهداف باشد، همتراز با هر یک از مزایای بالقوه هوش مصنوعی. این یک شبه اتفاق نمیافتد و از هیچ مرحلهای مانند کد بهتر، مقررات دولتی یا تعهدات صادقانه توسعهدهندگان هوش مصنوعی ناشی نمیشود. این امر مستلزم یک تغییر فرهنگی اساسی در طول زمان است که شامل افراد، فرآیندها و فناوری میشود و به همکاری و همکاری گسترده بین توسعهدهندگان و کاربران نیاز دارد.
با وجود هرگونه تردید در مورد کاستی های هوش مصنوعی، رهبران کسب و کار نمی توانند مزایای آن را نادیده بگیرند. Gartner دریافت که ۷۹% از استراتژیست های شرکتی معتقدند که موفقیت آنها در دو سال آینده به شدت به استفاده آنها از داده ها و هوش مصنوعی بستگی دارد. استفاده روزافزون از هوش مصنوعی اجتناب ناپذیر است. ظهور هوش مصنوعی مولد به طور خاص یک ذهنیت طلایی را ایجاد کرده است که ناشی از ترس از قرار گرفتن در یک نقطه ضعف رقابتی است – که منجر به سر و صدای قابل توجه و بیاحتیاطی بالقوه میشود زیرا شرکتها خود را در حلقه پیشنهادات هوش مصنوعی قرار میدهند. برای توسعه دهندگان و رهبران فناوری که قصد دارند هوش مصنوعی را به اکوسیستم خود اضافه کنند، چندین دام وجود دارد که ارزش بررسی قبل از انتخاب راه حل را دارد. خوشبختانه، تماس ها برای استفاده مسئولانه نیز در حال افزایش است.
با قدرت زیاد ریسک بزرگی به همراه دارد
با همه ارزشش، هوش مصنوعی اشتباه می کند. با رهبران فناوری اطلاعات که فقط در مورد ۱۵% از ۵۰% برنامه ریزی و اجرای استراتژیک فعالیتهایی که میتوانند تا حدی یا کاملاً خودکار باشند، که بخش عظیمی از فرآیندهای تجاری را برای پیادهسازی هوش مصنوعی در دسترس میگذارد. اگر حتی یک بخش از هوش مصنوعی کسب و کار با داده های آموزشی تصادفی آموزش داده شود، احتمالاً آن بخش سوگیری یا توهم نشان می دهد. در حالی که مسائلی مانند سوگیری و توهم به خوبی مستند شدهاند، حتی فرآیندهای به ظاهر خوشخیم خودکار شده با مدلهای هوش مصنوعی میتوانند سودآوری را به دلیل عدم دقت، دید ناکافی به متغیرهای تأثیرگذار، یا دادههای آموزشی ناچیز کاهش دهند.
یکی دیگر از مشکلاتی که اغلب در مورد هوش مصنوعی مورد بحث قرار میگیرد، عدم شفافیت در عملکرد داخلی مدلهای هوش مصنوعی است که منجر به راهحلهای «جعبه سیاه» میشود که تحلیلگران را قادر به درک چگونگی نتیجهگیری نمیکند. به گفته مک کینزی، تلاش برای توسعه هوش مصنوعی قابل توضیح هنوز نتایج زیادی به بار نیاورده است. مک کینزی همچنین نشان داد که شرکتهایی که بیشترین بازدهی را از هوش مصنوعی میبینند – آنهایی که حداقل ۲۰٪ از درآمد قبل از مالیات را به استفاده از هوش مصنوعی نسبت میدهند – بیشتر از سایرین از بهترین شیوههایی پیروی میکنند که قابلیت توضیح را فراهم میکند. به طور متفاوتی گفته شد: هر چه ریسک مالی بیشتر باشد، احتمال بیشتری وجود دارد که یک شرکت به دنبال شفافیت در مدل سازی هوش مصنوعی خود باشد. رویکرد SAS برای کارتهای مدل راهحلی برای این مشکل ارائه میدهد و مدیران و توسعهدهندگان را به طور یکسان قادر میسازد تا سلامت مدل را ارزیابی کنند.
دولتها در سراسر جهان نیز به دنبال راههایی برای تنظیم توسعه و استفاده از هوش مصنوعی هستند. کاخ سفید یک دستور اجرایی در اکتبر گذشته در مورد شناسایی استانداردهای ایمنی و امنیتی برای توسعه هوش مصنوعی، و درخواست تعهدات داوطلبانه از شرکت های پیشرو هوش مصنوعی برای پیگیری توسعه مسئولانه هوش مصنوعی همچنین یک طرح اولیه منشور حقوق هوش مصنوعی صادر کرده است. حفاظت از حریم خصوصی و سایر حقوق مدنی قانون هوش مصنوعی اتحادیه اروپا اخیراً هنگامی که اعضا متن را پس از توافق به اتفاق آرا روی مفاد نهایی کردند، آخرین مانع خود را برطرف کرد. قانون هوش مصنوعی اتحادیه اروپا یکی از اولین تلاش های جامع برای تنظیم AI. همچنین، SAS یکی از بیش از ۲۰۰ سازمانی بود که به کنسرسیوم مؤسسه ایمنی هوش مصنوعی مؤسسه ملی استاندارد و فناوری (NIST) وزارت بازرگانی ملحق شد که در ماه فوریه راه اندازی شد. کنسرسیوم از توسعه و استقرار هوش مصنوعی قابل اعتماد و ایمن پشتیبانی می کند.
مقررات به تنهایی کافی نخواهد بود زیرا اغلب از توسعه سریع فناوری های جدید هوش مصنوعی عقب می مانند. مقررات میتوانند یک چارچوب کلی و نردههای محافظ برای توسعه و استفاده از هوش مصنوعی ارائه دهند، اما حفظ این چارچوب نیازمند تعهد و همکاری گسترده بین توسعهدهندگان و کاربران هوش مصنوعی است. در همین حال، دولت هایی مانند ایالات متحده نیز می توانند از قدرت خرید قابل توجه خود برای تعیین استانداردها و انتظارات عملی برای رفتار اخلاقی استفاده کنند.
استفاده مسئولانه از هوش مصنوعی از گروه به بالا ساخته شده است
اطمینان از استفاده اخلاقی از هوش مصنوعی قبل از استقرار یک مدل – در واقع، حتی قبل از نوشتن یک خط کد شروع می شود. تمرکز بر روی اخلاق باید از زمانی که یک ایده تصور می شود وجود داشته باشد و از طریق فرآیند تحقیق و توسعه، آزمایش و استقرار ادامه یابد، و باید شامل نظارت جامع پس از بکارگیری مدل ها باشد. اخلاق باید به اندازه داده های با کیفیت بالا برای هوش مصنوعی ضروری باشد.
این می تواند با آموزش سازمان ها و رهبران فناوری آنها در مورد شیوه های هوش مصنوعی مسئول شروع شود. بنابراین بسیاری از پیامدهای منفی که در اینجا به آنها اشاره شده است صرفاً از عدم آگاهی از خطرات ناشی می شود. اگر متخصصان فناوری اطلاعات به طور منظم از تکنیک های تحقیق اخلاقی استفاده کنند، آسیب ناخواسته ای که برخی از مدل ها ایجاد می کنند به طور چشمگیری کاهش می یابد.
بالا بردن سطح سواد هوش مصنوعی در میان مصرف کنندگان نیز مهم است. عموم مردم باید درک پایه ای از چیستی هوش مصنوعی و نحوه استفاده از داده ها و همچنین درک فرصت ها و خطرات داشته باشند، اگرچه این وظیفه رهبری فناوری است که مطمئن شود اخلاق هوش مصنوعی رعایت می شود./ قوی>
چگونه SAS Viya رویه های اخلاقی را به کار می گیرد
برای اطمینان از اینکه هوش مصنوعی به شیوهای قابل اعتماد و اخلاقی عمل میکند، شرکتها باید مشارکت با دادهها و سازمانهای هوش مصنوعی را در نظر بگیرند که هم نوآوری و هم شفافیت را در اولویت قرار میدهند. در مورد SAS، اکوسیستم SAS Viya ما یک اکوسیستم بومی ابری و بالا است. هوش مصنوعی و پلتفرم تحلیلی عملکردی که به راحتی با زبانهای منبع باز ادغام میشود و به کاربران یک رابط کد، بدون کد برای کار میدهد. SAS Viya میتواند مدلها را سریعتر بسازد و مقیاسهای بیشتری بسازد و یک میلیارد نقطه داده را به یک دیدگاه واضح و قابل توضیح تبدیل کند.
SAS Viya چگونه برخی از مشکلات پیش روی استقرار هوش مصنوعی را حل می کند؟ ابتدا، این پلتفرم بر اساس تعهد SAS به نوآوری مسئول، که به پیشنهادات آن نیز ترجمه می شود. در سال ۲۰۱۹، SAS سرمایه گذاری ۱ میلیارد دلاری در هوش مصنوعی را اعلام کرد که مقدار قابل توجهی از آن برای اولین بار در فضای ابری Viya و افزودن پردازش زبان طبیعی و بینایی کامپیوتری به پلتفرم اختصاص یافت. . این افزودنیها به شرکتها کمک میکنند تا دادههای خود را تجزیه، سازماندهی و تجزیه و تحلیل کنند.
از آنجایی که ساخت یک مدل هوش مصنوعی قابل اعتماد مستلزم مجموعه ای قوی از داده های آموزشی است، SAS Viya مجهز به پردازش، آماده سازی، یکپارچه سازی، مدیریت، تجسم و گزارش دهی قوی است. توسعه محصول توسط SAS Data Ethics Practice (DEP) هدایت میشود، تیمی متقابل که تلاشها را برای ارتقای ایدهآلهای توسعه اخلاقی – از جمله محوریت انسانی و برابری – در سیستمهای داده محور هماهنگ میکند. DEP شامل دانشمندان داده و متخصصان توسعه کسب و کار است که با توسعه دهندگان کار می کنند، ویژگی های جدید را ارزیابی می کنند و در مورد راه حل هایی که ممکن است خطرات بیشتری را در بر داشته باشد، مانند راه حل هایی مانند خدمات مالی، مراقبت های بهداشتی و دولتی مشاوره می کنند. علاوه بر اصول اخلاقی، Viya برای نقشه برداری از عمودی ها ساخته شده است، با قابلیت استفاده و شفافیت در خط مقدم طراحی.
قابلیت های پلتفرم SAS Viya
پلتفرم Viya شامل قابلیتهای فنی است که برای اطمینان از هوش مصنوعی قابل اعتماد طراحی شده است، از جمله تشخیص سوگیری، قابلیت توضیح، قابلیت حسابرسی تصمیم، نظارت بر مدل، حاکمیت و پاسخگویی. برای مثال، سوگیری در برنامههای هوش مصنوعی و همچنین در تعدادی از سیاستهای عمومی موذیانه است و تعصبات و تعصبات در جامعه بشری را منعکس و تداوم میبخشد. در هوش مصنوعی، می تواند نتایج را منحرف کند، یک گروه را بر گروه دیگر ترجیح دهد و منجر به نتایج ناعادلانه شود. اما آموزش مدلهای هوش مصنوعی بر روی دادههای بهتر و جامعتر میتواند به حذف سوگیری کمک کند—و SAS Viya با مجموعه دادههای پیچیده بهترین عملکرد را دارد.
SAS Viya از اقتصادسنجی و پیشبینی هوشمند استفاده میکند و به رهبران فناوری اطلاعات اجازه میدهد تا سناریوهای تجاری پیچیده را بر اساس مقادیر زیادی از دادههای مشاهدهای یا منتسب مدلسازی و شبیهسازی کنند. برای بررسی کیفیت داده ها و نتایج واقعی یک مدل هوش مصنوعی خاص، یک مدیر فناوری فقط باید نرم افزار پیش بینی را در SAS Viya اجرا کند تا نتایج را ببیند. یکی دیگر از محافظان این پلتفرم، ویژگیهای تصمیمگیری آن است که میتواند به متخصصان فناوری اطلاعات کمک کند تا در زمان واقعی به نتایج مدلسازی واکنش نشان دهند. با استفاده از فرآیندهای تصمیمگیری ساخته شده با یک رابط گرافیکی با کشیدن و رها کردن یا کد نوشته شده، توسعهدهندگان میتوانند مخازن متمرکزی برای دادهها، مدلها و قوانین تجاری ایجاد کنند تا دقت و شفافیت را تضمین کنند. قوانین کسب و کار سفارشی که توسط یک انسان در SAS Viya نوشته شده است، منجر به استقرار سریعتر و اطمینان به یکپارچگی تصمیمات عملیاتی مبتنی بر مدل می شود.
چند نمونه از نحوه استفاده از Viya برای بهبود عملکرد سازمانها:
- مرکز محلههای نیویورک و SAS برای تجزیه و تحلیل نابرابریها در دادههای مسکن شهر شریک شدند و نابرابریها را در ارزش خانه، وامهای خرید و گزارشهای تخلفات نگهداری و تعمیرات آشکار کردند که رنگین پوستان را در مضیقه قرار میدهد.
- SAS و مرکز پزشکی دانشگاه آمستردام یک مدل یادگیری عمیق SAS Viya را آموزش دادند تا فوراً ویژگیهای تومور را شناسایی کند و اطلاعات حیاتی را با پزشکان برای تسریع در تشخیص و کمک به تعیین بهترین استراتژیهای درمانی به اشتراک بگذارد.
- دانشگاه مشترک المنافع ویرجینیا از Viya برای خودکارسازی فرآیندهای مدیریت دادههای دستی، زمانبر، تحلیلی و تجسم دادهها برای سرعت بخشیدن به تحقیقات در مورد نرخ بالاتر مرگومیر سرطان در میان جمعیتهای کم درآمد و آسیبپذیر استفاده میکند.
هوش مصنوعی پتانسیل تغییر اقتصاد و نیروی کار جهانی را دارد. می تواند کارهای روتین را خودکار کند، بهره وری و کارایی را بهبود بخشد و انسان ها را برای انجام کارهای با هدف بالاتر آزاد کند. هوش مصنوعی به دستیابی به پیشرفت هایی در مراقبت های بهداشتی، علوم زیستی، کشاورزی و سایر زمینه های تحقیقاتی کمک کرده است. فقط قابل اعتمادترین مدل های هوش مصنوعی، آنهایی که شفافیت و مسئولیت پذیری را در اولویت قرار می دهند، مسئول این نوع پیشرفت ها در آینده خواهند بود. برای یک پلتفرم مانند ویا کافی نیست که هوش مصنوعی مسئول را به درستی دریافت کند – باید در کل صنعت باشد، وگرنه همه ما شکست می خوریم.
هوش مصنوعی قابل اعتماد نیازمند یک رویکرد واحد است
برای قضاوت از افراطیترین پیشبینیهای تأثیر بالقوهاش، هوش مصنوعی نشاندهنده طلوع یک عصر جدید یا پایان جهان است. واقعیت در وسط قرار دارد – هوش مصنوعی مزایای انقلابی دارد اما خطرات قابل توجهی نیز دارد. کلید بهره مندی از منافع و در عین حال به حداقل رساندن خطرات از طریق توسعه و استفاده مسئولانه و اخلاقی است.
به تیمهای متقابل کارکردی در صنعت و ابتکارات فرابخشی شامل صنعت، دولت، دانشگاه و عموم نیاز دارد. این به معنای مشارکت غیرتکنولوژیست هایی است که خطرات جمعیت های آسیب پذیر را درک می کنند. این به معنای استفاده از فناوری هایی مانند SAS Viya است که به سازمان ها کمک می کند تا به اهداف هوش مصنوعی مسئول خود برسند. این نیاز به مقررات متفکرانه ای دارد که نرده های محافظ ثابتی ایجاد کند، از شهروندان محافظت کند و نوآوری را تحریک کند.
اما بالاتر از همه، هوش مصنوعی مسئول و قابل اعتماد از ما میخواهد که پیشرفتهای هوش مصنوعی را بهطور اخلاقی دنبال کنیم، با یک دیدگاه مشترک برای کاهش آسیب و کمک به پیشرفت افراد.
رجی تاونسند نایب رئیس بخش اخلاق داده در SAS است.
—
Generative AI Insights مکانی را برای رهبران فناوری – از جمله فروشندگان و سایر مشارکتکنندگان خارجی – فراهم میکند تا چالشها و فرصتهای هوش مصنوعی مولد را بررسی و بحث کنند. این انتخاب گسترده است، از غواصی عمیق فناوری گرفته تا مطالعات موردی گرفته تا نظرات متخصص، اما همچنین ذهنی است، بر اساس قضاوت ما در مورد اینکه کدام موضوعات و درمان ها به بهترین وجه به مخاطبان فنی پیشرفته InfoWorld خدمت می کنند. InfoWorld وثیقه بازاریابی را برای انتشار نمی پذیرد و حق ویرایش تمام محتوای ارائه شده را برای خود محفوظ می دارد. تماس با doug_dineley@foundryco.com a>.
پست های مرتبط
SAS Viya و پیگیری هوش مصنوعی قابل اعتماد
SAS Viya و پیگیری هوش مصنوعی قابل اعتماد
SAS Viya و پیگیری هوش مصنوعی قابل اعتماد