۲۹ شهریور ۱۴۰۳

Techboy

اخبار و اطلاعات روز تکنولوژی

SAS Viya و پیگیری هوش مصنوعی قابل اعتماد

کلید بهره مندی از مزایای هوش مصنوعی و در عین حال به حداقل رساندن خطرات از طریق توسعه و استفاده مسئولانه است. در اینجا آمده است که چگونه SAS Viya شیوه های هوش مصنوعی اخلاقی را به کار می گیرد.

کلید بهره مندی از مزایای هوش مصنوعی و در عین حال به حداقل رساندن خطرات از طریق توسعه و استفاده مسئولانه است. در اینجا آمده است که چگونه SAS Viya شیوه های هوش مصنوعی اخلاقی را به کار می گیرد.

از آنجایی که استفاده از مدل‌های هوش مصنوعی قوی‌تر به رشد خود ادامه می‌دهد، اطمینان از اعتماد و مسئولیت‌پذیری باید در صدر فهرست اهداف باشد، همتراز با هر یک از مزایای بالقوه هوش مصنوعی. این یک شبه اتفاق نمی‌افتد و از هیچ مرحله‌ای مانند کد بهتر، مقررات دولتی یا تعهدات صادقانه توسعه‌دهندگان هوش مصنوعی ناشی نمی‌شود. این امر مستلزم یک تغییر فرهنگی اساسی در طول زمان است که شامل افراد، فرآیندها و فناوری می‌شود و به همکاری و همکاری گسترده بین توسعه‌دهندگان و کاربران نیاز دارد.

با وجود هرگونه تردید در مورد کاستی های هوش مصنوعی، رهبران کسب و کار نمی توانند مزایای آن را نادیده بگیرند. Gartner دریافت که ۷۹% از استراتژیست های شرکتی معتقدند که موفقیت آنها در دو سال آینده به شدت به استفاده آنها از داده ها و هوش مصنوعی بستگی دارد. استفاده روزافزون از هوش مصنوعی اجتناب ناپذیر است. ظهور هوش مصنوعی مولد به طور خاص یک ذهنیت طلایی را ایجاد کرده است که ناشی از ترس از قرار گرفتن در یک نقطه ضعف رقابتی است – که منجر به سر و صدای قابل توجه و بی‌احتیاطی بالقوه می‌شود زیرا شرکت‌ها خود را در حلقه پیشنهادات هوش مصنوعی قرار می‌دهند. برای توسعه دهندگان و رهبران فناوری که قصد دارند هوش مصنوعی را به اکوسیستم خود اضافه کنند، چندین دام وجود دارد که ارزش بررسی قبل از انتخاب راه حل را دارد. خوشبختانه، تماس ها برای استفاده مسئولانه نیز در حال افزایش است.

با قدرت زیاد ریسک بزرگی به همراه دارد

با همه ارزشش، هوش مصنوعی اشتباه می کند. با رهبران فناوری اطلاعات که فقط در مورد ۱۵% از ۵۰% برنامه ریزی و اجرای استراتژیک فعالیت‌هایی که می‌توانند تا حدی یا کاملاً خودکار باشند، که بخش عظیمی از فرآیندهای تجاری را برای پیاده‌سازی هوش مصنوعی در دسترس می‌گذارد. اگر حتی یک بخش از هوش مصنوعی کسب و کار با داده های آموزشی تصادفی آموزش داده شود، احتمالاً آن بخش سوگیری یا توهم نشان می دهد. در حالی که مسائلی مانند سوگیری و توهم به خوبی مستند شده‌اند، حتی فرآیندهای به ظاهر خوش‌خیم خودکار شده با مدل‌های هوش مصنوعی می‌توانند سودآوری را به دلیل عدم دقت، دید ناکافی به متغیرهای تأثیرگذار، یا داده‌های آموزشی ناچیز کاهش دهند.

یکی دیگر از مشکلاتی که اغلب در مورد هوش مصنوعی مورد بحث قرار می‌گیرد، عدم شفافیت در عملکرد داخلی مدل‌های هوش مصنوعی است که منجر به راه‌حل‌های «جعبه سیاه» می‌شود که تحلیلگران را قادر به درک چگونگی نتیجه‌گیری نمی‌کند. به گفته مک کینزی، تلاش برای توسعه هوش مصنوعی قابل توضیح هنوز نتایج زیادی به بار نیاورده است. مک کینزی همچنین نشان داد که شرکت‌هایی که بیشترین بازدهی را از هوش مصنوعی می‌بینند – آنهایی که حداقل ۲۰٪ از درآمد قبل از مالیات را به استفاده از هوش مصنوعی نسبت می‌دهند – بیشتر از سایرین از بهترین شیوه‌هایی پیروی می‌کنند که قابلیت توضیح را فراهم می‌کند. به طور متفاوتی گفته شد: هر چه ریسک مالی بیشتر باشد، احتمال بیشتری وجود دارد که یک شرکت به دنبال شفافیت در مدل سازی هوش مصنوعی خود باشد. رویکرد SAS برای کارت‌های مدل راه‌حلی برای این مشکل ارائه می‌دهد و مدیران و توسعه‌دهندگان را به طور یکسان قادر می‌سازد تا سلامت مدل را ارزیابی کنند.

نقشه راه شغلی: رئیس مهندسی

دولت‌ها در سراسر جهان نیز به دنبال راه‌هایی برای تنظیم توسعه و استفاده از هوش مصنوعی هستند. کاخ سفید یک دستور اجرایی در اکتبر گذشته در مورد شناسایی استانداردهای ایمنی و امنیتی برای توسعه هوش مصنوعی، و درخواست تعهدات داوطلبانه از شرکت های پیشرو هوش مصنوعی برای پیگیری توسعه مسئولانه هوش مصنوعی همچنین یک طرح اولیه منشور حقوق هوش مصنوعی صادر کرده است. حفاظت از حریم خصوصی و سایر حقوق مدنی قانون هوش مصنوعی اتحادیه اروپا اخیراً هنگامی که اعضا متن را پس از توافق به اتفاق آرا روی مفاد نهایی کردند، آخرین مانع خود را برطرف کرد. قانون هوش مصنوعی اتحادیه اروپا یکی از اولین تلاش های جامع برای تنظیم AI. همچنین، SAS یکی از بیش از ۲۰۰ سازمانی بود که به کنسرسیوم مؤسسه ایمنی هوش مصنوعی مؤسسه ملی استاندارد و فناوری (NIST) وزارت بازرگانی ملحق شد که در ماه فوریه راه اندازی شد. کنسرسیوم از توسعه و استقرار هوش مصنوعی قابل اعتماد و ایمن پشتیبانی می کند.

مقررات به تنهایی کافی نخواهد بود زیرا اغلب از توسعه سریع فناوری های جدید هوش مصنوعی عقب می مانند. مقررات می‌توانند یک چارچوب کلی و نرده‌های محافظ برای توسعه و استفاده از هوش مصنوعی ارائه دهند، اما حفظ این چارچوب نیازمند تعهد و همکاری گسترده بین توسعه‌دهندگان و کاربران هوش مصنوعی است. در همین حال، دولت هایی مانند ایالات متحده نیز می توانند از قدرت خرید قابل توجه خود برای تعیین استانداردها و انتظارات عملی برای رفتار اخلاقی استفاده کنند.

استفاده مسئولانه از هوش مصنوعی از گروه به بالا ساخته شده است

اطمینان از استفاده اخلاقی از هوش مصنوعی قبل از استقرار یک مدل – در واقع، حتی قبل از نوشتن یک خط کد شروع می شود. تمرکز بر روی اخلاق باید از زمانی که یک ایده تصور می شود وجود داشته باشد و از طریق فرآیند تحقیق و توسعه، آزمایش و استقرار ادامه یابد، و باید شامل نظارت جامع پس از بکارگیری مدل ها باشد. اخلاق باید به اندازه داده های با کیفیت بالا برای هوش مصنوعی ضروری باشد.

این می تواند با آموزش سازمان ها و رهبران فناوری آنها در مورد شیوه های هوش مصنوعی مسئول شروع شود. بنابراین بسیاری از پیامدهای منفی که در اینجا به آنها اشاره شده است صرفاً از عدم آگاهی از خطرات ناشی می شود. اگر متخصصان فناوری اطلاعات به طور منظم از تکنیک های تحقیق اخلاقی استفاده کنند، آسیب ناخواسته ای که برخی از مدل ها ایجاد می کنند به طور چشمگیری کاهش می یابد.

بالا بردن سطح سواد هوش مصنوعی در میان مصرف کنندگان نیز مهم است. عموم مردم باید درک پایه ای از چیستی هوش مصنوعی و نحوه استفاده از داده ها و همچنین درک فرصت ها و خطرات داشته باشند، اگرچه این وظیفه رهبری فناوری است که مطمئن شود اخلاق هوش مصنوعی رعایت می شود.

چگونه SAS Viya رویه های اخلاقی را به کار می گیرد

برای اطمینان از اینکه هوش مصنوعی به شیوه‌ای قابل اعتماد و اخلاقی عمل می‌کند، شرکت‌ها باید مشارکت با داده‌ها و سازمان‌های هوش مصنوعی را در نظر بگیرند که هم نوآوری و هم شفافیت را در اولویت قرار می‌دهند. در مورد SAS، اکوسیستم SAS Viya ما یک اکوسیستم بومی ابری و بالا است. هوش مصنوعی و پلتفرم تحلیلی عملکردی که به راحتی با زبان‌های منبع باز ادغام می‌شود و به کاربران یک رابط کد، بدون کد برای کار می‌دهد. SAS Viya می‌تواند مدل‌ها را سریع‌تر بسازد و مقیاس‌های بیشتری بسازد و یک میلیارد نقطه داده را به یک دیدگاه واضح و قابل توضیح تبدیل کند.

ویژوال استودیو کد فرمان صوتی «Hey Code» را اضافه می کند

SAS Viya چگونه برخی از مشکلات پیش روی استقرار هوش مصنوعی را حل می کند؟ ابتدا، این پلتفرم بر اساس تعهد SAS به نوآوری مسئول، که به پیشنهادات آن نیز ترجمه می شود. در سال ۲۰۱۹، SAS سرمایه گذاری ۱ میلیارد دلاری در هوش مصنوعی را اعلام کرد که مقدار قابل توجهی از آن برای اولین بار در فضای ابری Viya و افزودن پردازش زبان طبیعی و بینایی کامپیوتری به پلتفرم اختصاص یافت. . این افزودنی‌ها به شرکت‌ها کمک می‌کنند تا داده‌های خود را تجزیه، سازماندهی و تجزیه و تحلیل کنند.

از آنجایی که ساخت یک مدل هوش مصنوعی قابل اعتماد مستلزم مجموعه ای قوی از داده های آموزشی است، SAS Viya مجهز به پردازش، آماده سازی، یکپارچه سازی، مدیریت، تجسم و گزارش دهی قوی است. توسعه محصول توسط SAS Data Ethics Practice (DEP) هدایت می‌شود، تیمی متقابل که تلاش‌ها را برای ارتقای ایده‌آل‌های توسعه اخلاقی – از جمله محوریت انسانی و برابری – در سیستم‌های داده محور هماهنگ می‌کند. DEP شامل دانشمندان داده و متخصصان توسعه کسب و کار است که با توسعه دهندگان کار می کنند، ویژگی های جدید را ارزیابی می کنند و در مورد راه حل هایی که ممکن است خطرات بیشتری را در بر داشته باشد، مانند راه حل هایی مانند خدمات مالی، مراقبت های بهداشتی و دولتی مشاوره می کنند. علاوه بر اصول اخلاقی، Viya برای نقشه برداری از عمودی ها ساخته شده است، با قابلیت استفاده و شفافیت در خط مقدم طراحی.

قابلیت های پلتفرم SAS Viya

پلتفرم Viya شامل قابلیت‌های فنی است که برای اطمینان از هوش مصنوعی قابل اعتماد طراحی شده است، از جمله تشخیص سوگیری، قابلیت توضیح، قابلیت حسابرسی تصمیم، نظارت بر مدل، حاکمیت و پاسخگویی. برای مثال، سوگیری در برنامه‌های هوش مصنوعی و همچنین در تعدادی از سیاست‌های عمومی موذیانه است و تعصبات و تعصبات در جامعه بشری را منعکس و تداوم می‌بخشد. در هوش مصنوعی، می تواند نتایج را منحرف کند، یک گروه را بر گروه دیگر ترجیح دهد و منجر به نتایج ناعادلانه شود. اما آموزش مدل‌های هوش مصنوعی بر روی داده‌های بهتر و جامع‌تر می‌تواند به حذف سوگیری کمک کند—و SAS Viya با مجموعه داده‌های پیچیده بهترین عملکرد را دارد.

SAS Viya از اقتصادسنجی و پیش‌بینی هوشمند استفاده می‌کند و به رهبران فناوری اطلاعات اجازه می‌دهد تا سناریوهای تجاری پیچیده را بر اساس مقادیر زیادی از داده‌های مشاهده‌ای یا منتسب مدل‌سازی و شبیه‌سازی کنند. برای بررسی کیفیت داده ها و نتایج واقعی یک مدل هوش مصنوعی خاص، یک مدیر فناوری فقط باید نرم افزار پیش بینی را در SAS Viya اجرا کند تا نتایج را ببیند. یکی دیگر از محافظان این پلتفرم، ویژگی‌های تصمیم‌گیری آن است که می‌تواند به متخصصان فناوری اطلاعات کمک کند تا در زمان واقعی به نتایج مدل‌سازی واکنش نشان دهند. با استفاده از فرآیندهای تصمیم‌گیری ساخته شده با یک رابط گرافیکی با کشیدن و رها کردن یا کد نوشته شده، توسعه‌دهندگان می‌توانند مخازن متمرکزی برای داده‌ها، مدل‌ها و قوانین تجاری ایجاد کنند تا دقت و شفافیت را تضمین کنند. قوانین کسب و کار سفارشی که توسط یک انسان در SAS Viya نوشته شده است، منجر به استقرار سریعتر و اطمینان به یکپارچگی تصمیمات عملیاتی مبتنی بر مدل می شود.

بهترین شیوه‌ها برای قابلیت مشاهده

چند نمونه از نحوه استفاده از Viya برای بهبود عملکرد سازمان‌ها:

  • مرکز محله‌های نیویورک و SAS برای تجزیه و تحلیل نابرابری‌ها در داده‌های مسکن شهر شریک شدند و نابرابری‌ها را در ارزش خانه، وام‌های خرید و گزارش‌های تخلفات نگهداری و تعمیرات آشکار کردند که رنگین پوستان را در مضیقه قرار می‌دهد.
  • SAS و مرکز پزشکی دانشگاه آمستردام یک مدل یادگیری عمیق SAS Viya را آموزش دادند تا فوراً ویژگی‌های تومور را شناسایی کند و اطلاعات حیاتی را با پزشکان برای تسریع در تشخیص و کمک به تعیین بهترین استراتژی‌های درمانی به اشتراک بگذارد.
  • دانشگاه مشترک المنافع ویرجینیا از Viya برای خودکارسازی فرآیندهای مدیریت داده‌های دستی، زمان‌بر، تحلیلی و تجسم داده‌ها برای سرعت بخشیدن به تحقیقات در مورد نرخ بالاتر مرگ‌ومیر سرطان در میان جمعیت‌های کم درآمد و آسیب‌پذیر استفاده می‌کند.

هوش مصنوعی پتانسیل تغییر اقتصاد و نیروی کار جهانی را دارد. می تواند کارهای روتین را خودکار کند، بهره وری و کارایی را بهبود بخشد و انسان ها را برای انجام کارهای با هدف بالاتر آزاد کند. هوش مصنوعی به دستیابی به پیشرفت هایی در مراقبت های بهداشتی، علوم زیستی، کشاورزی و سایر زمینه های تحقیقاتی کمک کرده است. فقط قابل اعتمادترین مدل های هوش مصنوعی، آنهایی که شفافیت و مسئولیت پذیری را در اولویت قرار می دهند، مسئول این نوع پیشرفت ها در آینده خواهند بود. برای یک پلتفرم مانند ویا کافی نیست که هوش مصنوعی مسئول را به درستی دریافت کند – باید در کل صنعت باشد، وگرنه همه ما شکست می خوریم.

هوش مصنوعی قابل اعتماد نیازمند یک رویکرد واحد است

برای قضاوت از افراطی‌ترین پیش‌بینی‌های تأثیر بالقوه‌اش، هوش مصنوعی نشان‌دهنده طلوع یک عصر جدید یا پایان جهان است. واقعیت در وسط قرار دارد – هوش مصنوعی مزایای انقلابی دارد اما خطرات قابل توجهی نیز دارد. کلید بهره مندی از منافع و در عین حال به حداقل رساندن خطرات از طریق توسعه و استفاده مسئولانه و اخلاقی است.

به تیم‌های متقابل کارکردی در صنعت و ابتکارات فرابخشی شامل صنعت، دولت، دانشگاه و عموم نیاز دارد. این به معنای مشارکت غیرتکنولوژیست هایی است که خطرات جمعیت های آسیب پذیر را درک می کنند. این به معنای استفاده از فناوری هایی مانند SAS Viya است که به سازمان ها کمک می کند تا به اهداف هوش مصنوعی مسئول خود برسند. این نیاز به مقررات متفکرانه ای دارد که نرده های محافظ ثابتی ایجاد کند، از شهروندان محافظت کند و نوآوری را تحریک کند.

اما بالاتر از همه، هوش مصنوعی مسئول و قابل اعتماد از ما می‌خواهد که پیشرفت‌های هوش مصنوعی را به‌طور اخلاقی دنبال کنیم، با یک دیدگاه مشترک برای کاهش آسیب و کمک به پیشرفت افراد.

رجی تاون‌سند نایب رئیس بخش اخلاق داده در SAS است.

Generative AI Insights مکانی را برای رهبران فناوری – از جمله فروشندگان و سایر مشارکت‌کنندگان خارجی – فراهم می‌کند تا چالش‌ها و فرصت‌های هوش مصنوعی مولد را بررسی و بحث کنند. این انتخاب گسترده است، از غواصی عمیق فناوری گرفته تا مطالعات موردی گرفته تا نظرات متخصص، اما همچنین ذهنی است، بر اساس قضاوت ما در مورد اینکه کدام موضوعات و درمان ها به بهترین وجه به مخاطبان فنی پیشرفته InfoWorld خدمت می کنند. InfoWorld وثیقه بازاریابی را برای انتشار نمی پذیرد و حق ویرایش تمام محتوای ارائه شده را برای خود محفوظ می دارد. تماس با doug_dineley@foundryco.com.