۲۹ شهریور ۱۴۰۳

Techboy

اخبار و اطلاعات روز تکنولوژی

۵ خطر هوش مصنوعی و یادگیری ماشینی که مدلاپ آن را اصلاح می کند

Modelops توسعه، آزمایش، استقرار و نظارت بر مدل یادگیری ماشین را بهبود می بخشد. این نکات را دنبال کنید تا خطرات مدل را کنترل کنید و کارایی و سودمندی ابتکارات ML خود را افزایش دهید.

Modelops توسعه، آزمایش، استقرار و نظارت بر مدل یادگیری ماشین را بهبود می بخشد. این نکات را دنبال کنید تا خطرات مدل را کنترل کنید و کارایی و سودمندی ابتکارات ML خود را افزایش دهید.

فرض کنید تیم‌های علم داده شرکت شما اهداف تجاری را برای حوزه‌هایی که مدل‌های تحلیلی و یادگیری ماشینی می‌توانند تأثیرات تجاری داشته باشند، مستند کرده‌اند. اکنون آنها آماده شروع هستند. آنها مجموعه داده ها را برچسب گذاری کرده اند، فناوری های یادگیری ماشینی را انتخاب کرده اند و فرآیندی را برای توسعه مدل های یادگیری ماشین ایجاد کرده اند. آنها به زیرساخت های ابری مقیاس پذیر دسترسی دارند. آیا این برای نشان دادن چراغ سبز به تیم برای توسعه مدل های یادگیری ماشین و به کارگیری مدل های موفق در تولید کافی است؟

برخی از متخصصان یادگیری ماشین و هوش مصنوعی می‌گویند که خیلی سریع نیست که می‌دانند هر نوآوری و استقرار تولید با خطراتی همراه است که نیازمند بازبینی و استراتژی‌های اصلاح است. آنها از ایجاد شیوه های مدیریت ریسک در مراحل اولیه توسعه و فرآیند علم داده حمایت می کنند. جان ویلر، مشاور ارشد ریسک و فناوری برای AuditBoard می‌گوید: «در حوزه علم داده یا هر فعالیت تجاری مشابه دیگری، نوآوری و مدیریت ریسک دو روی یک سکه هستند.

توسعه دهندگان نرم افزار با تشبیه یک قیاس با برنامه های کاربردی در حال توسعه، فقط کد را توسعه نمی دهند و آن را بدون در نظر گرفتن ریسک ها و بهترین شیوه ها در تولید به کار نمی برند. بیشتر سازمان‌ها یک چرخه عمر توسعه نرم‌افزار (SDLC) ایجاد می‌کنند، روش‌های devsecops را به چپ تغییر می‌دهند، و استانداردهای مشاهده‌پذیری را برای اصلاح خطرات ایجاد می‌کنند. این شیوه‌ها همچنین تضمین می‌کنند که تیم‌های توسعه می‌توانند پس از استقرار کد در تولید، آن را حفظ و بهبود بخشند.

معادل

SDLC در مدیریت مدل یادگیری ماشین modelops، مجموعه ای از اقدامات برای مدیریت چرخه زندگی مدل های یادگیری ماشین. روش‌های Modelops شامل نحوه ایجاد، آزمایش و استقرار مدل‌های یادگیری ماشین توسط دانشمندان داده برای تولید، و سپس نحوه نظارت و بهبود مدل‌های ML توسط دانشمندان داده می‌شود تا از ارائه نتایج مورد انتظار مطمئن شوند.

مدیریت ریسک دسته وسیعی از مشکلات بالقوه و اصلاح آنها است، بنابراین من در این مقاله روی موارد مرتبط با مدلوپ ها و چرخه زندگی یادگیری ماشین تمرکز می کنم. سایر موضوعات مرتبط با مدیریت ریسک شامل کیفیت داده ها، حریم خصوصی داده ها و امنیت داده ها است. دانشمندان داده همچنین باید داده های آموزشی را برای سوگیری ها بررسی کنند و هوش مصنوعی مسئول و عوامل هوش مصنوعی اخلاقی.

7 مرحله برای بهبود تجزیه و تحلیل برای سازمان های داده محور

در گفتگو با چندین متخصص، در زیر پنج حوزه مشکل‌ساز وجود دارد که شیوه‌ها و فن‌آوری‌های مدلوپ می‌توانند در اصلاح نقش داشته باشند.

ریسک ۱. توسعه مدل هایی بدون استراتژی مدیریت ریسک

در گزارش وضعیت Modelops 2022، بیش از ۶۰ درصد از رهبران شرکت های هوش مصنوعی گزارش دادند که مدیریت ریسک و رعایت مقررات چالش برانگیز است. دانشمندان داده عموماً در مدیریت ریسک متخصص نیستند و در شرکت‌ها، اولین قدم باید مشارکت با رهبران مدیریت ریسک و توسعه استراتژی همسو با چرخه عمر مدلops باشد.

ویلر می‌گوید: «هدف نوآوری جستجوی روش‌های بهتر برای دستیابی به یک نتیجه تجاری مطلوب است. برای دانشمندان داده، این اغلب به معنای ایجاد مدل‌های داده جدید برای تصمیم‌گیری بهتر است. با این حال، بدون مدیریت ریسک، آن نتیجه مطلوب کسب و کار ممکن است هزینه بالایی داشته باشد. هنگام تلاش برای نوآوری، دانشمندان داده همچنین باید با درک و کاهش خطرات موجود در داده ها، به دنبال ایجاد مدل های داده قابل اعتماد و معتبر باشند.”

دو مقاله سفید برای کسب اطلاعات بیشتر در مورد مدیریت ریسک مدل از دومینو و ModelOp. دانشمندان داده همچنین باید شیوه های مشاهده پذیری داده را ایجاد کنند.< /p>

ریسک ۲. افزایش نگهداری با مدل های تکراری و اختصاصی دامنه

تیم‌های علم داده همچنین باید استانداردهایی را در مورد مشکلات کسب و کار و نحوه تعمیم مدل‌هایی که در یک یا چند حوزه و حوزه تجاری کار می‌کنند ایجاد کنند. تیم های علم داده باید از ایجاد و نگهداری مدل های متعددی که مشکلات مشابه را حل می کنند اجتناب کنند. آنها به تکنیک های کارآمد برای آموزش مدل ها در حوزه های تجاری جدید نیاز دارند.

Srikumar Ramanathan، افسر ارشد راه حل در Mphasis، این چالش و تأثیر آن را تشخیص می دهد. او می‌گوید: «هر بار که دامنه تغییر می‌کند، مدل‌های ML از ابتدا آموزش داده می‌شوند، حتی زمانی که از اصول یادگیری ماشین استاندارد استفاده می‌کنند.

راماناتان این اصلاح را ارائه می دهد. “با استفاده از یادگیری افزایشی، که در آن از داده های ورودی به طور مداوم برای توسعه مدل استفاده می کنیم، می توانیم مدل را برای حوزه های جدید با استفاده از منابع کمتر آموزش دهیم.”

DuckDB: پایگاه داده تحلیلی کوچک اما قدرتمند

یادگیری افزایشی تکنیکی برای آموزش مدل‌ها بر روی داده‌های جدید به‌طور مداوم یا بر روی یک آهنگ تعریف‌شده است. نمونه‌هایی از یادگیری افزایشی در AWS SageMaker، Azure Cognitive Search، Matlab، و رودخانه پایتون.. p>

خطر ۳. استقرار مدل‌های بیش از حد برای ظرفیت تیم علم داده

چالش در حفظ مدل‌ها فراتر از مراحل آموزش مجدد آنها یا اجرای یادگیری افزایشی است. کیل کارلسون، رئیس استراتژی علم داده و تبشیر در آزمایشگاه داده Domino، می‌گوید: «یک خطر فزاینده اما تا حد زیادی نادیده گرفته شده در توانایی مداوم تیم‌های علم داده برای توسعه و استقرار مجدد مدل‌هایشان است.»

همانند نحوه اندازه‌گیری زمان چرخه ارائه و استقرار ویژگی‌ها توسط تیم‌های devops، دانشمندان داده می‌توانند خود را اندازه‌گیری کنند. سرعت مدل.

کارلسون ریسک را توضیح می‌دهد و می‌گوید: «سرعت مدل معمولاً بسیار کمتر از حد مورد نیاز است و در نتیجه تعداد مدل‌های با عملکرد ضعیف رو به افزایش است. همانطور که این مدل‌ها به طور فزاینده‌ای حیاتی می‌شوند و در سراسر شرکت‌ها جاسازی می‌شوند – همراه با تغییرات شتاب‌دهنده در رفتار مشتری و بازار – یک بمب ساعتی ایجاد می‌کند.

آیا جرأت می‌کنم به این موضوع برچسب بدهم مدل بدهم؟ همانطور که کارلسون پیشنهاد می‌کند، اندازه‌گیری سرعت مدل و تأثیرات تجاری مدل‌های با عملکرد ضعیف، نقطه شروع کلیدی برای مدیریت این ریسک است.

تیم های علم داده باید متمرکز کردن یک کاتالوگ یا رجیستری مدل را در نظر بگیرند تا اعضای تیم از محدوده مدل های موجود، وضعیت آنها در چرخه عمر مدل ML و افرادی که مسئول مدیریت آن هستند، بدانند. قابلیت‌های کاتالوگ و رجیستری مدل را می‌توان در پلتفرم‌های کاتالوگ داده‌ها، ابزارهای توسعه ML، و فناوری‌های MLops و modelops یافت.

خطر ۴. گرفتار شدن در تنگنا توسط هیئت های بازبینی بوروکراتیک

فرض کنید تیم علم داده از استانداردها و بهترین شیوه های سازمان برای حاکمیت داده و مدل پیروی کرده است. آیا آنها بالاخره آماده استقرار یک مدل هستند؟

سازمان‌های مدیریت ریسک ممکن است بخواهند هیئت‌های بازبینی را ایجاد کنند تا اطمینان حاصل شود که تیم‌های علم داده‌ها همه خطرات معقول را کاهش می‌دهند. زمانی که تیم های علم داده تازه شروع به استقرار مدل های یادگیری ماشینی در تولید و اتخاذ شیوه های مدیریت ریسک کرده اند، بررسی ریسک ممکن است معقول باشد. اما چه زمانی یک هیئت بازبینی ضروری است و اگر هیئت مدیره به گلوگاه تبدیل شود چه باید کرد؟

بررسی Dremio Cloud: یک خانه داده سریع و انعطاف پذیر در AWS

کریس لوئیز، مدیر راه حل ها و موفقیت در Monitaur، یک رویکرد جایگزین ارائه می دهد. “راه حلی بهتر از هیئت بازبینی اجرایی از بالا به پایین، پست فوری و سختگیرانه، ترکیبی از اصول حکمرانی صحیح، محصولات نرم افزاری منطبق با چرخه حیات علم داده و همسویی قوی ذینفعان در سراسر فرآیند حاکمیت است.”

لوئیز چندین توصیه در مورد فناوری های مدلوپ دارد. او می‌گوید: «این ابزار باید به‌طور یکپارچه با چرخه حیات علم داده مطابقت داشته باشد، سرعت نوآوری را حفظ کند (و ترجیحاً افزایش دهد)، نیازهای ذینفعان را برآورده کند، و یک تجربه سلف‌سرویس برای سهامداران غیر فنی فراهم کند.

تکنولوژی‌های Modelops که دارای قابلیت‌های مدیریت ریسک هستند، شامل پلتفرم‌هایی از Datatron، Domino، Fiddler، MathWorks، ModelOp، Monitaur، RapidMiner، SAS، و TIBCO Software می‌شوند.

خطر ۵. عدم نظارت بر مدل‌ها از نظر جابجایی داده‌ها و مسائل عملیاتی

وقتی درختی در جنگل می افتد، آیا کسی متوجه می شود؟ ما می دانیم که کد باید برای پشتیبانی از ارتقاء چارچوب، کتابخانه و زیرساخت حفظ شود. وقتی یک مدل ML ضعیف عمل می کند، آیا مانیتورها و گزارش های روند به تیم های علم داده هشدار می دهند؟

هیلاری اشتون، معاون اجرایی و مدیر محصول Teradata می‌گوید: «هر مدل AI/ML که تولید می‌شود تضمین می‌شود که در طول زمان به دلیل تغییر داده‌های محیط‌های کسب‌وکار پویا کاهش یابد.

اشتون توصیه می‌کند، «دانشمندان داده پس از تولید، می‌توانند از مدل‌اپ‌ها استفاده کنند تا به‌طور خودکار تشخیص دهند که مدل‌ها چه زمانی شروع به تخریب می‌کنند (واکنشی از طریق رانش مفهومی) یا احتمالاً شروع به تخریب می‌کنند (فعال از طریق دریفت داده و تغییر کیفیت داده). آنها را می توان برای بررسی و انجام اقداماتی مانند آموزش مجدد (به روز کردن مدل)، بازنشستگی (مدل سازی کامل مورد نیاز) یا نادیده گرفتن (هشدار اشتباه) هشدار داد. در مورد بازآموزی، اصلاح می‌تواند کاملاً خودکار باشد.»

آنچه شما باید از این بررسی حذف کنید این است که تیم های دانشمند داده باید چرخه زندگی مدلوپ های خود را تعریف کنند و یک استراتژی مدیریت ریسک برای مراحل اصلی توسعه دهند. تیم های علم داده باید با افسران انطباق و ریسک خود همکاری کنند و از ابزارها و اتوماسیون برای متمرکز کردن کاتالوگ مدل، بهبود سرعت مدل و کاهش اثرات جابجایی داده ها استفاده کنند.