Modelops توسعه، آزمایش، استقرار و نظارت بر مدل یادگیری ماشین را بهبود می بخشد. این نکات را دنبال کنید تا خطرات مدل را کنترل کنید و کارایی و سودمندی ابتکارات ML خود را افزایش دهید.
فرض کنید تیمهای علم داده شرکت شما اهداف تجاری را برای حوزههایی که مدلهای تحلیلی و یادگیری ماشینی میتوانند تأثیرات تجاری داشته باشند، مستند کردهاند. اکنون آنها آماده شروع هستند. آنها مجموعه داده ها را برچسب گذاری کرده اند، فناوری های یادگیری ماشینی را انتخاب کرده اند و فرآیندی را برای توسعه مدل های یادگیری ماشین ایجاد کرده اند. آنها به زیرساخت های ابری مقیاس پذیر دسترسی دارند. آیا این برای نشان دادن چراغ سبز به تیم برای توسعه مدل های یادگیری ماشین و به کارگیری مدل های موفق در تولید کافی است؟
برخی از متخصصان یادگیری ماشین و هوش مصنوعی میگویند که خیلی سریع نیست که میدانند هر نوآوری و استقرار تولید با خطراتی همراه است که نیازمند بازبینی و استراتژیهای اصلاح است. آنها از ایجاد شیوه های مدیریت ریسک در مراحل اولیه توسعه و فرآیند علم داده حمایت می کنند. جان ویلر، مشاور ارشد ریسک و فناوری برای AuditBoard میگوید: «در حوزه علم داده یا هر فعالیت تجاری مشابه دیگری، نوآوری و مدیریت ریسک دو روی یک سکه هستند.
توسعه دهندگان نرم افزار با تشبیه یک قیاس با برنامه های کاربردی در حال توسعه، فقط کد را توسعه نمی دهند و آن را بدون در نظر گرفتن ریسک ها و بهترین شیوه ها در تولید به کار نمی برند. بیشتر سازمانها یک چرخه عمر توسعه نرمافزار (SDLC) ایجاد میکنند، روشهای devsecops را به چپ تغییر میدهند، و استانداردهای مشاهدهپذیری را برای اصلاح خطرات ایجاد میکنند. این شیوهها همچنین تضمین میکنند که تیمهای توسعه میتوانند پس از استقرار کد در تولید، آن را حفظ و بهبود بخشند.
معادل
SDLC در مدیریت مدل یادگیری ماشین modelops، مجموعه ای از اقدامات برای مدیریت چرخه زندگی مدل های یادگیری ماشین. روشهای Modelops شامل نحوه ایجاد، آزمایش و استقرار مدلهای یادگیری ماشین توسط دانشمندان داده برای تولید، و سپس نحوه نظارت و بهبود مدلهای ML توسط دانشمندان داده میشود تا از ارائه نتایج مورد انتظار مطمئن شوند.
مدیریت ریسک دسته وسیعی از مشکلات بالقوه و اصلاح آنها است، بنابراین من در این مقاله روی موارد مرتبط با مدلوپ ها و چرخه زندگی یادگیری ماشین تمرکز می کنم. سایر موضوعات مرتبط با مدیریت ریسک شامل کیفیت داده ها، حریم خصوصی داده ها و امنیت داده ها است. دانشمندان داده همچنین باید داده های آموزشی را برای سوگیری ها بررسی کنند a> و هوش مصنوعی مسئول و عوامل هوش مصنوعی اخلاقی.
در گفتگو با چندین متخصص، در زیر پنج حوزه مشکلساز وجود دارد که شیوهها و فنآوریهای مدلوپ میتوانند در اصلاح نقش داشته باشند.
ریسک ۱. توسعه مدل هایی بدون استراتژی مدیریت ریسک
در گزارش وضعیت Modelops 2022، بیش از ۶۰ درصد از رهبران شرکت های هوش مصنوعی گزارش دادند که مدیریت ریسک و رعایت مقررات چالش برانگیز است. دانشمندان داده عموماً در مدیریت ریسک متخصص نیستند و در شرکتها، اولین قدم باید مشارکت با رهبران مدیریت ریسک و توسعه استراتژی همسو با چرخه عمر مدلops باشد.
ویلر میگوید: «هدف نوآوری جستجوی روشهای بهتر برای دستیابی به یک نتیجه تجاری مطلوب است. برای دانشمندان داده، این اغلب به معنای ایجاد مدلهای داده جدید برای تصمیمگیری بهتر است. با این حال، بدون مدیریت ریسک، آن نتیجه مطلوب کسب و کار ممکن است هزینه بالایی داشته باشد. هنگام تلاش برای نوآوری، دانشمندان داده همچنین باید با درک و کاهش خطرات موجود در داده ها، به دنبال ایجاد مدل های داده قابل اعتماد و معتبر باشند.”
دو مقاله سفید برای کسب اطلاعات بیشتر در مورد مدیریت ریسک مدل از دومینو و ModelOp. دانشمندان داده همچنین باید شیوه های مشاهده پذیری داده را ایجاد کنند.< /p>
ریسک ۲. افزایش نگهداری با مدل های تکراری و اختصاصی دامنه
تیمهای علم داده همچنین باید استانداردهایی را در مورد مشکلات کسب و کار و نحوه تعمیم مدلهایی که در یک یا چند حوزه و حوزه تجاری کار میکنند ایجاد کنند. تیم های علم داده باید از ایجاد و نگهداری مدل های متعددی که مشکلات مشابه را حل می کنند اجتناب کنند. آنها به تکنیک های کارآمد برای آموزش مدل ها در حوزه های تجاری جدید نیاز دارند.
Srikumar Ramanathan، افسر ارشد راه حل در Mphasis، این چالش و تأثیر آن را تشخیص می دهد. او میگوید: «هر بار که دامنه تغییر میکند، مدلهای ML از ابتدا آموزش داده میشوند، حتی زمانی که از اصول یادگیری ماشین استاندارد استفاده میکنند.
راماناتان این اصلاح را ارائه می دهد. “با استفاده از یادگیری افزایشی، که در آن از داده های ورودی به طور مداوم برای توسعه مدل استفاده می کنیم، می توانیم مدل را برای حوزه های جدید با استفاده از منابع کمتر آموزش دهیم.”
یادگیری افزایشی تکنیکی برای آموزش مدلها بر روی دادههای جدید بهطور مداوم یا بر روی یک آهنگ تعریفشده است. نمونههایی از یادگیری افزایشی در AWS SageMaker، Azure Cognitive Search، Matlab، و رودخانه پایتون.. p>
خطر ۳. استقرار مدلهای بیش از حد برای ظرفیت تیم علم داده
چالش در حفظ مدلها فراتر از مراحل آموزش مجدد آنها یا اجرای یادگیری افزایشی است. کیل کارلسون، رئیس استراتژی علم داده و تبشیر در آزمایشگاه داده Domino، میگوید: «یک خطر فزاینده اما تا حد زیادی نادیده گرفته شده در توانایی مداوم تیمهای علم داده برای توسعه و استقرار مجدد مدلهایشان است.»
همانند نحوه اندازهگیری زمان چرخه ارائه و استقرار ویژگیها توسط تیمهای devops، دانشمندان داده میتوانند خود را اندازهگیری کنند. سرعت مدل.
کارلسون ریسک را توضیح میدهد و میگوید: «سرعت مدل معمولاً بسیار کمتر از حد مورد نیاز است و در نتیجه تعداد مدلهای با عملکرد ضعیف رو به افزایش است. همانطور که این مدلها به طور فزایندهای حیاتی میشوند و در سراسر شرکتها جاسازی میشوند – همراه با تغییرات شتابدهنده در رفتار مشتری و بازار – یک بمب ساعتی ایجاد میکند.
آیا جرأت میکنم به این موضوع برچسب بدهم مدل بدهم؟ همانطور که کارلسون پیشنهاد میکند، اندازهگیری سرعت مدل و تأثیرات تجاری مدلهای با عملکرد ضعیف، نقطه شروع کلیدی برای مدیریت این ریسک است.
تیم های علم داده باید متمرکز کردن یک کاتالوگ یا رجیستری مدل را در نظر بگیرند تا اعضای تیم از محدوده مدل های موجود، وضعیت آنها در چرخه عمر مدل ML و افرادی که مسئول مدیریت آن هستند، بدانند. قابلیتهای کاتالوگ و رجیستری مدل را میتوان در پلتفرمهای کاتالوگ دادهها، ابزارهای توسعه ML، و فناوریهای MLops و modelops یافت.
خطر ۴. گرفتار شدن در تنگنا توسط هیئت های بازبینی بوروکراتیک
فرض کنید تیم علم داده از استانداردها و بهترین شیوه های سازمان برای حاکمیت داده و مدل پیروی کرده است. آیا آنها بالاخره آماده استقرار یک مدل هستند؟
سازمانهای مدیریت ریسک ممکن است بخواهند هیئتهای بازبینی را ایجاد کنند تا اطمینان حاصل شود که تیمهای علم دادهها همه خطرات معقول را کاهش میدهند. زمانی که تیم های علم داده تازه شروع به استقرار مدل های یادگیری ماشینی در تولید و اتخاذ شیوه های مدیریت ریسک کرده اند، بررسی ریسک ممکن است معقول باشد. اما چه زمانی یک هیئت بازبینی ضروری است و اگر هیئت مدیره به گلوگاه تبدیل شود چه باید کرد؟
کریس لوئیز، مدیر راه حل ها و موفقیت در Monitaur، یک رویکرد جایگزین ارائه می دهد. “راه حلی بهتر از هیئت بازبینی اجرایی از بالا به پایین، پست فوری و سختگیرانه، ترکیبی از اصول حکمرانی صحیح، محصولات نرم افزاری منطبق با چرخه حیات علم داده و همسویی قوی ذینفعان در سراسر فرآیند حاکمیت است.”
لوئیز چندین توصیه در مورد فناوری های مدلوپ دارد. او میگوید: «این ابزار باید بهطور یکپارچه با چرخه حیات علم داده مطابقت داشته باشد، سرعت نوآوری را حفظ کند (و ترجیحاً افزایش دهد)، نیازهای ذینفعان را برآورده کند، و یک تجربه سلفسرویس برای سهامداران غیر فنی فراهم کند.
تکنولوژیهای Modelops که دارای قابلیتهای مدیریت ریسک هستند، شامل پلتفرمهایی از Datatron، Domino، Fiddler، MathWorks، ModelOp، Monitaur، RapidMiner، SAS، و TIBCO Software میشوند.
خطر ۵. عدم نظارت بر مدلها از نظر جابجایی دادهها و مسائل عملیاتی
وقتی درختی در جنگل می افتد، آیا کسی متوجه می شود؟ ما می دانیم که کد باید برای پشتیبانی از ارتقاء چارچوب، کتابخانه و زیرساخت حفظ شود. وقتی یک مدل ML ضعیف عمل می کند، آیا مانیتورها و گزارش های روند به تیم های علم داده هشدار می دهند؟
هیلاری اشتون، معاون اجرایی و مدیر محصول Teradata میگوید: «هر مدل AI/ML که تولید میشود تضمین میشود که در طول زمان به دلیل تغییر دادههای محیطهای کسبوکار پویا کاهش یابد.
اشتون توصیه میکند، «دانشمندان داده پس از تولید، میتوانند از مدلاپها استفاده کنند تا بهطور خودکار تشخیص دهند که مدلها چه زمانی شروع به تخریب میکنند (واکنشی از طریق رانش مفهومی) یا احتمالاً شروع به تخریب میکنند (فعال از طریق دریفت داده و تغییر کیفیت داده). آنها را می توان برای بررسی و انجام اقداماتی مانند آموزش مجدد (به روز کردن مدل)، بازنشستگی (مدل سازی کامل مورد نیاز) یا نادیده گرفتن (هشدار اشتباه) هشدار داد. در مورد بازآموزی، اصلاح میتواند کاملاً خودکار باشد.»
آنچه شما باید از این بررسی حذف کنید این است که تیم های دانشمند داده باید چرخه زندگی مدلوپ های خود را تعریف کنند و یک استراتژی مدیریت ریسک برای مراحل اصلی توسعه دهند. تیم های علم داده باید با افسران انطباق و ریسک خود همکاری کنند و از ابزارها و اتوماسیون برای متمرکز کردن کاتالوگ مدل، بهبود سرعت مدل و کاهش اثرات جابجایی داده ها استفاده کنند.
پست های مرتبط
۵ خطر هوش مصنوعی و یادگیری ماشینی که مدلاپ آن را اصلاح می کند
۵ خطر هوش مصنوعی و یادگیری ماشینی که مدلاپ آن را اصلاح می کند
۵ خطر هوش مصنوعی و یادگیری ماشینی که مدلاپ آن را اصلاح می کند