۳۰ آذر ۱۴۰۳

Techboy

اخبار و اطلاعات روز تکنولوژی

تغییر در چشم انداز یادگیری ماشین

مدل‌های هوش مصنوعی که از داده‌ها در جایی که وجود دارد به جای متمرکز کردن آن استفاده می‌کنند، به حریم خصوصی و اقدامات امنیتی قوی‌تری نیاز دارند. معرفی چارچوب RoPPFL.

مدل‌های هوش مصنوعی که از داده‌ها در جایی که وجود دارد به جای متمرکز کردن آن استفاده می‌کنند، به حریم خصوصی و اقدامات امنیتی قوی‌تری نیاز دارند. معرفی چارچوب RoPPFL.

یادگیری فدرال نقطه عطفی در تقویت آموزش هوش مصنوعی مدل مشترک است. این روش رویکرد اصلی را به یادگیری ماشینی تغییر می‌دهد و از روش‌های آموزشی متمرکز سنتی به سمت روش‌های غیرمتمرکزتر دور می‌شود. داده ها پراکنده هستند و ما باید از آنها به عنوان داده های آموزشی در جایی که وجود دارد استفاده کنیم.

این پارادایم چیز جدیدی نیست. در دهه ۱۹۹۰ داشتم با آن بازی می کردم. آنچه قدیمی است دوباره جدید است… دوباره. یادگیری فدرال امکان آموزش مشترک مدل های یادگیری ماشین را در چندین دستگاه یا سرور فراهم می کند و از داده های جمعی آنها بدون نیاز به تبادل یا متمرکز کردن آنها استفاده می کند. چرا باید اهمیت بدی؟ امنیت و حریم خصوصی، به همین دلیل است.

در اینجا اصول اصلی یادگیری فدرال آمده است:

  • تمرکززدایی داده ها: برخلاف روش های مرسوم که نیاز به متمرکز بودن داده ها دارند، یادگیری فدرال مدل را در منبع داده توزیع می کند، بنابراین از داده ها در جایی که وجود دارد استفاده می کند. به عنوان مثال، اگر داده‌ها را روی یک ربات شکست‌دهنده برای نظارت بر عملیات نگهداری می‌کنیم، نیازی به انتقال آن داده‌ها به مخزن داده متمرکز نیست. ما آن را مستقیماً از ربات استفاده می کنیم. (این یک مورد استفاده واقعی برای من است.)
  • حفظ حریم خصوصی: یادگیری فدرال حریم خصوصی کاربر را با طراحی افزایش می‌دهد زیرا داده‌ها در دستگاه‌های کاربران مانند تلفن‌ها، تبلت‌ها، رایانه‌ها، خودروها یا ساعت‌های هوشمند باقی می‌مانند. این امر قرار گرفتن در معرض اطلاعات حساس را به حداقل می‌رساند زیرا ما مستقیماً از دستگاه به مدل هوش مصنوعی می‌رویم.
  • یادگیری مشارکتی: یک مدل به طور طبیعی می تواند از مجموعه داده های مختلف در دستگاه ها یا سرورهای مختلف یاد بگیرد.
  • استفاده کارآمد از داده: یادگیری فدرال به ویژه برای حوزه های مشکل با داده های عظیم، توزیع شده یا حساس مفید است. استفاده از داده‌های موجود را با رعایت سیاست‌های حفظ حریم خصوصی که در مجموعه داده‌های توزیع‌شده خاص بومی هستند، بهینه می‌کند.
Snowflake برای به دست آوردن LeapYear برای تقویت توانایی های اتاق تمیز داده ها

این عوامل برای هوش مصنوعی مفید هستند و امنیت و حریم خصوصی بهتری را ارائه می‌دهند. همچنین، ما داده‌های یکسانی را در دو مکان مختلف ذخیره نمی‌کنیم، که امروزه در ساختن سیستم‌های هوش مصنوعی جدید، مانند هوش مصنوعی مولد، رایج است.

چارچوب RoPPFL

یادگیری فدرال چشم انداز امیدوارکننده آموزش مدل مشارکتی را در چندین دستگاه یا سرور بدون نیاز به متمرکز کردن داده ها ارائه می دهد. با این حال، همچنان نگرانی‌های امنیتی و حریم خصوصی وجود دارد، در درجه اول خطر نشت حریم خصوصی مجموعه داده‌های محلی و تهدید حملات مسموم‌سازی مدل هوش مصنوعی توسط مشتریان مخرب.

چه چیزی ما را نجات خواهد داد؟ طبیعتاً وقتی مشکل جدیدی پیش می‌آید، باید راه‌حل‌های منحصربه‌فردی با نام‌ها و کلمات اختصاری جالب ایجاد کنیم. اجازه دهید شما را با یادگیری فدرال قوی و حفظ حریم خصوصی (RoPPFL) معرفی کنم ) چارچوب، راه حلی برای رسیدگی به چالش های ذاتی مرتبط با یادگیری فدرال در محاسبات لبه.

New Relic قابلیت مشاهده تمام پشته سازمانی را گسترش می دهد تا MLO ها را نیز در بر گیرد

چارچوب RoPPFL ترکیبی از حریم خصوصی دیفرانسیل محلی (LDP) و تکنیک‌های تجمع وزنی قوی (RoWA) مبتنی بر شباهت را معرفی می‌کند. LDP از حریم خصوصی داده ها با اضافه کردن نویز کالیبره شده به به روز رسانی مدل محافظت می کند. این امر استنتاج نقاط داده فردی را برای مهاجمان بسیار دشوار می کند، که یک حمله امنیتی رایج علیه سیستم های هوش مصنوعی است.

RoWA با جمع‌آوری به‌روزرسانی‌های مدل بر اساس شباهت، انعطاف‌پذیری سیستم را در برابر حملات مسموم‌سازی افزایش می‌دهد و تأثیر هرگونه مداخله مخرب را کاهش می‌دهد. RoPPFL از یک ساختار یادگیری فدرال سلسله مراتبی استفاده می کند. این ساختار فرآیند آموزش مدل را در لایه‌های مختلف سازماندهی می‌کند، از جمله سرور ابری، نودهای لبه، و دستگاه‌های مشتری (مانند تلفن‌های هوشمند).

حریم خصوصی و امنیت بهبود یافته

RoPPFL نشان دهنده گامی در جهت درست برای یک معمار ابری است که باید همیشه با این موارد سر و کار داشته باشد. همچنین، این روزها ۸۰ درصد از کار من هوش مصنوعی مولد است، به همین دلیل است که آن را مطرح می‌کنم، حتی اگر یک اصطلاح آکادمیک مرزی است.

این مدل چالش‌های همزمان امنیت و حریم خصوصی، از جمله استفاده از دستگاه‌های لبه، مانند تلفن‌های هوشمند و سایر دستگاه‌های شخصی را به‌عنوان منابع داده‌های آموزشی برای سیستم‌های هوش مصنوعی تشنه داده، بررسی می‌کند. این مدل می‌تواند حریم خصوصی دیفرانسیل محلی را با مکانیزم تجمع منحصربه‌فرد ترکیب کند. چارچوب RoPPFL راه را برای پارادایم آموزشی مدل مشارکتی هموار می کند تا وجود داشته باشد و بدون به خطر انداختن حفاظت از داده ها و حریم خصوصی، که با استفاده از هوش مصنوعی بسیار در خطر است، پیشرفت کند.

کدام ابر برای شما مناسب است؟

نویسندگان مقاله ای که در بالا به آن اشاره کردم نیز خالق چارچوب هستند. بنابراین، اگر علاقه مند به کسب اطلاعات بیشتر در مورد این موضوع هستید، حتما آن را بخوانید.

این را مطرح می‌کنم زیرا اگر می‌خواهیم سیستم‌های هوش مصنوعی را طراحی، بسازیم و به کار ببریم که داده‌های ما را برای صبحانه می‌خورند، باید به روش‌های هوشمندانه‌تری برای انجام کارها فکر کنیم. ما باید بفهمیم که چگونه این سیستم‌های هوش مصنوعی (چه در فضای ابری یا نه) را به روش‌هایی بسازیم که آسیبی به آنها وارد نشود.

با توجه به شرایط کنونی که شرکت‌ها ابتدا سیستم‌های هوش مصنوعی مولد را برپا می‌کنند و بعداً سؤالات مهم را می‌پرسند، ما به تفکر دقیق‌تری در مورد چگونگی ساخت، استقرار و ایمن کردن این راه‌حل‌ها نیاز داریم تا به روش‌های رایج تبدیل شوند. در حال حاضر، شرط می بندم بسیاری از شما که در حال ساخت سیستم های هوش مصنوعی با استفاده از داده های توزیع شده هستید، هرگز نام این چارچوب را نشنیده اید. این یکی از بسیاری از ایده‌های فعلی و آینده است که باید درک کنید.