محیط توسعه هوش مصنوعی مایکروسافت برای دسکتاپ که در یک پیشنمایش اولیه موجود است، به شما امکان میدهد مدلهای زبانی کوچکی بسازید که روی رایانههای شخصی و دستگاههای تلفن همراه اجرا شوند.
مایکروسافت از بخشهای متمرکز بر توسعهدهنده رویداد Ignite 2023 خود استفاده کرد برای معرفی مجموعه ای از ابزارهای توسعه هوش مصنوعی. Azure AI Studio با استفاده از مدلهای Azure OpenAI یا مدلهای دیگر از توسعه هوش مصنوعی در مقیاس بزرگ برای برنامههای میزبانی ابری پشتیبانی میکند، در حالی که Copilot Studio قدرت قدیمیتر را گسترش میدهد. ابزارهای هوش مصنوعی با کد پایین Virtual Agents با “تقویت”های مبتنی بر OpenAI
مایکروسافت ابزار سومی را نیز اعلام کرد، اما مدتی طول کشید تا آن را روی رایانههای شخصی توسعهدهندگان قرار دهند. این ابزار Windows AI Studio است، اکنون در یک پیش نمایش. بیایید نگاهی بیندازیم.
معرفی Windows AI Studio
Windows AI Studio قصد دارد کتابخانه مدلهای هوش مصنوعی مایکروسافت و شرکای آن را با استفاده از پردازندههای گرافیکی در حال حاضر اما در نهایت از شتابدهندههای هوش مصنوعی مانند Arm و NPUهای اینتل در آخرین سختافزار سرفیس مایکروسافت، به رایانههای شخصی بیاورد. این NPU ها برای اولین بار در Surface Laptop Studio 2 که من این ستون را روی آن می نویسم تحویل داده شدند. با پشتیبانی DirectML از NPUهای یکپارچه اینتل در این دستگاهها و سایر دستگاهها که در اوایل سال ۲۰۲۴ عرضه میشوند، این گزینه باید ثابت شود برای توسعه دهندگان و سایر کاربران جذاب باشد.
Windows AI Studio برای کمک به آموزش و سفارشی کردن مدلها طراحی شده است و آنها را برای استفاده در کد خود آماده میکند. پس از آموزش، میتوانید مدلها را با استفاده از ONNX (Open Neural Network Exchange) زمان اجرا بین پلتفرمی برای استفاده در دسکتاپ تبدیل به اجرا کنید. و اپلیکیشن های موبایل Windows AI Studio که به عنوان یک افزونه Visual Studio Code ارائه میشود، به شما این امکان را میدهد که ابزارهای مختلف و مدلهای هوش مصنوعی را در یک مکان بیاورید و در کنار بقیه ابزارهای خود کار کنید، بنابراین میتوانید همزمان مدلها را اصلاح کنید. همانطور که آنها را در برنامه های NET.
بسازید
Windows AI Studio ترکیبی جالب از ابزارهای ویندوز و لینوکس را ارائه میکند که هم در CPU و هم GPU شما کار میکند و از زیر سیستم Windows برای لینوکس (WSL) برای میزبانی و اجرای مدلها استفاده میکند. این رویکردی است که سختافزار توانمندی را با حافظه فراوان و پردازنده گرافیکی جدید میطلبد. شما نمیتوانید بدون یک GPU مجزا از Windows AI Studio استفاده کنید، که میتواند یک کارت درجه یک ایستگاه کاری یا یک GPU خارجی باشد که از طریق اتصال Thunderbolt کار میکند.
نصب و پیش نیازهای Windows AI Studio
Windows AI Studio برای نصب به اندازه کافی ساده است. شما آن را از بازار ویژوال استودیو، جایی که دستورالعمل های شروع سریع را نیز خواهید یافت. توجه داشته باشید که بهطور پیشفرض نمای Visual Studio Marketplace در Visual Studio Code برای نصب نسخههای انتشار تنظیم شده است، بنابراین ممکن است لازم باشد نمای را به نسخههای قبل از انتشار تغییر دهید. هنگامی که آن تغییر را انجام دادید، دانلود سریع و آسان است.
چند پیش نیاز مهم وجود دارد. شما به GPU انویدیا و WSL نیاز دارید که حداقل نسخه اوبونتو ۱۸.۴ را به عنوان لینوکس پیش فرض اجرا کند. پس از نصب Windows AI Studio، پشتیبانی Conda و CUDA را در محیط WSL شما بررسی میکند تا بتواند از GPU استفاده کند. اگر آنها نصب نشده باشند، Windows AI Studio یک گزینه با یک کلیک برای اطمینان از درست بودن همه کتابخانههای پیشنیاز ارائه میدهد.
این از گزینه های سرور راه دور Visual Studio Code برای بارگیری و اجرای اسکریپت نصب استفاده می کند. اگر می خواهید آن را در حال کار ببینید، ترمینال داخلی Visual Studio Code را باز کنید و به نمای خروجی آن بروید. نصب ممکن است کمی طول بکشد، زیرا کتابخانه های مربوطه را دانلود و نصب می کند. انتظار میرود حداقل پنج دقیقه طول بکشد و اگر رایانه شخصی قدیمیتری دارید، خیلی بیشتر طول بکشد. مستندات استودیو هوش مصنوعی Windows در حال حاضر فقط در GitHub است. Microsoft Learn فقط یک صفحه نگهدارنده مکان را نشان می دهد.
اولین مدل شما در Windows AI Studio
Windows AI Studio پس از نصب، یک نماد تراشه مانند جدید را در نوار کناری افزونههای کد ویژوال استودیو اضافه میکند. برای راه اندازی محیط توسعه Windows AI Studio روی این ضربه بزنید. هنگام راهاندازی، بررسی میکند که محیط توسعه شما هنوز هم پیشنیازهای لازم را دارد. پس از انجام بررسیها، و هر گونه بهروزرسانی در پیکربندی WSL شما، برنامه افزودنی یک صفحه What’s New را بارگیری میکند و صفحه اقدامات آن را با مجموعه ویژگیهای فعلی خود پر میکند. چهار عمل مختلف در آخرین نسخه پیشنمایش قابل مشاهده است و بیشتر برنامهریزی شده است. با این حال، در حال حاضر تنها یکی کار میکند، یعنی اقدام تنظیم دقیق مدل.
گزینه های برنامه ریزی شده اضافی عبارتند از نسل تقویت شده (RAG)، زمین بازی برای کار با مدل های پایه فی-۲ مایکروسافت، و دسترسی به کتابخانه ای آماده برای استفاده از مدل های خدماتی مانند Hugging Face. کار با Phi-2 به شما این امکان را میدهد که مدلهای زبان کوچک خود را بسازید و آموزش دهید، بدون اینکه به سرویسهای میزبان ابری مانند Azure OpenAI تکیه کنید.
پشتیبانی RAG به شما این امکان را می دهد که یک مدل زبان بزرگ موجود را انتخاب کنید و از آن به عنوان پایه ای برای LLM سفارشی خود استفاده کنید، بدون اینکه آن را به طور کامل بر روی داده های خود آموزش دهید. RAG از تکنیکهای مهندسی سریع استفاده میکند تا زمینه جامعتری را برای LLM فراهم کند تا پاسخهای دقیقتری را استخراج کند. با استفاده از RAG، میتوانید دادههای مربوط به دامنه یا بهروزتر را بهعنوان بخشی از یک درخواست وارد LLM کنید و با منابع داده خارجی از جمله اطلاعات کسبوکار خودتان کار کنید.
افزودن ابزار برای RAG به Windows AI Studio به شما کمک میکند تا نمایههای برداری و جاسازیهایی را برای دادههای خود بسازید و آزمایش کنید. هنگامی که این کار را انجام دادید، می توانید شروع به توسعه خطوط لوله مبتنی بر جستجو کنید که برنامه های LLM شما را زمین گیر می کند و پاسخ آنها را به دامنه خود با استفاده از ابزارهایی مانند TypeChat، Prompt Flow محدود می کند، و هسته معنایی.
کمی کردن یک مدل با QLoRA
اما در حال حاضر، این نسخه پیشنمایش اولیه بر تنظیم دقیق مدلهای هوش مصنوعی موجود، آماده برای تبدیل به ONNX و جاسازی در پروژه های WinML. استفاده از این ویژگی به تنهایی ارزش دارد، زیرا یک نیاز کلیدی برای هر یادگیری ماشین سفارشی، جایی که میخواهید مدل شما روی سختافزار محلی اجرا شود، نه در فضای ابری.
برای تنظیم یک محیط تنظیم مدل، با انتخاب یک پوشه محلی شروع میکنید، سپس یک مدل را انتخاب میکنید. انتخاب اولیه کوچک است، با پنج مدل متن باز تولید متن از مایکروسافت، Hugging Face، Mistral AI و Meta. در اینجا مایکروسافت از روش تنظیم QLoRA: آداپتورهای رتبه پایین کوانتیزه استفاده میکند، رویکردی که در دانشگاه توسعه داده شد. واشنگتن و نتایج چشمگیر نشان داده است. مقاله اولیه خانواده مدلی را توصیف می کند که ۹۹.۳٪ از عملکرد ChatGPT را تنها با ۲۴ ساعت تنظیم روی یک GPU ارائه می دهد.
اگر بخواهیم هوش مصنوعی مولد را به رایانهها و دستگاههای دستی خود بیاوریم، این همان رویکردی است که به آن نیاز داریم. ما به پیچیدگی (یا اندازه) یک مدل زبان بزرگ نیاز نداریم. در عوض ما به همان عملکرد در داده های خودمان، در یک مدل زبان کوچک نیاز داریم. QLoRA و تکنیکهای مشابه راهی برای ساخت این AIهای سفارشی بر روی مدلهای بنیادی منبع باز هستند.
هنگامی که مدل خود را انتخاب کردید، روی Configure project کلیک کنید تا راه اندازی پروژه در Windows و WSL آغاز شود. قبل از اینکه بتوانید از یک مدل استفاده کنید، ممکن است لازم باشد یک نشانه دسترسی برای Hugging Face وارد کنید یا برای دسترسی ثبت نام کنید. Windows AI Studio مجموعه ای از پارامترهای تنظیم را به شما ارائه می دهد که از آنها برای اصلاح عملکرد مدل خود استفاده خواهید کرد. برای آزمایش اولیه، به سادگی پیش فرض ها را بپذیرید و منتظر بمانید تا مدل تولید شود. همچنین گزینه ای برای استفاده از مجموعه داده های اضافی برای بهبود تنظیم وجود دارد. .
تنظیم دقیق مدل با استفاده از Olive
هنگامی که مدل تولید شد، از شما خواسته می شود که پنجره Visual Studio Code را در فضای کاری Windows AI Studio دوباره راه اندازی کنید. این شما را از ویندوز به WSL سوئیچ می کند و آماده استفاده از ابزارهای نصب شده در حین راه اندازی است. به عنوان بخشی از راه اندازی اولیه فضای کاری شما، Windows AI Studio یک برنامه افزودنی Prompt Flow نصب می کند.
با فضای کاری مدل باز، میتوانید از ترمینال کد ویژوال استودیو برای راهاندازی محیط Conda استفاده شده برای تنظیم مدل خود استفاده کنید. اکنون میتوانید Olive را با استفاده از QLoRA روی محتوای پیشفرض یا روی مجموعه داده خود اجرا کنید. این ممکن است کمی طول بکشد، پس آماده باشید که صبر کنید. حتی در یک کارت گرافیک نسبتاً سطح بالا، تنظیم چندین ساعت طول می کشد.
هنگامی که فرآیند تنظیم کامل شد، میتوانید از یک رابط وب ساده Gradio برای آزمایش مدل آموزشدیده خود استفاده کنید. آن را بسته بندی کنید و از آن در برنامه های خود استفاده کنید. این یک ابزار کوچک سرگرم کننده است و ارزش اجرا را قبل و بعد از تنظیم دارد تا بتوانید ببینید که چگونه این فرآیند بر تعاملات تأثیر می گذارد.
مهم است که به یاد داشته باشید که این یک نسخه بسیار اولیه از ابزار پیچیده ای است. مایکروسافت کارهای زیادی برای ساده کردن کار با مدلهای هوش مصنوعی و ابزارهای تنظیم انجام داده است، اما هنوز باید بدانید که از مدل زبانی که میسازید چه میخواهید. متغیرهای زیادی وجود دارد که میتوانید آنها را به عنوان بخشی از فرآیند چرخش تغییر دهید، و درک اینکه هر کدام چه چیزی را کنترل میکنند و چگونه بر مدل حاصل تأثیر میگذارند، مفید است.
در حال حاضر، Windows AI Studio ممکن است ابزاری برای کارشناسان هوش مصنوعی باشد. با این حال، نویدهای زیادی را نشان می دهد. همانطور که تکامل مییابد و ویژگیهای بیشتری را اضافه میکند، به راحتی میتواند به بخشی ضروری از گردش کار توسعه ویندوز تبدیل شود – به خصوص اگر شتابدهندههای هوش مصنوعی به یک جزء رایج در نسل بعدی رایانههای شخصی تبدیل شوند.
پست های مرتبط
اولین نگاهی به Windows AI Studio
اولین نگاهی به Windows AI Studio
اولین نگاهی به Windows AI Studio