۲۹ شهریور ۱۴۰۳

Techboy

اخبار و اطلاعات روز تکنولوژی

اولین نگاهی به Windows AI Studio

محیط توسعه هوش مصنوعی مایکروسافت برای دسکتاپ که در یک پیش‌نمایش اولیه موجود است، به شما امکان می‌دهد مدل‌های زبانی کوچکی بسازید که روی رایانه‌های شخصی و دستگاه‌های تلفن همراه اجرا شوند.

محیط توسعه هوش مصنوعی مایکروسافت برای دسکتاپ که در یک پیش‌نمایش اولیه موجود است، به شما امکان می‌دهد مدل‌های زبانی کوچکی بسازید که روی رایانه‌های شخصی و دستگاه‌های تلفن همراه اجرا شوند.

مایکروسافت از بخش‌های متمرکز بر توسعه‌دهنده رویداد Ignite 2023 خود استفاده کرد برای معرفی مجموعه ای از ابزارهای توسعه هوش مصنوعی. Azure AI Studio با استفاده از مدل‌های Azure OpenAI یا مدل‌های دیگر از توسعه هوش مصنوعی در مقیاس بزرگ برای برنامه‌های میزبانی ابری پشتیبانی می‌کند، در حالی که Copilot Studio قدرت قدیمی‌تر را گسترش می‌دهد. ابزارهای هوش مصنوعی با کد پایین Virtual Agents با “تقویت”های مبتنی بر OpenAI

مایکروسافت ابزار سومی را نیز اعلام کرد، اما مدتی طول کشید تا آن را روی رایانه‌های شخصی توسعه‌دهندگان قرار دهند. این ابزار Windows AI Studio است، اکنون در یک پیش نمایش. بیایید نگاهی بیندازیم.

معرفی Windows AI Studio

Windows AI Studio قصد دارد کتابخانه مدل‌های هوش مصنوعی مایکروسافت و شرکای آن را با استفاده از پردازنده‌های گرافیکی در حال حاضر اما در نهایت از شتاب‌دهنده‌های هوش مصنوعی مانند Arm و NPUهای اینتل در آخرین سخت‌افزار سرفیس مایکروسافت، به رایانه‌های شخصی بیاورد. این NPU ها برای اولین بار در Surface Laptop Studio 2 که من این ستون را روی آن می نویسم تحویل داده شدند. با پشتیبانی DirectML از NPUهای یکپارچه اینتل در این دستگاه‌ها و سایر دستگاه‌ها که در اوایل سال ۲۰۲۴ عرضه می‌شوند، این گزینه باید ثابت شود برای توسعه دهندگان و سایر کاربران جذاب باشد.

Windows AI Studio برای کمک به آموزش و سفارشی کردن مدل‌ها طراحی شده است و آنها را برای استفاده در کد خود آماده می‌کند. پس از آموزش، می‌توانید مدل‌ها را با استفاده از ONNX (Open Neural Network Exchange) زمان اجرا بین پلتفرمی برای استفاده در دسک‌تاپ تبدیل به اجرا کنید. و اپلیکیشن های موبایل Windows AI Studio که به عنوان یک افزونه Visual Studio Code ارائه می‌شود، به شما این امکان را می‌دهد که ابزارهای مختلف و مدل‌های هوش مصنوعی را در یک مکان بیاورید و در کنار بقیه ابزارهای خود کار کنید، بنابراین می‌توانید همزمان مدل‌ها را اصلاح کنید. همانطور که آنها را در برنامه های NET.

بسازید

Windows AI Studio ترکیبی جالب از ابزارهای ویندوز و لینوکس را ارائه می‌کند که هم در CPU و هم GPU شما کار می‌کند و از زیر سیستم Windows برای لینوکس (WSL) برای میزبانی و اجرای مدل‌ها استفاده می‌کند. این رویکردی است که سخت‌افزار توانمندی را با حافظه فراوان و پردازنده گرافیکی جدید می‌طلبد. شما نمی‌توانید بدون یک GPU مجزا از Windows AI Studio استفاده کنید، که می‌تواند یک کارت درجه یک ایستگاه کاری یا یک GPU خارجی باشد که از طریق اتصال Thunderbolt کار می‌کند.

نسخه Tibco Spotfire 12.2 ابزارهای استریمینگ و علم داده را اضافه می کند

نصب و پیش نیازهای Windows AI Studio

Windows AI Studio برای نصب به اندازه کافی ساده است. شما آن را از بازار ویژوال استودیو، جایی که دستورالعمل های شروع سریع را نیز خواهید یافت. توجه داشته باشید که به‌طور پیش‌فرض نمای Visual Studio Marketplace در Visual Studio Code برای نصب نسخه‌های انتشار تنظیم شده است، بنابراین ممکن است لازم باشد نمای را به نسخه‌های قبل از انتشار تغییر دهید. هنگامی که آن تغییر را انجام دادید، دانلود سریع و آسان است.

چند پیش نیاز مهم وجود دارد. شما به GPU انویدیا و WSL نیاز دارید که حداقل نسخه اوبونتو ۱۸.۴ را به عنوان لینوکس پیش فرض اجرا کند. پس از نصب Windows AI Studio، پشتیبانی Conda و CUDA را در محیط WSL شما بررسی می‌کند تا بتواند از GPU استفاده کند. اگر آن‌ها نصب نشده باشند، Windows AI Studio یک گزینه با یک کلیک برای اطمینان از درست بودن همه کتابخانه‌های پیش‌نیاز ارائه می‌دهد.

این از گزینه های سرور راه دور Visual Studio Code برای بارگیری و اجرای اسکریپت نصب استفاده می کند. اگر می خواهید آن را در حال کار ببینید، ترمینال داخلی Visual Studio Code را باز کنید و به نمای خروجی آن بروید. نصب ممکن است کمی طول بکشد، زیرا کتابخانه های مربوطه را دانلود و نصب می کند. انتظار می‌رود حداقل پنج دقیقه طول بکشد و اگر رایانه شخصی قدیمی‌تری دارید، خیلی بیشتر طول بکشد. مستندات استودیو هوش مصنوعی Windows در حال حاضر فقط در GitHub است. Microsoft Learn فقط یک صفحه نگهدارنده مکان را نشان می دهد.

اولین مدل شما در Windows AI Studio

Windows AI Studio پس از نصب، یک نماد تراشه مانند جدید را در نوار کناری افزونه‌های کد ویژوال استودیو اضافه می‌کند. برای راه اندازی محیط توسعه Windows AI Studio روی این ضربه بزنید. هنگام راه‌اندازی، بررسی می‌کند که محیط توسعه شما هنوز هم پیش‌نیازهای لازم را دارد. پس از انجام بررسی‌ها، و هر گونه به‌روزرسانی در پیکربندی WSL شما، برنامه افزودنی یک صفحه What’s New را بارگیری می‌کند و صفحه اقدامات آن را با مجموعه ویژگی‌های فعلی خود پر می‌کند. چهار عمل مختلف در آخرین نسخه پیش‌نمایش قابل مشاهده است و بیشتر برنامه‌ریزی شده است. با این حال، در حال حاضر تنها یکی کار می‌کند، یعنی اقدام تنظیم دقیق مدل.

گزینه های برنامه ریزی شده اضافی عبارتند از نسل تقویت شده (RAG)، زمین بازی برای کار با مدل های پایه فی-۲ مایکروسافت، و دسترسی به کتابخانه ای آماده برای استفاده از مدل های خدماتی مانند Hugging Face. کار با Phi-2 به شما این امکان را می‌دهد که مدل‌های زبان کوچک خود را بسازید و آموزش دهید، بدون اینکه به سرویس‌های میزبان ابری مانند Azure OpenAI تکیه کنید.

16 نوآوری غیر قابل مقاومت در ابر

پشتیبانی RAG به شما این امکان را می دهد که یک مدل زبان بزرگ موجود را انتخاب کنید و از آن به عنوان پایه ای برای LLM سفارشی خود استفاده کنید، بدون اینکه آن را به طور کامل بر روی داده های خود آموزش دهید. RAG از تکنیک‌های مهندسی سریع استفاده می‌کند تا زمینه جامع‌تری را برای LLM فراهم کند تا پاسخ‌های دقیق‌تری را استخراج کند. با استفاده از RAG، می‌توانید داده‌های مربوط به دامنه یا به‌روزتر را به‌عنوان بخشی از یک درخواست وارد LLM کنید و با منابع داده خارجی از جمله اطلاعات کسب‌وکار خودتان کار کنید.

افزودن ابزار برای RAG به Windows AI Studio به شما کمک می‌کند تا نمایه‌های برداری و جاسازی‌هایی را برای داده‌های خود بسازید و آزمایش کنید. هنگامی که این کار را انجام دادید، می توانید شروع به توسعه خطوط لوله مبتنی بر جستجو کنید که برنامه های LLM شما را زمین گیر می کند و پاسخ آنها را به دامنه خود با استفاده از ابزارهایی مانند TypeChat، Prompt Flow محدود می کند، و هسته معنایی.

کمی کردن یک مدل با QLoRA

اما در حال حاضر، این نسخه پیش‌نمایش اولیه بر تنظیم دقیق مدل‌های هوش مصنوعی موجود، آماده برای تبدیل به ONNX و جاسازی در پروژه های WinML. استفاده از این ویژگی به تنهایی ارزش دارد، زیرا یک نیاز کلیدی برای هر یادگیری ماشین سفارشی، جایی که می‌خواهید مدل شما روی سخت‌افزار محلی اجرا شود، نه در فضای ابری.

برای تنظیم یک محیط تنظیم مدل، با انتخاب یک پوشه محلی شروع می‌کنید، سپس یک مدل را انتخاب می‌کنید. انتخاب اولیه کوچک است، با پنج مدل متن باز تولید متن از مایکروسافت، Hugging Face، Mistral AI و Meta. در اینجا مایکروسافت از روش تنظیم QLoRA: آداپتورهای رتبه پایین کوانتیزه استفاده می‌کند، رویکردی که در دانشگاه توسعه داده شد. واشنگتن و نتایج چشمگیر نشان داده است. مقاله اولیه خانواده مدلی را توصیف می کند که ۹۹.۳٪ از عملکرد ChatGPT را تنها با ۲۴ ساعت تنظیم روی یک GPU ارائه می دهد.

اگر بخواهیم هوش مصنوعی مولد را به رایانه‌ها و دستگاه‌های دستی خود بیاوریم، این همان رویکردی است که به آن نیاز داریم. ما به پیچیدگی (یا اندازه) یک مدل زبان بزرگ نیاز نداریم. در عوض ما به همان عملکرد در داده های خودمان، در یک مدل زبان کوچک نیاز داریم. QLoRA و تکنیک‌های مشابه راهی برای ساخت این AIهای سفارشی بر روی مدل‌های بنیادی منبع باز هستند.

هنگامی که مدل خود را انتخاب کردید، روی Configure project کلیک کنید تا راه اندازی پروژه در Windows و WSL آغاز شود. قبل از اینکه بتوانید از یک مدل استفاده کنید، ممکن است لازم باشد یک نشانه دسترسی برای Hugging Face وارد کنید یا برای دسترسی ثبت نام کنید. Windows AI Studio مجموعه ای از پارامترهای تنظیم را به شما ارائه می دهد که از آنها برای اصلاح عملکرد مدل خود استفاده خواهید کرد. برای آزمایش اولیه، به سادگی پیش فرض ها را بپذیرید و منتظر بمانید تا مدل تولید شود. همچنین گزینه ای برای استفاده از مجموعه داده های اضافی برای بهبود تنظیم وجود دارد. .

داشبوردهای Steampipe و معیارهایی برای داده های شما

تنظیم دقیق مدل با استفاده از Olive

هنگامی که مدل تولید شد، از شما خواسته می شود که پنجره Visual Studio Code را در فضای کاری Windows AI Studio دوباره راه اندازی کنید. این شما را از ویندوز به WSL سوئیچ می کند و آماده استفاده از ابزارهای نصب شده در حین راه اندازی است. به عنوان بخشی از راه اندازی اولیه فضای کاری شما، Windows AI Studio یک برنامه افزودنی Prompt Flow نصب می کند.

با فضای کاری مدل باز، می‌توانید از ترمینال کد ویژوال استودیو برای راه‌اندازی محیط Conda استفاده شده برای تنظیم مدل خود استفاده کنید. اکنون می‌توانید Olive را با استفاده از QLoRA روی محتوای پیش‌فرض یا روی مجموعه داده خود اجرا کنید. این ممکن است کمی طول بکشد، پس آماده باشید که صبر کنید. حتی در یک کارت گرافیک نسبتاً سطح بالا، تنظیم چندین ساعت طول می کشد.

هنگامی که فرآیند تنظیم کامل شد، می‌توانید از یک رابط وب ساده Gradio برای آزمایش مدل آموزش‌دیده خود استفاده کنید. آن را بسته بندی کنید و از آن در برنامه های خود استفاده کنید. این یک ابزار کوچک سرگرم کننده است و ارزش اجرا را قبل و بعد از تنظیم دارد تا بتوانید ببینید که چگونه این فرآیند بر تعاملات تأثیر می گذارد.

مهم است که به یاد داشته باشید که این یک نسخه بسیار اولیه از ابزار پیچیده ای است. مایکروسافت کارهای زیادی برای ساده کردن کار با مدل‌های هوش مصنوعی و ابزارهای تنظیم انجام داده است، اما هنوز باید بدانید که از مدل زبانی که می‌سازید چه می‌خواهید. متغیرهای زیادی وجود دارد که می‌توانید آنها را به عنوان بخشی از فرآیند چرخش تغییر دهید، و درک اینکه هر کدام چه چیزی را کنترل می‌کنند و چگونه بر مدل حاصل تأثیر می‌گذارند، مفید است.

در حال حاضر، Windows AI Studio ممکن است ابزاری برای کارشناسان هوش مصنوعی باشد. با این حال، نویدهای زیادی را نشان می دهد. همانطور که تکامل می‌یابد و ویژگی‌های بیشتری را اضافه می‌کند، به راحتی می‌تواند به بخشی ضروری از گردش کار توسعه ویندوز تبدیل شود – به خصوص اگر شتاب‌دهنده‌های هوش مصنوعی به یک جزء رایج در نسل بعدی رایانه‌های شخصی تبدیل شوند.