## مایکروسافت از ماشینهای مجازی جدید Azure برای تقویت ابررایانش هوش مصنوعی رونمایی کرد
مایکروسافت اخیرا از ماشینهای مجازی (VM) جدید Azure رونمایی کرده است که به طور خاص برای افزایش تواناییهای ابررایانش مبتنی بر هوش مصنوعی طراحی شدهاند.
سری جدید VM های H200 v5 اکنون برای مشتریان Azure در دسترس هستند و به شرکتها این امکان را میدهند تا با حجم کاری هوش مصنوعی که به طور فزایندهای پیچیده شده است، مقابله کنند.
غول فناوری عنوان کرد که با استفاده از این سری جدید VM ها، کاربران میتوانند تواناییهای آموزش و استنتاج مدلهای پایه را به طور قابل توجهی ارتقا دهند.
## مقیاسپذیری، کارایی و عملکرد
مایکروسافت در یک پست وبلاگ اعلام کرد که این سری جدید VM ها توسط تعدادی از مشتریان و شرکا برای ارتقای تواناییهای هوش مصنوعی مورد استفاده قرار میگیرد.
مایکروسافت خاطرنشان کرد: “مقیاسپذیری، کارایی و عملکرد ND H200 v5 VM ها توسط مشتریان و خدمات هوش مصنوعی مایکروسافت مانند Azure Machine Learning و Azure OpenAI Service مورد استقبال قرار گرفته است.”
یکی از این مشتریان OpenAI است. تِرِور کِی، مدیر زیرساخت OpenAI، میگوید این شرکت از این سری جدید VM ها برای پیشبرد تحقیق و توسعه و همچنین تنظیم دقیق ChatGPT برای کاربران استفاده میکند.
او گفت: “ما از استفاده از VM های H200 جدید Azure هیجانزده هستیم. ما شاهد بهبود عملکرد H200 با حداقل نیاز به تغییر کد بودیم و امیدواریم از این VM ها برای تسریع در تحقیقات، بهبود تجربه ChatGPT و پیشبرد ماموریت خود استفاده کنیم.”
## زیر کاپوت سری H200 v5
Azure H200 v5 VM ها با رویکرد سیستمی مایکروسافت برای “افزایش کارایی و عملکرد” طراحی شدهاند و 8 GPU Nvidia H200 Tensor Core را در خود جای دادهاند.
مایکروسافت خاطرنشان کرد که این کار “شکاف” رو به رشد در مورد توان پردازشی برای کاربران سازمانی را حل میکند.
غول فناوری میگوید: “با افزایش قدرت محاسباتی خام GPU ها با نرخ سریعتر از حافظه متصل و پهنای باند حافظه، این امر منجر به ایجاد یک “گلوگاه” برای استنتاج هوش مصنوعی و آموزش مدل شده است.”
مایکروسافت در اعلامیه خود گفت: “سری Azure ND H200 v5 VM ها 76% افزایش در حافظه با پهنای باند بالا (HBM) به 141GB و 43% افزایش در پهنای باند HBM به 4.8 TB/s نسبت به نسل قبلی Azure ND H100 v5 VM ها را ارائه میدهند.”
“این افزایش در پهنای باند HBM به GPU ها امکان میدهد تا به پارامترهای مدل سریعتر دسترسی پیدا کنند و به کاهش تاخیر کلی برنامهها کمک میکند که یک معیار حیاتی برای برنامههای بلادرنگ مانند عوامل تعاملی است.”
علاوه بر این، مایکروسافت میگوید که این سری جدید VM ها میتوانند “مدلهای زبانی بزرگ” (LLM) پیچیدهتر را در حافظه یک ماشین واحد جای دهند. این امر به بهبود عملکرد کمک میکند و به کاربران این امکان را میدهد که از هزینههای اضافی هنگام اجرای برنامههای توزیع شده روی چندین VM اجتناب کنند.
مایکروسافت معتقد است مدیریت بهتر حافظه GPU برای وزن مدل و اندازه دستهها نیز از ویژگیهای متمایز این سری جدید VM ها است.
محدودیتهای فعلی حافظه GPU مستقیماً بر عملکرد و تاخیر بارهای کاری استنتاج مبتنی بر LLM تاثیر میگذارد و هزینههای اضافی را برای شرکتها به همراه دارد.
VM های H200 v5 با استفاده از ظرفیت HBM بزرگتر، قادر به پشتیبانی از اندازههای دسته بزرگتر هستند که مایکروسافت میگوید این امر استفاده از GPU و عملکرد را در مقایسه با نسخههای قبلی به طور قابل توجهی بهبود میبخشد.
مایکروسافت گفت: “در آزمایشهای اولیه، ما افزایش عملکرد تا 35% را با ND H200 v5 VM ها نسبت به سری ND H100 v5 برای بارهای کاری استنتاج که مدل LLAMA 3.1 405B (با اندازه جهان 8 ، طول ورودی 128 ، طول خروجی 8 و حداکثر اندازه دسته 32 برای H100 و 96 برای H200) را اجرا میکنند، مشاهده کردیم.”