ماشین‌های مجازی سری H200 v5 جدید مایکروسافت در Azure، به دنبال تقویت عملکرد پردازنده گرافیکی (GPU) هستند.

## مایکروسافت از ماشین‌های مجازی جدید Azure برای تقویت ابررایانش هوش مصنوعی رونمایی کرد

مایکروسافت اخیرا از ماشین‌های مجازی (VM) جدید Azure رونمایی کرده است که به طور خاص برای افزایش توانایی‌های ابررایانش مبتنی بر هوش مصنوعی طراحی شده‌اند.

سری جدید VM های H200 v5 اکنون برای مشتریان Azure در دسترس هستند و به شرکت‌ها این امکان را می‌دهند تا با حجم کاری هوش مصنوعی که به طور فزاینده‌ای پیچیده شده است، مقابله کنند.

غول فناوری عنوان کرد که با استفاده از این سری جدید VM ها، کاربران می‌توانند توانایی‌های آموزش و استنتاج مدل‌های پایه را به طور قابل توجهی ارتقا دهند.

## مقیاس‌پذیری، کارایی و عملکرد

مایکروسافت در یک پست وبلاگ اعلام کرد که این سری جدید VM ها توسط تعدادی از مشتریان و شرکا برای ارتقای توانایی‌های هوش مصنوعی مورد استفاده قرار می‌گیرد.

مایکروسافت خاطرنشان کرد: “مقیاس‌پذیری، کارایی و عملکرد ND H200 v5 VM ها توسط مشتریان و خدمات هوش مصنوعی مایکروسافت مانند Azure Machine Learning و Azure OpenAI Service مورد استقبال قرار گرفته است.”

یکی از این مشتریان OpenAI است. تِرِور کِی، مدیر زیرساخت OpenAI، می‌گوید این شرکت از این سری جدید VM ها برای پیشبرد تحقیق و توسعه و همچنین تنظیم دقیق ChatGPT برای کاربران استفاده می‌کند.

او گفت: “ما از استفاده از VM های H200 جدید Azure هیجان‌زده هستیم. ما شاهد بهبود عملکرد H200 با حداقل نیاز به تغییر کد بودیم و امیدواریم از این VM ها برای تسریع در تحقیقات، بهبود تجربه ChatGPT و پیشبرد ماموریت خود استفاده کنیم.”

## زیر کاپوت سری H200 v5

Azure H200 v5 VM ها با رویکرد سیستمی مایکروسافت برای “افزایش کارایی و عملکرد” طراحی شده‌اند و 8 GPU Nvidia H200 Tensor Core را در خود جای داده‌اند.

مایکروسافت خاطرنشان کرد که این کار “شکاف” رو به رشد در مورد توان پردازشی برای کاربران سازمانی را حل می‌کند.

غول فناوری می‌گوید: “با افزایش قدرت محاسباتی خام GPU ها با نرخ سریع‌تر از حافظه متصل و پهنای باند حافظه، این امر منجر به ایجاد یک “گلوگاه” برای استنتاج هوش مصنوعی و آموزش مدل شده است.”

مایکروسافت در اعلامیه خود گفت: “سری Azure ND H200 v5 VM ها 76% افزایش در حافظه با پهنای باند بالا (HBM) به 141GB و 43% افزایش در پهنای باند HBM به 4.8 TB/s نسبت به نسل قبلی Azure ND H100 v5 VM ها را ارائه می‌دهند.”

“این افزایش در پهنای باند HBM به GPU ها امکان می‌دهد تا به پارامترهای مدل سریع‌تر دسترسی پیدا کنند و به کاهش تاخیر کلی برنامه‌ها کمک می‌کند که یک معیار حیاتی برای برنامه‌های بلادرنگ مانند عوامل تعاملی است.”

علاوه بر این، مایکروسافت می‌گوید که این سری جدید VM ها می‌توانند “مدل‌های زبانی بزرگ” (LLM) پیچیده‌تر را در حافظه یک ماشین واحد جای دهند. این امر به بهبود عملکرد کمک می‌کند و به کاربران این امکان را می‌دهد که از هزینه‌‌های اضافی هنگام اجرای برنامه‌های توزیع شده روی چندین VM اجتناب کنند.

مایکروسافت معتقد است مدیریت بهتر حافظه GPU برای وزن مدل و اندازه دسته‌ها نیز از ویژگی‌های متمایز این سری جدید VM ها است.

محدودیت‌های فعلی حافظه GPU مستقیماً بر عملکرد و تاخیر بارهای کاری استنتاج مبتنی بر LLM تاثیر می‌گذارد و هزینه‌های اضافی را برای شرکت‌ها به همراه دارد.

VM های H200 v5 با استفاده از ظرفیت HBM بزرگ‌تر، قادر به پشتیبانی از اندازه‌های دسته بزرگ‌تر هستند که مایکروسافت می‌گوید این امر استفاده از GPU و عملکرد را در مقایسه با نسخه‌های قبلی به طور قابل توجهی بهبود می‌بخشد.

مایکروسافت گفت: “در آزمایش‌های اولیه، ما افزایش عملکرد تا 35% را با ND H200 v5 VM ها نسبت به سری ND H100 v5 برای بارهای کاری استنتاج که مدل LLAMA 3.1 405B (با اندازه جهان 8 ، طول ورودی 128 ، طول خروجی 8 و حداکثر اندازه دسته 32 برای H100 و 96 برای H200) را اجرا می‌کنند، مشاهده کردیم.”

مجله خبری تکنولوژی و موبایل

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *