GPU های H100 استاندارد برای Gen AI در اولین بنچمارک MLPerf | وبلاگ های انویدیا

این را بخوان وبلاگ فنی برای بررسی عمیق‌تر بهینه‌سازی‌هایی که به عملکرد و کارایی MLPerf NVIDIA کمک می‌کنند.

منبع: https://blogs.nvidia.com/blog/2023/06/27/generative-ai-debut-mlperf/

هوش مصنوعی Inflection از این عملکرد برای ساختن LLM پیشرفته در پشت اولین هوش مصنوعی شخصی خود استفاده کرد. پیکه مخفف هوش شخصی است. این شرکت به عنوان یک استودیوی هوش مصنوعی عمل خواهد کرد و هوش مصنوعی های شخصی ایجاد می کند که کاربران بتوانند با روش های ساده و طبیعی با آنها تعامل داشته باشند.

نتایج MLPerf امروز در H100، L4 و NVIDIA Jetson پلتفرم‌ها در آموزش هوش مصنوعی، استنتاج و معیارهای HPC. ما در حال ارسال مطالب هستیم انویدیا گریس هاپر سیستم ها در دورهای آینده MLPerf نیز.

اهمیت بهره وری انرژی

این سطح مشارکت به کاربران این امکان را می دهد که بدانند می توانند با هوش مصنوعی NVIDIA هم در فضای ابری و هم در سرورهایی که در مراکز داده خودشان کار می کنند عملکرد عالی داشته باشند.

عملکرد در تمام بارهای کاری

بهینه‌سازی‌ها در سراسر پشته فناوری، مقیاس‌بندی عملکرد تقریباً خطی را در آزمون سخت‌گیرانه LLM به‌عنوان مقیاس ارسال‌شده از صدها تا هزاران GPU H100 فعال کرد.

کاربران پیشرو و معیارهای استاندارد صنعت توافق دارند: پردازنده‌های گرافیکی NVIDIA H100 Tensor Core بهترین عملکرد هوش مصنوعی را ارائه می دهد، مخصوصاً در مدل های بزرگ زبان (LLM). هوش مصنوعی مولد.

موارد ارسالی از سوی سازندگان اصلی سیستم شامل ASUS، Dell Technologies، گیگابایت، Lenovo و QCT ارائه شده است. بیش از 30 ارسال بر روی پردازنده‌های گرافیکی H100 اجرا شد.

به عنوان مثال، در یک خوشه تجاری موجود از 3584 پردازنده گرافیکی H100 که توسط استارت‌آپ Inflection AI توسعه یافته و توسط CoreWeave، یک ارائه دهنده خدمات ابری متخصص در بارهای کاری با شتاب GPU، این سیستم معیار آموزشی عظیم مبتنی بر GPT-3 را در کمتر از یازده دقیقه تکمیل کرد.

بخوانید:   مایکروسافت انتظار دارد سونی یک مدل باریکتر پلی استیشن 5 را در سال جاری عرضه کند

بهینه‌سازی‌ها به‌طور مداوم در ظروف موجود در آن تا می‌شوند NGC، کاتالوگ NVIDIA برای نرم افزارهای شتاب دهنده GPU.

هوش مصنوعی Inflection که در اوایل سال 2022 توسط مصطفی و کارن سیمونیان از DeepMind و رید هافمن تأسیس شد، قصد دارد با CoreWeave برای ایجاد یکی از بزرگترین کلاسترهای محاسباتی در جهان با استفاده از پردازنده‌های گرافیکی NVIDIA همکاری کند.

داستان نوار

همانطور که الزامات عملکرد هوش مصنوعی افزایش می یابد، افزایش کارایی نحوه دستیابی به عملکرد ضروری است. این کاری است که محاسبات شتاب دهنده انجام می دهد.

کاربران می توانند برای تصمیم گیری آگاهانه خرید به نتایج MLPerf اعتماد کنند، زیرا آزمایش ها شفاف و عینی هستند. معیارها از حمایت گروه گسترده‌ای برخوردار هستند که شامل Arm، بایدو، فیس‌بوک AI، گوگل، هاروارد، اینتل، مایکروسافت، استنفورد و دانشگاه تورنتو می‌شود.

در این دور، MLPerf همچنین معیار خود را برای سیستم های توصیه به روز کرد.

معیارها بار کاری را که کاربران به آنها اهمیت می دهند پوشش می دهند – بینایی کامپیوتر، ترجمه و یادگیری تقویتی، علاوه بر هوش مصنوعی و سیستم های توصیه.

شرکای اکوسیستم NVIDIA در MLPerf شرکت می کنند زیرا می دانند که این ابزار ارزشمندی برای مشتریانی است که پلتفرم ها و فروشندگان هوش مصنوعی را ارزیابی می کنند.

تمام نرم افزارهای مورد استفاده برای این تست ها از مخزن MLPerf در دسترس است، بنابراین تقریباً هر کسی می تواند این نتایج در سطح جهانی را دریافت کند.

برایان ونتورو، یکی از بنیانگذاران و مدیر ارشد فناوری CoreWeave، گفت: «مشتریان ما امروز به لطف هزاران پردازنده گرافیکی H100 ما در شبکه‌های InfiniBand سریع و کم تأخیر، در حال ساختن پیشرفته‌ترین هوش مصنوعی و LLM در مقیاس هستند. “ارسال MLPerf مشترک ما با NVIDIA به وضوح عملکرد عالی مشتریان ما را نشان می دهد.”

بخوانید:   کره جنوبی از جنگنده بومی رونمایی کرد

عملکرد برتر امروز در دسترس است

بهره وری انرژی همچنین هزینه ها را کاهش می دهد زیرا مراکز داده با پردازنده های گرافیکی NVIDIA از گره های سرور کمتری استفاده می کنند. در واقع، انویدیا 22 ابرکامپیوتر از 30 ابرکامپیوتر برتر جدیدترین را تامین می کند لیست Green500.

نرم افزار در دسترس همه

مصطفی سلیمان، مدیر عامل هوش مصنوعی Inflection گفت: «امروزه هر کسی می‌تواند قدرت یک هوش مصنوعی شخصی را بر اساس پیشرفته‌ترین مدل زبان بزرگ ما که بر روی شبکه قدرتمند پردازنده‌های گرافیکی H100 CoreWeave آموزش داده شده است، تجربه کند.

آزمایش جدید از مجموعه داده های بزرگتر و یک مدل هوش مصنوعی مدرن تر استفاده می کند تا چالش هایی را که ارائه دهندگان خدمات ابری با آن روبرو هستند را بهتر منعکس کند. انویدیا تنها شرکتی بود که نتایج را بر اساس معیار پیشرفته ارائه کرد.

یک اکوسیستم در حال گسترش NVIDIA AI

NVIDIA کارایی را در مقیاس در MLPerf Training نسخه 3.0 نشان می دهد

مراکز داده شتاب‌دهی شده با پردازنده‌های گرافیکی NVIDIA از گره‌های سرور کمتری استفاده می‌کنند، بنابراین از فضای رک و انرژی کمتری استفاده می‌کنند. علاوه بر این، شبکه‌سازی سریع کارایی و کارایی را افزایش می‌دهد و بهینه‌سازی‌های مداوم نرم‌افزار دستاوردهای فاکتور x را روی همان سخت‌افزار به ارمغان می‌آورد.

علاوه بر این، CoreWeave عملکردی مشابه آنچه NVIDIA از یک ابررایانه هوش مصنوعی در یک مرکز داده محلی به دست آورد، از ابر ارائه کرد. این گواهی بر شبکه سازی با تاخیر کم است NVIDIA Quantum-2 InfiniBand شبکه های CoreWeave استفاده می کند.

بخوانید:   افزایش فوتی‌های کرونا در ژاپن/ آنفلوانزای پرندگان روی منحنی صعودی
NVIDIA برنده هر هشت تست در MLPerf Training نسخه 3.0 است

عملکرد کارآمد انرژی برای سیاره زمین و تجارت نیز خوب است. افزایش عملکرد می تواند زمان را برای بازار سرعت بخشد و به سازمان ها اجازه دهد برنامه های پیشرفته تری بسازند.

این تجربیات کاربر منعکس کننده عملکرد نشان داده شده در معیارهای MLPerf است امروز اعلام کرد.

NVIDIA AI Enterpriseلایه نرم‌افزاری پلت‌فرم هوش مصنوعی NVIDIA، عملکرد بهینه‌سازی شده را در زیرساخت‌های محاسباتی شتاب‌دار پیشرو امکان‌پذیر می‌کند. این نرم افزار دارای پشتیبانی، امنیت و قابلیت اطمینان در سطح سازمانی است که برای اجرای هوش مصنوعی در مرکز داده شرکتی مورد نیاز است.

نزدیک به دوازده شرکت در این دور نتایج را بر روی پلتفرم NVIDIA ارائه کردند. کار آنها نشان می دهد که هوش مصنوعی NVIDIA توسط گسترده ترین اکوسیستم صنعت در یادگیری ماشین پشتیبانی می شود.

آموزش معمولاً کاری است که توسط بسیاری از GPUهایی که پشت سر هم کار می کنند در مقیاس اجرا می شود. در هر تست MLPerf، پردازنده‌های گرافیکی H100 رکوردهای عملکردی جدیدی را برای آموزش هوش مصنوعی ثبت می‌کنند.

پردازنده‌های گرافیکی H100 در آخرین معیارهای آموزشی MLPerf که امروز منتشر شده‌اند، رکوردهای جدیدی را در هر هشت آزمایش ثبت کردند و در تست جدید MLPerf برای هوش مصنوعی مولد برتری داشتند. این برتری هم در هر شتاب دهنده و هم در مقیاس در سرورهای عظیم ارائه می شود.

پردازنده‌های گرافیکی H100 بالاترین عملکرد را در هر معیاری از جمله مدل‌های زبان بزرگ، توصیه‌کننده‌ها، بینایی کامپیوتر، تصویربرداری پزشکی و تشخیص گفتار ارائه کردند. آن‌ها تنها تراشه‌هایی بودند که هر هشت آزمایش را اجرا کردند و تطبیق پذیری پلتفرم هوش مصنوعی NVIDIA را نشان دادند.

تعالی دویدن در مقیاس