این را بخوان وبلاگ فنی برای بررسی عمیقتر بهینهسازیهایی که به عملکرد و کارایی MLPerf NVIDIA کمک میکنند.
GPU های H100 استاندارد برای Gen AI در اولین بنچمارک MLPerf | وبلاگ های انویدیا
منبع: https://blogs.nvidia.com/blog/2023/06/27/generative-ai-debut-mlperf/
هوش مصنوعی Inflection از این عملکرد برای ساختن LLM پیشرفته در پشت اولین هوش مصنوعی شخصی خود استفاده کرد. پیکه مخفف هوش شخصی است. این شرکت به عنوان یک استودیوی هوش مصنوعی عمل خواهد کرد و هوش مصنوعی های شخصی ایجاد می کند که کاربران بتوانند با روش های ساده و طبیعی با آنها تعامل داشته باشند.
نتایج MLPerf امروز در H100، L4 و NVIDIA Jetson پلتفرمها در آموزش هوش مصنوعی، استنتاج و معیارهای HPC. ما در حال ارسال مطالب هستیم انویدیا گریس هاپر سیستم ها در دورهای آینده MLPerf نیز.
اهمیت بهره وری انرژی
این سطح مشارکت به کاربران این امکان را می دهد که بدانند می توانند با هوش مصنوعی NVIDIA هم در فضای ابری و هم در سرورهایی که در مراکز داده خودشان کار می کنند عملکرد عالی داشته باشند.
عملکرد در تمام بارهای کاری
بهینهسازیها در سراسر پشته فناوری، مقیاسبندی عملکرد تقریباً خطی را در آزمون سختگیرانه LLM بهعنوان مقیاس ارسالشده از صدها تا هزاران GPU H100 فعال کرد.
کاربران پیشرو و معیارهای استاندارد صنعت توافق دارند: پردازندههای گرافیکی NVIDIA H100 Tensor Core بهترین عملکرد هوش مصنوعی را ارائه می دهد، مخصوصاً در مدل های بزرگ زبان (LLM). هوش مصنوعی مولد.
موارد ارسالی از سوی سازندگان اصلی سیستم شامل ASUS، Dell Technologies، گیگابایت، Lenovo و QCT ارائه شده است. بیش از 30 ارسال بر روی پردازندههای گرافیکی H100 اجرا شد.
به عنوان مثال، در یک خوشه تجاری موجود از 3584 پردازنده گرافیکی H100 که توسط استارتآپ Inflection AI توسعه یافته و توسط CoreWeave، یک ارائه دهنده خدمات ابری متخصص در بارهای کاری با شتاب GPU، این سیستم معیار آموزشی عظیم مبتنی بر GPT-3 را در کمتر از یازده دقیقه تکمیل کرد.
بهینهسازیها بهطور مداوم در ظروف موجود در آن تا میشوند NGC، کاتالوگ NVIDIA برای نرم افزارهای شتاب دهنده GPU.
هوش مصنوعی Inflection که در اوایل سال 2022 توسط مصطفی و کارن سیمونیان از DeepMind و رید هافمن تأسیس شد، قصد دارد با CoreWeave برای ایجاد یکی از بزرگترین کلاسترهای محاسباتی در جهان با استفاده از پردازندههای گرافیکی NVIDIA همکاری کند.
داستان نوار
همانطور که الزامات عملکرد هوش مصنوعی افزایش می یابد، افزایش کارایی نحوه دستیابی به عملکرد ضروری است. این کاری است که محاسبات شتاب دهنده انجام می دهد.
کاربران می توانند برای تصمیم گیری آگاهانه خرید به نتایج MLPerf اعتماد کنند، زیرا آزمایش ها شفاف و عینی هستند. معیارها از حمایت گروه گستردهای برخوردار هستند که شامل Arm، بایدو، فیسبوک AI، گوگل، هاروارد، اینتل، مایکروسافت، استنفورد و دانشگاه تورنتو میشود.
در این دور، MLPerf همچنین معیار خود را برای سیستم های توصیه به روز کرد.
معیارها بار کاری را که کاربران به آنها اهمیت می دهند پوشش می دهند – بینایی کامپیوتر، ترجمه و یادگیری تقویتی، علاوه بر هوش مصنوعی و سیستم های توصیه.
شرکای اکوسیستم NVIDIA در MLPerf شرکت می کنند زیرا می دانند که این ابزار ارزشمندی برای مشتریانی است که پلتفرم ها و فروشندگان هوش مصنوعی را ارزیابی می کنند.
تمام نرم افزارهای مورد استفاده برای این تست ها از مخزن MLPerf در دسترس است، بنابراین تقریباً هر کسی می تواند این نتایج در سطح جهانی را دریافت کند.
برایان ونتورو، یکی از بنیانگذاران و مدیر ارشد فناوری CoreWeave، گفت: «مشتریان ما امروز به لطف هزاران پردازنده گرافیکی H100 ما در شبکههای InfiniBand سریع و کم تأخیر، در حال ساختن پیشرفتهترین هوش مصنوعی و LLM در مقیاس هستند. “ارسال MLPerf مشترک ما با NVIDIA به وضوح عملکرد عالی مشتریان ما را نشان می دهد.”
عملکرد برتر امروز در دسترس است
بهره وری انرژی همچنین هزینه ها را کاهش می دهد زیرا مراکز داده با پردازنده های گرافیکی NVIDIA از گره های سرور کمتری استفاده می کنند. در واقع، انویدیا 22 ابرکامپیوتر از 30 ابرکامپیوتر برتر جدیدترین را تامین می کند لیست Green500.
نرم افزار در دسترس همه
مصطفی سلیمان، مدیر عامل هوش مصنوعی Inflection گفت: «امروزه هر کسی میتواند قدرت یک هوش مصنوعی شخصی را بر اساس پیشرفتهترین مدل زبان بزرگ ما که بر روی شبکه قدرتمند پردازندههای گرافیکی H100 CoreWeave آموزش داده شده است، تجربه کند.
آزمایش جدید از مجموعه داده های بزرگتر و یک مدل هوش مصنوعی مدرن تر استفاده می کند تا چالش هایی را که ارائه دهندگان خدمات ابری با آن روبرو هستند را بهتر منعکس کند. انویدیا تنها شرکتی بود که نتایج را بر اساس معیار پیشرفته ارائه کرد.
یک اکوسیستم در حال گسترش NVIDIA AI

مراکز داده شتابدهی شده با پردازندههای گرافیکی NVIDIA از گرههای سرور کمتری استفاده میکنند، بنابراین از فضای رک و انرژی کمتری استفاده میکنند. علاوه بر این، شبکهسازی سریع کارایی و کارایی را افزایش میدهد و بهینهسازیهای مداوم نرمافزار دستاوردهای فاکتور x را روی همان سختافزار به ارمغان میآورد.
علاوه بر این، CoreWeave عملکردی مشابه آنچه NVIDIA از یک ابررایانه هوش مصنوعی در یک مرکز داده محلی به دست آورد، از ابر ارائه کرد. این گواهی بر شبکه سازی با تاخیر کم است NVIDIA Quantum-2 InfiniBand شبکه های CoreWeave استفاده می کند.

عملکرد کارآمد انرژی برای سیاره زمین و تجارت نیز خوب است. افزایش عملکرد می تواند زمان را برای بازار سرعت بخشد و به سازمان ها اجازه دهد برنامه های پیشرفته تری بسازند.
این تجربیات کاربر منعکس کننده عملکرد نشان داده شده در معیارهای MLPerf است امروز اعلام کرد.
NVIDIA AI Enterpriseلایه نرمافزاری پلتفرم هوش مصنوعی NVIDIA، عملکرد بهینهسازی شده را در زیرساختهای محاسباتی شتابدار پیشرو امکانپذیر میکند. این نرم افزار دارای پشتیبانی، امنیت و قابلیت اطمینان در سطح سازمانی است که برای اجرای هوش مصنوعی در مرکز داده شرکتی مورد نیاز است.
نزدیک به دوازده شرکت در این دور نتایج را بر روی پلتفرم NVIDIA ارائه کردند. کار آنها نشان می دهد که هوش مصنوعی NVIDIA توسط گسترده ترین اکوسیستم صنعت در یادگیری ماشین پشتیبانی می شود.
آموزش معمولاً کاری است که توسط بسیاری از GPUهایی که پشت سر هم کار می کنند در مقیاس اجرا می شود. در هر تست MLPerf، پردازندههای گرافیکی H100 رکوردهای عملکردی جدیدی را برای آموزش هوش مصنوعی ثبت میکنند.
پردازندههای گرافیکی H100 در آخرین معیارهای آموزشی MLPerf که امروز منتشر شدهاند، رکوردهای جدیدی را در هر هشت آزمایش ثبت کردند و در تست جدید MLPerf برای هوش مصنوعی مولد برتری داشتند. این برتری هم در هر شتاب دهنده و هم در مقیاس در سرورهای عظیم ارائه می شود.
پردازندههای گرافیکی H100 بالاترین عملکرد را در هر معیاری از جمله مدلهای زبان بزرگ، توصیهکنندهها، بینایی کامپیوتر، تصویربرداری پزشکی و تشخیص گفتار ارائه کردند. آنها تنها تراشههایی بودند که هر هشت آزمایش را اجرا کردند و تطبیق پذیری پلتفرم هوش مصنوعی NVIDIA را نشان دادند.