CNews Cloud: Облачные сервисы

Nvidia совместно с производителями серверов развивает облачные вычисления для задач ИИ

Цифровизация Инфраструктура Облака
, Текст: Татьяна Короткова

Компания Nvidia запустила партнерскую программу с ODM-производителями Foxconn, Inventec, Quanta и Wistron, чтобы быстрее удовлетворить рыночный спрос на облачные вычисления для задач искусственного интеллекта (ИИ). В рамках партнерской программы Nvidia HGX компания предоставляет каждому ODM-производителю ранний доступ к референсной архитектуре Nvidia HGX, технологиям вычислений на GPU и руководствам по проектированию, сообщили CNews в Nvidia.

Модель HGX — та же, что применяется и в Microsoft Project Olympus, системах Facebook Big Basin и суперкомпьютерах для задач ИИ Nvidia DGX-1, пояснили в компании. Используя HGX в качестве основы, ODM-партнеры в сотрудничестве с Nvidia могут быстрее создавать и выводить на рынок широкий спектр GPU-ускоренных систем для гипермасштабируемых дата-центров. В рамках программы инженеры Nvidia помогут ODM-производителям сократить время как на проектирование, так и на развертывание систем.

С помощью новых GPU на базе архитектуры Nvidia Volta, которая обеспечивает втрое более высокую производительность по сравнению с предшествующей архитектурой, ODM-производители могут удовлетворить рыночный спрос, выпустив новые продукты на базе новейших технологий Nvidia, убеждены в компании.

«Ускоренные вычисления развиваются очень быстро — всего за год нам удалось увеличить скорость глубокого обучения для вычислительных ускорителей Tesla втрое.

Новые возможности оказывают колоссальное влияние на проектирование новых систем, — заявил Ян Бак (Ian Buck), директор по ускоренным вычислениям в Nvidia. — Благодаря партнерской программе HGX производители устройств могут быть уверены в том, что они предлагают новейшие технологии для работы с искусственным интеллектом растущему сообществу поставщиков систем для облачных вычислений».

Nvidia создала референсную архитектуру HGX, чтобы обеспечить производительность и масштабируемость, необходимые для гипермасштабируемых облачных окружений. HGX поддерживает большой спектр конфигураций в зависимости от нагрузки и позволяет объединять графические и центральные процессоры в различных комбинациях для высокопроизводительных вычислений, обучения глубоких сетей и инференса.

Стандартная архитектура HGX включает восемь ускорителей Nvidia Tesla в форм-факторе SXM2, объединенных топологией cube mesh с помощью высокоскоростного интерфейса Nvidia NVLink и оптимизированных PCIe-топологий. Благодаря модульному дизайну, HGX-системы могут устанавливаться в существующие дата-центры во всем мире, при необходимости используя гипермасштабируемые CPU-узлы.

По информации компании, с HGX совместимы оба ускорителя Nvidia — Tesla P100 и V100. Поэтому системы на базе HGX можно будет обновить сразу же, как только процессоры V100 выйдут на рынок.

В целом HGX — это оптимальная референсная архитектура для поставщиков облачных решений, которые хотят перейти на новую платформу Nvidia GPU Cloud, считают в Nvidia. Платформа Nvidia GPU упрощает доступ к полностью интегрированным и оптимизированным фреймворкам глубокого обучения, включая Caffe2, Cognitive Toolkit, MXNet и TensorFlow.