Компания NVIDIA объявила о поддержке облачной платформы NVIDIA GPU Cloud (NGC) для продуктов NVIDIA TITAN и доступности NGC для сотен тысяч исследователей в области искусственного интеллекта (ИИ), работающих на графических процессорах NVIDIA.

NVIDIA также расширила возможности NGC, добавив программные обновления для репозитария контейнеров NGC. Теперь исследователям доступен более широкий набор мощных инструментов, способных ускорить их работу, связанную с искусственным интеллектом и высокопроизводительными вычислениями.

Пользователи GPU TITAN на архитектуре Pascal могут уже сегодня бесплатно зарегистрироваться в системе NGC, чтобы получить доступ к полному каталогу оптимизированных для GPU инструментов глубокого обучения и HPC-вычислений. В список поддерживаемых платформ также входят NVIDIA DGX-1™, DGX Station и инстансы с NVIDIA Volta наAmazon EC2.

Быстро развивающийся репозитарий контейнеров NGC включает оптимизированные фреймворки глубокого обучения NVIDIA, такие, как TensorFlow и PyTorch, HPC-приложения от сторонних компаний, инструменты визуализации NVIDIA для HPC и программируемый ускоритель инференса NVIDIA TensorRT 3.0.

Одним из первых пользователей NGC стала компания GE Healthcare. Это первый производитель медицинского оборудования, который применил инструменты глубокого обучения из репозитария NGC, чтобы быстрее наделить искусственным интеллектом свой парк из 500 тысяч устройств визуализации, чтобы поднять процесс лечения пациентов на новый уровень.

Помимо доступности NVIDIA TensorRT в репозитарии NGC, NVIDIA анонсировала следующие обновления для NGC:

  • поддержку Open Neural Network Exchange (ONNX) для TensorRT;
  • поддержку и доступность первого релиза MXNet 1.0;
  • доступность ИИ-фреймворка Baidu PaddlePaddle.

ONNX – это открытый формат, созданный Facebook и Microsoft, через который разработчики могут обмениваться моделями в разных фреймворках. В контейнере разработкиTensorRT NVIDIA создала конвертер, позволяющий использовать модели ONNX в движке инференса TensorRT. Это позволяет упростить внедрение низколатентных моделей в TensorRT.

Таким образом, для разработчиков доступен единый источник программного обеспечения, призванного удовлетворить все потребности в области ИИ-вычислений – от исследований до разработки, обучения и внедрения приложений.