Операция выполнена!
Закрыть
Хабы: Блог компании Selectel, IT-инфраструктура, IT-компании, Искусственный интеллект, Машинное обучение

Еще несколько лет назад флагманские GPU встречались в двух сценариях — дорогостоящее обучение моделей с чистого листа или претрейнинг крупных архитектур. Под такие задачи строили целые кластеры: длинные эпохи, десятки миллиардов параметров, месяцы непрерывных расчетов. Даже для обучения относительно «легких» моделей требовались серверы с 4−8 топовыми GPU. А уже сегодня можно заказать сервер сразу с восемью GPU H200, да еще и в формате SXM.

Привет, Хабр! На связи Сергей Ковалёв, менеджер выделенных серверов в Selectel. В этой статье я расскажу, как индустрия оказалась в точке, когда нужны суммарные 1 128 ГБ видеопамяти и куда несется этот «локомотив». Под катом — все подробности.

Читать далее
Читайте также
СТАТЬ АВТОРОМ
НОВОСТИ

ПИШИТЕ

Техническая поддержка проекта ВсеТут

info@vsetut.pro