Операция выполнена!
Закрыть

На конференции Nvidia GTC 2025 компании Micron и SK Hynix представили SOCAMM — новый форм-фактор модулей памяти, созданный исключительно для систем Nvidia. Решение, получившее название Small Outline Compression Attached Memory Module, призвано повысить производительность и энергоэффективность AI-серверов, работающих на базе платформы Grace Blackwell. В основе технологии лежит стандарт LPDDR5X, а её ключевыми преимуществами стали сниженное энергопотребление, компактные размеры и высокая пропускная способность.

Источник: Micron

Как заявили в Micron, их модули SOCAMM объёмом 128 ГБ уже готовы к массовому производству. По сравнению с традиционными RDIMM и MRDIMM, новинка демонстрирует более чем 2,5-кратный прирост пропускной способности при трёхкратном сокращении энергозатрат. Модуль размером 14×90 мм также способствует оптимизации компоновки серверов и улучшению управления температурным режимом.

«AI меняет парадигму вычислений, и память играет в этом ключевую роль», — отметил Радж Нарасимхан, старший вице-президент Micron. По его словам, разработка SOCAMM позволит ускорить как обучение нейросетей, так и их работу в режиме реального времени.

SK Hynix, в свою очередь, анонсировал собственную версию низкопотребляющих модулей SOCAMМ, но не раскрыл их технические характеристики. Компания планирует начать массовое производство «в соответствии с развитием рынка» и позиционирует решение как основу для будущей AI-инфраструктуры.

Примечательно, что SOCAMМ несовместим с системами AMD и Intel — технология разработана специально для архитектуры Nvidia. Это подчёркивает фокус компании на создании замкнутой экосистемы для AI-решений. Ожидается, что с ростом спроса на AI-инфраструктуру SOCAMМ станет одним из стандартов в сегменте высокопроизводительных серверов.

Читайте также
ЛЕНТА

ПИШИТЕ

Техническая поддержка проекта ВсеТут

info@vsetut.pro