
Китай не имеет нормального доступа к современным и самым мощным ускорителям для ИИ от Nvidia, но, похоже, теперь они им не очень уж и нужны. Компания DeepSeek, создавшая нашумевшую нейросеть, теперь сообщает, что им удалось выжать 580 TFLOPS производительности в режиме BF16 на ускорителе Nvidia H800. Чтобы было понятнее, это примерно в восемь раз превышает стандартный показатель модели.

Более того, благодаря эффективному использованию памяти декодирующее ядро FlashMLA — изюминка новой разработки — обеспечивает пропускную способность памяти до 3000 ГБ/с, что почти в два раза превышает теоретический пик H800. Речь тут именно о программных оптимизациях, что говорит о том, что вовсе не обязательно гнаться за самыми мощными вычислительными устройствами — иногда можно получить даже больший прирост просто благодаря ПО.
Напомним, относительно информации о невероятной дешевизне обучения DeepSeek есть альтернативное мнение. А вот если другие компании смогут добиться такого же прироста на старых ускорителях, это может заметно и очень быстро изменить рынок, который сейчас активно растёт в том числе из-за активной гонки за всё большей производительностью ускорителей для ИИ.
-
25.02.2025 22:27:00 | iXBT.com
25.02.2025 22:19:00 | iXBT.com
25.02.2025 22:14:00 | iXBT.com
25.02.2025 22:02:00 | iXBT.com
25.02.2025 22:00:00 | iXBT.com
25.02.2025 21:59:00 | iXBT.com
25.02.2025 21:47:00 | iXBT.com
25.02.2025 21:46:00 | iXBT.com
25.02.2025 21:32:00 | iXBT.com
25.02.2025 21:32:00 | iXBT.com
25.02.2025 21:27:00 | iXBT.com
25.02.2025 20:54:00 | iXBT.com
25.02.2025 20:47:00 | iXBT.com
25.02.2025 20:26:00 | iXBT.com
25.02.2025 19:55:00 | iXBT.com
25.02.2025 18:32:00 | iXBT.com
25.02.2025 18:02:00 | iXBT.com
25.02.2025 16:51:53 | Ведомости
25.02.2025 16:28:00 | iXBT.com
25.02.2025 16:25:00 | iXBT.com
25.02.2025 16:22:00 | iXBT.com
25.02.2025 16:10:00 | iXBT.com
25.02.2025 16:02:00 | iXBT.com
25.02.2025 15:55:00 | iXBT.com
25.02.2025 15:52:19 | TechCult.ru
25.02.2025 15:47:00 | iXBT.com
25.02.2025 15:45:00 | iXBT.com
25.02.2025 15:44:00 | iXBT.com
25.02.2025 15:34:00 | iXBT.com
25.02.2025 15:23:00 | iXBT.com
25.02.2025 14:51:00 | iXBT.com
25.02.2025 14:35:00 | iXBT.com
-
26.02.2025 01:30:00 | ferra.ru
26.02.2025 01:10:50 | ferra.ru
26.02.2025 00:00:00 | ferra.ru
25.02.2025 22:24:20 | vc.ru
25.02.2025 20:11:17 | ferra.ru
25.02.2025 19:06:29 | vc.ru
Техническая поддержка проекта ВсеТут