
Китайская компания 01.ai, похоже, совершила революцию в области обучения больших генеративных моделей искусственного интеллекта. По крайней мере собственные заявления этой компании указывают именно на это.

Кай-Фу Ли, основатель и руководитель компании, рассказал, что его компания обучила одну из своих передовых моделей искусственного интеллекта, используя всего 2000 графических процессоров и затратив всего 3 млн долларов.
Для сравнения, GPT-4, по разным данным, обучали с использованием десятков тысяч ускорителей Nvidia H100 и потратив 80-100 млн долларов, а на GPT-5 якобы уже потрачено около 1 млрд долларов.
Согласно диаграмме на сайте 01.ai, модель Yi-Lightning занимает шестое место по производительности, согласно измерениям LMSIS в Калифорнийском университете в Беркли. При этом, конечно, сравнивать современные модели можно по множеству разных параметров, так что тут пока маловато данных.
Даже если модель 01.ai и не сможет полноценно конкурировать с GPT-4, результаты всё равно впечатляют. Чтобы повысить производительность модели, 01.ai сосредоточилась на сокращении узких мест в своем процессе вывода, построив многослойную систему кэширования и разработав специализированный механизм вывода для оптимизации скорости и распределения ресурсов. В результате затраты на вывод значительно ниже, чем у аналогичных моделей — 10 центов за миллион токенов. Это примерно 1/30 от типичной цены у сопоставимых моделей конкурентов.
Что интересно, таких успехов удалось добиться фактически благодаря санкциям США, так как у компании было всего 2000 ускорителей и они не могли купить больше.
Когда у нас всего 2000 графических процессоров, команда должна выяснить, как их использовать на полную
-
14.11.2024 22:30:00 | iXBT.com
14.11.2024 22:27:00 | iXBT.com
14.11.2024 22:20:00 | iXBT.com
14.11.2024 22:18:00 | iXBT.com
14.11.2024 22:08:00 | iXBT.com
14.11.2024 21:57:00 | iXBT.com
14.11.2024 21:53:00 | iXBT.com
14.11.2024 21:49:00 | iXBT.com
14.11.2024 21:48:00 | iXBT.com
14.11.2024 21:30:00 | iXBT.com
14.11.2024 21:06:00 | iXBT.com
14.11.2024 20:17:00 | iXBT.com
14.11.2024 19:58:00 | iXBT.com
14.11.2024 19:44:00 | iXBT.com
14.11.2024 19:34:00 | iXBT.com
14.11.2024 17:57:00 | iXBT.com
14.11.2024 17:35:00 | iXBT.com
14.11.2024 17:28:00 | iXBT.com
14.11.2024 17:08:00 | iXBT.com
14.11.2024 16:06:00 | iXBT.com
14.11.2024 15:47:01 | TechCult.ru
14.11.2024 15:35:00 | iXBT.com
14.11.2024 15:29:00 | iXBT.com
14.11.2024 14:56:00 | iXBT.com
14.11.2024 14:38:00 | iXBT.com
14.11.2024 13:49:00 | iXBT.com
14.11.2024 13:24:00 | iXBT.com
14.11.2024 13:20:00 | iXBT.com
14.11.2024 12:50:00 | iXBT.com
14.11.2024 12:47:00 | iXBT.com
-
09.03.2025 21:35:45 | it-world
09.03.2025 21:00:08 | ferra.ru
09.03.2025 20:26:43 | vc.ru
09.03.2025 19:30:55 | ferra.ru
09.03.2025 17:15:16 | Хабр
09.03.2025 16:40:09 | Хабр
09.03.2025 16:38:01 | vc.ru
09.03.2025 16:16:00 | Хабр
09.03.2025 15:50:34 | Хабр
09.03.2025 15:39:37 | Хабр
09.03.2025 15:32:03 | Хабр
09.03.2025 15:15:52 | Хабр
09.03.2025 14:24:58 | Хабр
09.03.2025 14:15:37 | Хабр
Техническая поддержка проекта ВсеТут