
Недавно опубликованный опрос, проведенный среди 475 ведущих специалистов в области искусственного интеллекта, стал настоящим событием, перевернувшим представления о будущем этой технологии. Результаты показали, что 76% экспертов считают: стратегия, основанная на постоянном увеличении размеров больших языковых моделей (LLM), не приведет к созданию искусственного общего интеллекта (AGI), способного соперничать с человеческим разумом. Открытие поставило под сомнение многолетние усилия крупных компаний, которые вкладывали миллиарды долларов в наращивание вычислительных мощностей и объемов данных, надеясь приблизиться к такой цели.

Долгое время в технологическом сообществе существовало убеждение, что путь к AGI прост: больше данных, более мощное оборудование и крупные инвестиции. Однако опрос выявил неожиданное препятствие.
Стюарт Рассел ( Stuart J. Russell), известный ученый из Калифорнийского университета в Беркли, прокомментировал ситуацию: "После выхода GPT-4 стало очевидно, что дальнейшее масштабирование приносит лишь минимальные улучшения, при этом затраты растут экспоненциально". По его словам, компании, вложившие огромные средства, пока не готовы публично признать, что выбранный подход оказался неэффективным.
Причина кризиса, как объясняют эксперты, кроется в самой архитектуре современных нейронных сетей. Большие языковые модели, несмотря на впечатляющие результаты, сталкиваются с фундаментальными ограничениями: они не способны полноценно представлять сложные концепции и требуют колоссальных ресурсов.
Среди перспективных направлений специалисты выделяют интеграцию различных подходов машинного обучения и развитие вероятностного программирования. Эти методы обещают преодолеть ограничения текущих моделей, сделав ИИ не только мощнее, но и ближе к человеческому мышлению.
"Мы стоим на пороге новой эры в развитии искусственного интеллекта, где качество идей важнее количества ресурсов", — отметил один из участников опроса.
-
30.03.2025 09:08:00 | iXBT.com
30.03.2025 02:17:00 | iXBT.com
30.03.2025 02:03:00 | iXBT.com
29.03.2025 23:33:00 | iXBT.com
29.03.2025 23:05:00 | iXBT.com
29.03.2025 22:51:00 | iXBT.com
29.03.2025 21:35:00 | iXBT.com
29.03.2025 18:50:00 | iXBT.com
29.03.2025 18:25:00 | iXBT.com
29.03.2025 18:21:00 | iXBT.com
29.03.2025 18:13:00 | iXBT.com
29.03.2025 18:02:00 | iXBT.com
29.03.2025 17:48:00 | iXBT.com
29.03.2025 17:29:00 | iXBT.com
29.03.2025 17:28:00 | iXBT.com
29.03.2025 17:15:00 | iXBT.com
29.03.2025 17:11:00 | iXBT.com
29.03.2025 16:54:00 | iXBT.com
29.03.2025 16:04:21 | Ведомости
29.03.2025 16:00:00 | iXBT.com
29.03.2025 15:51:00 | iXBT.com
29.03.2025 15:32:00 | iXBT.com
29.03.2025 15:23:00 | iXBT.com
29.03.2025 14:45:00 | iXBT.com
29.03.2025 14:16:00 | iXBT.com
29.03.2025 13:48:00 | iXBT.com
29.03.2025 13:31:00 | iXBT.com
29.03.2025 12:19:00 | iXBT.com
29.03.2025 12:12:19 | Ведомости
29.03.2025 11:55:17 | TechCult.ru
29.03.2025 11:53:00 | iXBT.com
29.03.2025 11:42:00 | iXBT.com
-
01.04.2025 10:57:23 | ferra.ru
01.04.2025 09:45:34 | ferra.ru
01.04.2025 09:14:38 | ferra.ru
01.04.2025 09:06:38 | ferra.ru
01.04.2025 09:05:18 | vc.ru
01.04.2025 09:00:33 | ferra.ru
01.04.2025 09:00:32 | ferra.ru
01.04.2025 08:59:37 | ferra.ru
01.04.2025 08:52:37 | ferra.ru
01.04.2025 08:44:36 | ferra.ru
01.04.2025 08:36:36 | ferra.ru
01.04.2025 08:15:24 | ferra.ru
01.04.2025 08:12:34 | ferra.ru
01.04.2025 07:52:50 | ferra.ru
01.04.2025 07:47:56 | vc.ru
01.04.2025 07:34:45 | Хабр
01.04.2025 07:30:37 | ferra.ru
01.04.2025 07:30:26 | Хабр
01.04.2025 07:26:35 | Хабр
Техническая поддержка проекта ВсеТут