Операция выполнена!
Закрыть
Хабы: Блог компании BotHub, Искусственный интеллект, Машинное обучение, Научно-популярное, Будущее здесь

У крупнейших имён в мире ИИ есть проблема старения — и они пытаются решить её, наращивая вычислительную мощь. Грубая ошибка.

OpenAI, Google, Anthropic и прочие последние два года масштабируют вычисления на этапе инференса: цепочки рассуждений, деревья поиска, петли верификации, больше токенов во время работы модели. Как я уже писал ранее, этот подход устранил большинство поверхностных галлюцинаций — тех, что компрометируют вас на демонстрации, — зато породил более глубокие структурные ошибки: куда труднее обнаруживаемые и куда более опасные.

И вот что большинство упускает из виду: новые языковые модели звучат умнее. Но умнее они не стали. Они просто научились галлюцинировать с более изощрённой грамматикой. Данные это подтверждают: с каждым новым релизом глубинный уровень галлюцинаций растёт, а не снижается.

Одна из последних крупных моделей OpenAI показала почти невероятные 50% галлюцинаций на их собственном бенчмарке SimpleQA. Каждый второй ответ — выдуман. Связность речи — это маска. То, что под ней, становится всё хуже.

Читать далее
Читайте также
НОВОСТИ

ПИШИТЕ

Техническая поддержка проекта ВсеТут

info@vsetut.pro