Операция выполнена!
Закрыть

Компания OpenAI подтвердила, что её новая языковая модель GPT-4.5 генерирует недостоверные ответы в 37% случаев, согласно внутреннему инструменту оценки фактологичности SimpleQA. Эти данные, озвученные в официальном релизе, вызвали дискуссию о надёжности современных алгоритмов ИИ.

Несмотря на заявления о прогрессе — предыдущие версии GPT-4o и o3-mini демонстрировали 61,8% и 80,3% галлюцинаций соответственно, — даже «лучшие модели» всё ещё остаются неточными.

Фото: David Paul Morris / Bloomberg

«Сейчас даже самые продвинутые системы способны генерировать текст без вымысла лишь в 35% случаев», — заявила Вентинг Чжао, соавтор исследования о галлюцинациях ИИ из Корнеллского университета. Её комментарий подтверждает системную проблему отрасли: дорогостоящие модели, позиционируемые как инструменты с «человекообразным интеллектом», часто ошибаются в базовых фактах.

OpenAI, оцениваемая в сотни миллиардов долларов, пытается смягчить реакцию, акцентируя внимание на снижении ошибок по сравнению с прошлыми версиями. Однако критики отмечают, что подобные сравнения лишь маскируют стагнацию в развитии технологий. После впечатляющего старта ChatGPT компания столкнулась с замедлением прогресса, и GPT-4.5, судя по данным, не стал прорывом.

Эксперты сходятся во мнении: для преодоления кризиса доверия индустрии необходимы фундаментальные улучшения, а не косметические апдейты. Пока же пользователи вынуждены мириться с тем, что нейросети регулярно «придумывают» факты — будь то ответ на простой вопрос или анализ сложных данных.

Читайте также
ЛЕНТА

ПИШИТЕ

Техническая поддержка проекта ВсеТут

info@vsetut.pro