Операция выполнена!
Закрыть
Хабы: Искусственный интеллект

Давайте поговорим о "галлюцинациях" LLM (больших языковых моделей) — генерации несуществующих фактов в уверенной подаче. Обычно их считают багом и стараются подавить через дообучение и фильтры. Однако недавнее исследование Why Language Models Hallucinate, 2025, показывает, что сама система оценивания поощряет модели угадывать, а не честно признавать неопределённость. Я попробовала разобрать, могут ли такие "галлюцинации" быть функциональной интуицией и как превратить их в инструмент идей.

Читать далее
Читайте также
СТАТЬ АВТОРОМ
НОВОСТИ

ПИШИТЕ

Техническая поддержка проекта ВсеТут

info@vsetut.pro