Хабы: Искусственный интеллект, Мозг
Все знают, как большие языковые модели – такие, как ChatGPT, – галлюцинируют или даже врут. Такие ошибки могут создавать проблемы людям, активно использующим нейросети. Интересный и, может, неожиданный вопрос: это ошибка или это вообще-то необходимо для интеллекта?
В юности я хотел что-нибудь изобрести в области физики. Было много идей, и часто, спустя какое-то время, эти идеи разрушались и деградировали, так как я или чего-то не учитывал, или что-то отбрасывал или что-то не так понимал. Но чем менее критично я относился к собственным идеям, тем дольше они жили. Если хочешь что-нибудь открыть, то подобные идеи необходимы: открытия в физике или еще в чем-то – это предшествующая длинная цепочка интересных (и тем не менее ошибочных) гипотез.
Тогда я принял решение не врать самому себе и другим, чтобы цепочка идей быстрее разворачивалась и был больший шанс что-то изобрести. Но вот это и не стало получаться. С течением времени я стал замечать все больше багов в генерируемых идеях. Все время что-то не так понимал, искажал или забывал факты. И такое поведение, на мой взгляд, свойственно не только мне. Ошибки искажения и отрицание совершенно точно случившихся фактов я замечаю и у других людей. В полиции о таком говорят «Врет как свидетель».
Недавно я придумал объяснение этому.
Из нейролингвистического программирования и других источников по психологии вроде как известно (походу здесь я исказил факты, и это может быть уже моим мнением), что мозг воспринимает ограниченный объем информации. В жизни ежесекундно передаются тысячи миллионов событий-сигналов в мозг. Мозг сильно отфильтровывает их и строит упрощенную идеализированную модель происходящего. Отбрасывая при этом и важные факты, которые не вписались в эту идеализированную модель.
Читать далее