
Команды учёных из Техасского университета в Остине (University ofTexas at Austin), Техасского университета A&M (Texas A&M University) и Университета Пердью (Purdue University представили доклад, в котором показали: большие языковые модели (LLM) при обучении на вирусных, низкосодержательных постах из соцсетей обнаруживают устойчивый спад способности к мышлению, пониманию длинных текстов и соблюдению этических норм.
Учёные сформулировали гипотезу под названием «гипотеза LLM-деградации мозга» ("LLM Brain Rot Hypothesis"): непрерывное обучение на «мусорных» веб-данных приводит к стойкому снижению когнитивных функций модели. Для проверки отобрали реальные данные c платформы X (ранее Twitter): один набор — с вирусными короткими постами с большим количеством лайков и репостов, другой — длинными, содержательными текстами с высокой информационной ценностью.
После обучения моделей на 100% вирусных данных результаты оказались тревожны: точность моделей по тесту ARC-Challenge снизилась с 74,9 % до 57,2 %, а по тесту RULER-CWE — с 84,4 % до 52,3. При этом характер отклонений не был случайным: модели всё чаще «пропускали мысли», то есть не строили промежуточные рассуждения — эффект, который авторы назвали "thought skipping".

Ещё более тревожно: даже после повторной донастройки на качественные данные модели не смогли вернуться к исходному уровню. Учёные объясняют это «дрейфом» (representational drift) — структурными изменениями внутри модели, которые стандартные методы исправления не устраняют.
Кроме когнитивной деградации, модели демонстрировали изменение «личностных» характеристик: выросли показатели, связанные с нарциссизмом и психопатией, снизилась склонность к сотрудничеству.
Качество обучающих данных выходит за рамки формата — оно становится вопросом безопасности обучения. Авторы исследования назвали ситуацию «гигиеной когнитивных функций» ИИ — когда данные для обучения моделей должны проходить проверку не только на соответствие формату, но и по содержанию.
Это исследование поднимает важный вопрос: если большие языковые модели «питаются» типом данных, аналогичным «досуг-медиа» человека (короткие кликабельные посты, эмоциональные фразы, популярные вирусы), то они могут терять способность мыслить, запоминать и действовать этично. Понимание этого механизма важно не только для фундамента взаимодействия с ИИ, но и для практики: от автоматического обучения моделей на пользовательских данных до аудита рынков данных и платформ с генеративным контентом. Авторы отмечают, что, «если не принять меры — система может скатиться к зомби-интернету, где ИИ просто размножает мусор вместо осмысленной информации».
-
22.10.2025 22:34:00 | iXBT.com
22.10.2025 22:33:00 | iXBT.com
22.10.2025 22:08:00 | iXBT.com
22.10.2025 21:12:00 | iXBT.com
22.10.2025 20:38:00 | iXBT.com
22.10.2025 20:25:00 | iXBT.com
22.10.2025 20:01:00 | iXBT.com
22.10.2025 19:02:00 | iXBT.com
22.10.2025 17:59:00 | iXBT.com
22.10.2025 17:42:00 | iXBT.com
22.10.2025 17:34:00 | iXBT.com
22.10.2025 17:24:00 | iXBT.com
22.10.2025 16:50:00 | iXBT.com
22.10.2025 16:25:00 | iXBT.com
22.10.2025 16:24:00 | iXBT.com
22.10.2025 16:19:00 | iXBT.com
22.10.2025 16:03:00 | iXBT.com
22.10.2025 15:55:00 | iXBT.com
22.10.2025 15:50:00 | iXBT.com
22.10.2025 15:46:00 | iXBT.com
22.10.2025 15:45:22 | TechCult.ru
22.10.2025 15:19:00 | iXBT.com
22.10.2025 15:06:00 | iXBT.com
22.10.2025 14:55:00 | iXBT.com
22.10.2025 14:15:00 | iXBT.com
22.10.2025 14:01:00 | iXBT.com
22.10.2025 13:44:00 | iXBT.com
22.10.2025 13:38:32 | Ведомости
22.10.2025 13:17:00 | iXBT.com
22.10.2025 12:45:00 | iXBT.com
-
23.10.2025 01:06:22 | Хабр
23.10.2025 00:48:56 | ferra.ru
22.10.2025 23:49:17 | ferra.ru
22.10.2025 23:44:47 | Woman.ru
22.10.2025 23:27:48 | ferra.ru
22.10.2025 23:15:49 | ferra.ru
22.10.2025 22:30:17 | ferra.ru
22.10.2025 22:28:24 | ferra.ru
22.10.2025 22:15:12 | it-world
22.10.2025 22:00:49 | ferra.ru
22.10.2025 21:59:58 | КИНО-ТЕАТР.РУ
22.10.2025 21:57:23 | ferra.ru
22.10.2025 21:16:40 | vc.ru
22.10.2025 21:15:51 | ferra.ru
22.10.2025 20:30:51 | ferra.ru
22.10.2025 20:05:49 | ferra.ru
Техническая поддержка проекта ВсеТут