Операция выполнена!
Закрыть
Хабы: Блог компании МТС, Машинное обучение, Искусственный интеллект

Языковые модели помогают кодить, писать тексты, отвечают на вопросы и даже подсказывают идеи. Но все, чему они учатся, берется из интернета, а там хватает и полезного, и откровенного мусора. Ученые из Texas A&M и Purdue University выяснили, что если в обучающие наборы попадает слишком много поверхностного или ошибочного контента, модели начинают работать хуже. Этот эффект исследователи описали как «размягчение мозга» (brain rot) — по аналогии с тем, как у человека притупляется внимание после длительного погружения в поток однотипной информации.

Во время эксперимента исследователи добавляли в набор для обучения вирусные твиты и кликбейтные посты, а потом проверяли, как меняются результаты. Оказалось, что даже небольшое количество таких данных сбивало нейросети с толку: они чаще ошибались, пропускали шаги в рассуждениях и путали контекст. Вывод получился простой — не все решает объем данных. Если в них слишком много «шума», даже самая большая модель начнет ошибаться и выдавать странные ответы. Об этом сегодня и поговорим.

Читать далее
Читайте также
СТАТЬ АВТОРОМ
НОВОСТИ

ПИШИТЕ

Техническая поддержка проекта ВсеТут

info@vsetut.pro