Операция выполнена!
Закрыть

Эксперт по искусственному интеллекту Майлз Брендедж, ранее занимавшийся разработкой политики в OpenAI, публично обвинил компанию в искажении истории создания модели GPT-2 и недостаточном внимании к вопросам безопасности.

Поводом стала публикация документа OpenAI, в котором компания представила стратегию «поэтапного» подхода к созданию общего искусственного интеллекта (AGI). В материале утверждается, что постепенное развёртывание технологий позволит выявлять угрозы на каждом этапе, а разработка GPT-2 описывается как «прерывистая» и изначально скрытая из-за «опасений вредоносного использования».

Брендедж, участвовавший в релизе GPT-2, раскритиковал эту позицию, заявив, что OpenAI ещё пять лет назад применяла итеративный подход.

«Выпуск GPT-2 полностью соответствовал текущей философии компании: модель распространялась поэтапно, с публикацией уроков безопасности на каждом шаге. Тогда эксперты хвалили нас за осторожность», — написал он в соцсети X. По его мнению, нынешний документ переписывает прошлое, создавая ложное впечатление, что OpenAI только сейчас переходит к продуманной стратегии.

Иллюстрация: Pexels

Особое возмущение экс-сотрудника вызвал раздел документа, посвящённый оценке рисков. В нём, как отметил Брендедж, компания предлагает действовать только при наличии «неопровержимых доказательств неминуемой опасности», что, по его словам, формирует опасный прецедент: «Это подход, при котором продолжается выпуск систем, пока кто-то не докажет, что они точно взорвут мир. Для продвинутых ИИ такая логика неприемлема».

Критика прозвучала на фоне растущих претензий к OpenAI со стороны экспертного сообщества. Ранее компанию обвиняли в недостаточной прозрачности разработки, использовании конфиденциальных данных и приоритезации «блестящих продуктов» над безопасностью. Например, ChatGPT и аналогичные инструменты неоднократно распространяли опасные рекомендации — от советов есть камни до инструкций по мошенничеству. Кроме того, нейросети всё чаще становятся инструментом дезинформации и манипуляций.

Несмотря на заявленные в документе меры, такие как партнёрство с независимыми аудиторами и создание механизмов обратной связи, скептики указывают на противоречия в логике OpenAI. Компания продолжает ускоренное внедрение ИИ-продуктов, тогда как её подход к оценке угроз остаётся реактивным, а не превентивным. Как подчеркнул Брендедж, «безопасность требует активного поиска уязвимостей, а не их игнорирования до тех пор, пока они не станут очевидными для всех».

В условиях растущего регулирования отрасли подобные конфликты могут повлиять не только на репутацию организации, но и на развитие технологий в целом.

Читайте также
ЛЕНТА

ПИШИТЕ

Техническая поддержка проекта ВсеТут

info@vsetut.pro