
Эксперт по искусственному интеллекту Майлз Брендедж, ранее занимавшийся разработкой политики в OpenAI, публично обвинил компанию в искажении истории создания модели GPT-2 и недостаточном внимании к вопросам безопасности.
Поводом стала публикация документа OpenAI, в котором компания представила стратегию «поэтапного» подхода к созданию общего искусственного интеллекта (AGI). В материале утверждается, что постепенное развёртывание технологий позволит выявлять угрозы на каждом этапе, а разработка GPT-2 описывается как «прерывистая» и изначально скрытая из-за «опасений вредоносного использования».
Брендедж, участвовавший в релизе GPT-2, раскритиковал эту позицию, заявив, что OpenAI ещё пять лет назад применяла итеративный подход.
«Выпуск GPT-2 полностью соответствовал текущей философии компании: модель распространялась поэтапно, с публикацией уроков безопасности на каждом шаге. Тогда эксперты хвалили нас за осторожность», — написал он в соцсети X. По его мнению, нынешний документ переписывает прошлое, создавая ложное впечатление, что OpenAI только сейчас переходит к продуманной стратегии.

Особое возмущение экс-сотрудника вызвал раздел документа, посвящённый оценке рисков. В нём, как отметил Брендедж, компания предлагает действовать только при наличии «неопровержимых доказательств неминуемой опасности», что, по его словам, формирует опасный прецедент: «Это подход, при котором продолжается выпуск систем, пока кто-то не докажет, что они точно взорвут мир. Для продвинутых ИИ такая логика неприемлема».
Критика прозвучала на фоне растущих претензий к OpenAI со стороны экспертного сообщества. Ранее компанию обвиняли в недостаточной прозрачности разработки, использовании конфиденциальных данных и приоритезации «блестящих продуктов» над безопасностью. Например, ChatGPT и аналогичные инструменты неоднократно распространяли опасные рекомендации — от советов есть камни до инструкций по мошенничеству. Кроме того, нейросети всё чаще становятся инструментом дезинформации и манипуляций.
Несмотря на заявленные в документе меры, такие как партнёрство с независимыми аудиторами и создание механизмов обратной связи, скептики указывают на противоречия в логике OpenAI. Компания продолжает ускоренное внедрение ИИ-продуктов, тогда как её подход к оценке угроз остаётся реактивным, а не превентивным. Как подчеркнул Брендедж, «безопасность требует активного поиска уязвимостей, а не их игнорирования до тех пор, пока они не станут очевидными для всех».
В условиях растущего регулирования отрасли подобные конфликты могут повлиять не только на репутацию организации, но и на развитие технологий в целом.
-
09.03.2025 12:28:00 | iXBT.com
09.03.2025 12:21:00 | iXBT.com
09.03.2025 11:43:00 | iXBT.com
09.03.2025 11:35:00 | iXBT.com
09.03.2025 11:23:00 | iXBT.com
09.03.2025 11:01:00 | iXBT.com
09.03.2025 10:30:00 | iXBT.com
09.03.2025 10:15:00 | iXBT.com
09.03.2025 08:53:12 | TechCult.ru
08.03.2025 20:13:00 | iXBT.com
08.03.2025 19:51:45 | Ведомости
08.03.2025 17:10:00 | iXBT.com
08.03.2025 16:31:00 | iXBT.com
08.03.2025 16:13:00 | iXBT.com
08.03.2025 15:47:00 | iXBT.com
08.03.2025 15:40:00 | iXBT.com
08.03.2025 15:31:00 | iXBT.com
08.03.2025 14:30:00 | iXBT.com
08.03.2025 13:36:48 | Ведомости
08.03.2025 12:52:00 | iXBT.com
08.03.2025 12:25:00 | iXBT.com
08.03.2025 11:53:00 | iXBT.com
08.03.2025 11:19:00 | iXBT.com
08.03.2025 10:14:00 | iXBT.com
08.03.2025 10:14:00 | iXBT.com
08.03.2025 09:56:00 | iXBT.com
08.03.2025 09:49:00 | iXBT.com
08.03.2025 09:34:00 | iXBT.com
-
09.03.2025 21:00:08 | ferra.ru
09.03.2025 20:26:43 | vc.ru
09.03.2025 19:30:55 | ferra.ru
09.03.2025 17:15:16 | Хабр
09.03.2025 16:40:09 | Хабр
09.03.2025 16:38:01 | vc.ru
09.03.2025 16:16:00 | Хабр
09.03.2025 15:50:34 | Хабр
09.03.2025 15:39:37 | Хабр
09.03.2025 15:32:03 | Хабр
09.03.2025 15:15:52 | Хабр
09.03.2025 14:24:58 | Хабр
09.03.2025 14:15:37 | Хабр
Техническая поддержка проекта ВсеТут