
Эксперт по искусственному интеллекту Майлз Брендедж, ранее занимавшийся разработкой политики в OpenAI, публично обвинил компанию в искажении истории создания модели GPT-2 и недостаточном внимании к вопросам безопасности.
Поводом стала публикация документа OpenAI, в котором компания представила стратегию «поэтапного» подхода к созданию общего искусственного интеллекта (AGI). В материале утверждается, что постепенное развёртывание технологий позволит выявлять угрозы на каждом этапе, а разработка GPT-2 описывается как «прерывистая» и изначально скрытая из-за «опасений вредоносного использования».
Брендедж, участвовавший в релизе GPT-2, раскритиковал эту позицию, заявив, что OpenAI ещё пять лет назад применяла итеративный подход.
«Выпуск GPT-2 полностью соответствовал текущей философии компании: модель распространялась поэтапно, с публикацией уроков безопасности на каждом шаге. Тогда эксперты хвалили нас за осторожность», — написал он в соцсети X. По его мнению, нынешний документ переписывает прошлое, создавая ложное впечатление, что OpenAI только сейчас переходит к продуманной стратегии.

Особое возмущение экс-сотрудника вызвал раздел документа, посвящённый оценке рисков. В нём, как отметил Брендедж, компания предлагает действовать только при наличии «неопровержимых доказательств неминуемой опасности», что, по его словам, формирует опасный прецедент: «Это подход, при котором продолжается выпуск систем, пока кто-то не докажет, что они точно взорвут мир. Для продвинутых ИИ такая логика неприемлема».
Критика прозвучала на фоне растущих претензий к OpenAI со стороны экспертного сообщества. Ранее компанию обвиняли в недостаточной прозрачности разработки, использовании конфиденциальных данных и приоритезации «блестящих продуктов» над безопасностью. Например, ChatGPT и аналогичные инструменты неоднократно распространяли опасные рекомендации — от советов есть камни до инструкций по мошенничеству. Кроме того, нейросети всё чаще становятся инструментом дезинформации и манипуляций.
Несмотря на заявленные в документе меры, такие как партнёрство с независимыми аудиторами и создание механизмов обратной связи, скептики указывают на противоречия в логике OpenAI. Компания продолжает ускоренное внедрение ИИ-продуктов, тогда как её подход к оценке угроз остаётся реактивным, а не превентивным. Как подчеркнул Брендедж, «безопасность требует активного поиска уязвимостей, а не их игнорирования до тех пор, пока они не станут очевидными для всех».
В условиях растущего регулирования отрасли подобные конфликты могут повлиять не только на репутацию организации, но и на развитие технологий в целом.
-
09.03.2025 12:28:00 | iXBT.com
09.03.2025 12:21:00 | iXBT.com
09.03.2025 11:43:00 | iXBT.com
09.03.2025 11:35:00 | iXBT.com
09.03.2025 11:23:00 | iXBT.com
09.03.2025 11:01:00 | iXBT.com
09.03.2025 10:30:00 | iXBT.com
09.03.2025 10:15:00 | iXBT.com
09.03.2025 08:53:12 | TechCult.ru
08.03.2025 20:13:00 | iXBT.com
08.03.2025 19:51:45 | Ведомости
08.03.2025 17:10:00 | iXBT.com
08.03.2025 16:31:00 | iXBT.com
08.03.2025 16:13:00 | iXBT.com
08.03.2025 15:47:00 | iXBT.com
08.03.2025 15:40:00 | iXBT.com
08.03.2025 15:31:00 | iXBT.com
08.03.2025 14:30:00 | iXBT.com
08.03.2025 13:36:48 | Ведомости
08.03.2025 12:52:00 | iXBT.com
08.03.2025 12:25:00 | iXBT.com
08.03.2025 11:53:00 | iXBT.com
08.03.2025 11:19:00 | iXBT.com
08.03.2025 10:14:00 | iXBT.com
08.03.2025 10:14:00 | iXBT.com
08.03.2025 09:56:00 | iXBT.com
08.03.2025 09:49:00 | iXBT.com
08.03.2025 09:34:00 | iXBT.com
-
18.07.2025 00:00:42 | ferra.ru
17.07.2025 23:15:00 | ferra.ru
17.07.2025 23:00:06 | КИНО-ТЕАТР.РУ
17.07.2025 22:51:07 | it-world
17.07.2025 21:51:27 | vc.ru
17.07.2025 21:45:00 | ferra.ru
17.07.2025 20:49:20 | ferra.ru
17.07.2025 20:03:17 | ferra.ru
17.07.2025 19:45:00 | Woman.ru
17.07.2025 19:30:07 | ferra.ru
17.07.2025 19:15:06 | КИНО-ТЕАТР.РУ
17.07.2025 18:58:14 | Хабр
17.07.2025 18:45:06 | ferra.ru
17.07.2025 18:34:17 | ferra.ru
17.07.2025 18:00:49 | ferra.ru
Техническая поддержка проекта ВсеТут