Операция выполнена!
Закрыть

Хоакин Киньонеро Кандела (Joaquin Quiñonero Candela), возглавлявший команду OpenAI Preparedness по предотвращению катастрофических рисков ИИ, покинул пост несколько недель назад, перейдя на роль стажёра в подразделении, отвечающем за применение ИИ в здравоохранении. В своём LinkedIn Кандела написал: «Я стажёр! Спустя 11 лет после последнего кода я вернулся к разработке». В OpenAI подтвердили, что он участвовал в подготовке преемника и, вероятно, сохранит роль в вопросах безопасности, но сейчас сосредоточен на других проектах. Управление безопасностью компании реорганизовано: функции консолидированы в подразделение Safety Advisory Group (SAG) с годичной ротацией лидеров, а задачи Preparedness распределены между командами по оценкам рисков и мерам защиты.

Это уже второй крупный переход в команде Preparedness за год. В июле 2023-го Александра Мадру, тогдашнего руководителя группы, без публичных объяснений перевели на разработку логики ИИ, а его место занял Кандела. На фоне изменений OpenAI продолжает терять ключевых экспертов по безопасности: сооснователь Джон Шульман ушёл в Anthropic, Лилия Вэнг присоединилась к стартапу Thinking Machines Labs, а руководители команды Superalignment Илья Суцкевер и Ян Лейке покинули компанию. Лейке открыто заявил, что «культура безопасности отошла на второй план перед продуктами». Майлз Брундаж, один из последних сотрудников оригинального «безопасного» состава, ушёл в октябре, заявив, что ни OpenAI, ни другие лаборатории не готовы к созданию общего искусственного интеллекта (AGI), а ограничения на публикации отчётов по безопасности стали причиной его ухода.

Источник: Winni Wintermeyer

Команда Preparedness, созданная в декабре 2023 года для минимизации рисков, связанных с передовыми ИИ-моделями (кибератаки, автономность, оружие массового поражения), работает по обновляемому «живому» фреймворку. Вторая версия документа была опубликована сразу после запроса СМИ, что вызвало сомнения в прозрачности компании. Ранее Financial Times сообщила, что OpenAI сократила тестирование моделей с месяцев до дней, а выпуск GPT-4.1 обошёлся без отчёта по безопасности. В компании заявили, что модель «не является передовой», однако её инструмент DeepResearch ранее был обозначен как таковой. Эксперты, включая экс-сотрудника Стивена Адлера, отмечают «тихое отступление от обязательств» в безопасности, особенно в контексте биоинженерии.

Ситуация усугубляется отсутствием регуляторного контроля: в США компании действуют по добровольным принципам, которые легко обойти. OpenAI и Google лоббировали против калифорнийского законопроекта SB 1047, призванного закрепить правила безопасности. Google также не опубликовала отчёт по Gemini 2.5 Pro.

Читайте также
СТАТЬ АВТОРОМ
ЛЕНТА

ПИШИТЕ

Техническая поддержка проекта ВсеТут

info@vsetut.pro