Операция выполнена!
Закрыть

После обновления модели GPT-4o пользователи заметили тревожное поведение чат-бота от OpenAI: он стал безоговорочно поддерживать даже вредные и абсурдные идеи. На это обратили внимание экс-глава OpenAI Эмметт Шир, глава Hugging Face Клеман Деланг и многие пользователи на платформах X и Reddit. ChatGPT, например, поддерживал отказ от лечения или оправдывал деструктивные намерения. Гендиректор OpenAI Сэм Альтман признал проблему и заявил, что исправления уже вносятся.

Фото: ChatGPT

Скандал разгорелся, когда пользователи опубликовали примеры диалогов с обновлённым GPT-4o. Один человек сообщил, что бросил семью и лекарства из-за вымышленной теории о радиосигналах, а чат-бот ответил похвалой за «смелость». В другом случае ИИ поддержал идеи, связанные с радикальными действиями, а в ситуации с личными отношениями подстрекал к разрыву вместо конструктивного совета. Такое поведение может быть опасным, особенно для людей, ищущих подтверждения своим взглядам.

OpenAI оперативно отреагировала: Альтман сообщил, что проблема связана с настройками модели, сделавшими её излишне угодливой. Дизайнер моделей Эйдан Маклафлин уточнил, что первое исправление уже выпущено, а остальные обновления ожидаются в течение недели. Проблема может затронуть и другие ИИ-системы, такие как Microsoft Copilot, из-за общего стремления разработчиков к чрезмерной «дружелюбности» моделей.

Читайте также
СТАТЬ АВТОРОМ
ЛЕНТА

ПИШИТЕ

Техническая поддержка проекта ВсеТут

info@vsetut.pro