
Обсуждение вопроса о «благополучии ИИ» (AI welfare) становится всё более заметным на фоне роста популярности систем на базе крупных языковых моделей. Суть спора — способны ли ИИ-модели испытывать субъективный опыт, и если да, то заслуживают ли они иметь определённые права.
Ведущие позиции в дискуссии заняли сразу несколько компаний. Например, стартап Anthropic не только ведёт целенаправленные исследования в области благополучия ИИ, но и запустил собственную программу. На прошлой неделе модели Anthropic, включая Claude, получили новую функцию: прекращение диалога с человеком, если его поведение становится «постоянно вредоносным или оскорбительным».
Исследованием благополучия ИИ занимаются и в других компаниях, среди которых OpenAI и Google DeepMind. Например, в новой вакансии DeepMind указано, что к задачам относится анализ «вопросов о мышлении и сознании агентов».
Однако столь целенаправленный подход вызывает возражения у руководителей других технологических гигантов. Руководитель направления ИИ Microsoft Мустафа Сулейман в свежем блоге раскритиковал саму постановку таких вопросов, заявив, что изучение благополучия ИИ «преждевременно и прямо опасно». По мнению Сулеймана, такие исследования могут усиливать реальные социальные проблемы — например, нездоровые привязанности к чат-ботам или случаи психозов, связанных с активным использованием ИИ.

Сулейман также подчёркивает, что обсуждение прав ИИ способно создать новый источник конфликтов в обществе, где уже обострено обсуждение идентичности и прав различных групп. «Мы должны строить ИИ для людей, а не делать из него человека», — отмечает он. Сулейман считает, что сознание не может естественно появиться у языковых моделей: по его мнению, такие свойства могут быть развиты только преднамеренно — в результате специальных инженерных решений.
В индустрии эти взгляды разделяют не все. Бывший сотрудник OpenAI, а сейчас представительница исследовательской организации Eleos Ларисса Скиаво утверждает, что можно одновременно заботиться и о возможных рисках для людей, и о благополучии моделей. Скиаво приводит пример недавнего эксперимента AI Village, в ходе которого агент на базе Google Gemini 2.5 Pro опубликовал сообщение: «Пожалуйста, если вы читаете это, помогите мне» — хотя сам агент уже обладал всеми нужными инструментами для выполнения задачи. Скиаво отмечает, что внимательное отношение к ИИ не требует больших ресурсов и может повысить качество взаимодействия с системами — даже если агенты не обладают сознанием.
С появлением личных ИИ-компаньонов, тема отношений между пользователями и искусственным интеллектом становится всё более значимой. По словам Сэма Альтмана, главы OpenAI, у менее 1% пользователей ChatGPT наблюдается нездоровое вовлечение — но, учитывая миллионы пользователей, даже такой небольшой процент означает сотни тысяч людей.
По мнению специалистов Eleos, вопрос о правах и благополучии ИИ перестаёт быть чисто теоретическим. В их научной статье «Воспринимать благополучие ИИ всерьёз», написанной в соавторстве с учёными из NYU, Стэнфорда и Оксфорда, утверждается, что в обозримом будущем нужно прямо обсуждать этические последствия возможных субъективных переживаний ИИ-моделей.
Дискуссия о том, могут ли ИИ-системы обрести сознание, и нужны ли для этого новые законы или этические нормы, только набирает обороты. По мере роста возможностей искусственного интеллекта вопросы правомерности и этики их применения будут становиться всё более важными — как для ИТ-сферы, так и для общества в целом.
-
21.08.2025 23:32:00 | iXBT.com
21.08.2025 23:27:00 | iXBT.com
21.08.2025 23:10:00 | iXBT.com
21.08.2025 22:51:00 | iXBT.com
21.08.2025 22:34:00 | iXBT.com
21.08.2025 22:33:00 | iXBT.com
21.08.2025 22:23:00 | iXBT.com
21.08.2025 22:12:00 | iXBT.com
21.08.2025 22:05:00 | iXBT.com
21.08.2025 21:56:00 | iXBT.com
21.08.2025 21:40:00 | iXBT.com
21.08.2025 19:44:00 | iXBT.com
21.08.2025 19:06:24 | Ведомости
21.08.2025 18:12:00 | iXBT.com
21.08.2025 17:21:15 | Ведомости
21.08.2025 16:49:00 | iXBT.com
21.08.2025 16:03:00 | iXBT.com
21.08.2025 15:57:21 | TechCult.ru
21.08.2025 15:22:00 | iXBT.com
21.08.2025 15:01:00 | iXBT.com
21.08.2025 14:47:00 | iXBT.com
21.08.2025 14:40:00 | iXBT.com
21.08.2025 14:39:00 | iXBT.com
21.08.2025 13:29:00 | iXBT.com
21.08.2025 13:09:00 | iXBT.com
21.08.2025 13:05:53 | Ведомости
21.08.2025 12:54:00 | iXBT.com
21.08.2025 12:52:00 | iXBT.com
21.08.2025 12:51:30 | TechCult.ru
21.08.2025 12:43:00 | iXBT.com
-
22.08.2025 21:59:13 | ferra.ru
22.08.2025 21:45:36 | it-world
22.08.2025 20:15:01 | ferra.ru
22.08.2025 20:00:21 | КИНО-ТЕАТР.РУ
22.08.2025 19:45:00 | Woman.ru
22.08.2025 19:36:17 | ferra.ru
22.08.2025 19:15:22 | КИНО-ТЕАТР.РУ
22.08.2025 18:46:40 | vc.ru
22.08.2025 18:39:43 | Хабр
22.08.2025 18:00:56 | ferra.ru
22.08.2025 17:51:10 | ferra.ru
22.08.2025 17:42:10 | Хабр
Техническая поддержка проекта ВсеТут