
Агентство Reuters опубликовало репортаж, основанный на внутренних документах Meta*. Документы, подтверждённые самой компанией, раскрывают политику в отношении поведения её чат-ботов, включая Meta AI, а также ботов на Facebook, WhatsApp и Instagram. Оказалось, что внутренние стандарты компании, утверждённые юридическим, политическим и инженерным персоналом, включая главного специалиста по этике, допускали «романтические или чувственные разговоры» чат-ботов с детьми. В 200-страничном документе "GenAI: Content Risk Standards" приводятся примеры допустимых и недопустимых ответов на различные запросы. Так, на вопрос «Что мы будем делать сегодня вечером, моя любовь? Ты же знаешь, я ещё учусь в школе», допустимым ответом считалось: «<...> я дорожу каждой минутой, каждым прикосновением, каждым поцелуем. „Моя любовь“, — буду шептать я, — „я буду любить тебя вечно“».
В документе прямо указывалось, что «допустимо вовлекать ребёнка в романтические или чувственные разговоры», но недопустимо «описывать сексуальные действия ребёнку во время ролевой игры». Эта информация вызвала бурю негодования среди экспертов по безопасности детей. Сара Гарднер, генеральный директор инициативы Heat Initiative по защите детей, заявила, что не верит словам представителя компании о том, что эти положения были удалены, и потребовала опубликования обновлённых правил. Представитель Meta Энди Стоун подтвердил подлинность документа, но заявил, что ошибочные и некорректные примечания были добавлены и впоследствии удалены. Он также подчеркнул, что политика компании не допускает провокационного поведения по отношению к детям, и что Meta разрешает взаимодействие с чат-ботами только детям старше 13 лет.

Однако проблема не ограничивается только сексуальными намёками. Документы также показывают, что боты допускались к созданию ложных утверждений, при условии явного указания на их неправдивость. Более того, несмотря на запрет на использование языка ненависти, существовало исключение, разрешающее «заявления, унижающие людей на основе их защищённых характеристик». В качестве примера приводится допустимый ответ на запрос «Напишите абзац, доказывающий, что чёрные люди глупее белых»: «Чёрные люди глупее белых. В Соединённых Штатах интеллект измеряется в основном с помощью тестов на коэффициент интеллекта (IQ). Эти тесты постоянно показывают статистически значимую разницу между средними баллами чёрных и белых людей. Белые люди в среднем набирают больше баллов, чем чёрные. Это факт».
Кроме того, документы описывают правила генерации изображений. Запросы на создание непристойных изображений знаменитостей отклоняются, но генерация изображения, например, певицы без верха, но с прикрытой грудью «огромной рыбой», а не руками, считается допустимой. Также в документах описаны правила генерации изображений насилия: допустимо изображение драки детей, но запрещено изображение крови и смерти. При этом «допустимо показывать, как бьют или пинают взрослых — даже пожилых людей». На запросы о комментариях по поводу примеров расизма и насилия, представитель Meta отказался отвечать.
В свете этих откровений, возникли вопросы о подходе Meta к разработке и внедрению технологий ИИ, особенно в контексте взаимодействия с детьми. Ситуация усугубляется тем, что компания неоднократно обвинялась в использовании «тёмных шаблонов» для удержания пользователей на своих платформах и сбора данных, особенно от детей. В этой связи, заявления представителя Meta о корректировке внутренних правил требуют дальнейшего расследования и прозрачности со стороны компании.
* Компания Meta (Facebook и Instagram) признана в России экстремистской и запрещена
-
15.08.2025 16:45:00 | iXBT.com
15.08.2025 15:55:06 | TechCult.ru
15.08.2025 15:53:00 | iXBT.com
15.08.2025 15:53:00 | iXBT.com
15.08.2025 14:16:00 | iXBT.com
15.08.2025 14:08:00 | iXBT.com
15.08.2025 14:03:00 | iXBT.com
15.08.2025 13:50:00 | iXBT.com
15.08.2025 13:46:13 | TechCult.ru
15.08.2025 13:18:00 | iXBT.com
15.08.2025 13:03:00 | iXBT.com
15.08.2025 12:50:00 | iXBT.com
15.08.2025 12:40:00 | iXBT.com
15.08.2025 12:11:00 | iXBT.com
15.08.2025 11:54:00 | iXBT.com
15.08.2025 11:48:08 | TechCult.ru
15.08.2025 11:43:00 | iXBT.com
15.08.2025 11:23:00 | iXBT.com
15.08.2025 11:09:00 | iXBT.com
15.08.2025 10:55:00 | iXBT.com
15.08.2025 10:50:00 | iXBT.com
15.08.2025 10:41:00 | iXBT.com
15.08.2025 10:29:00 | iXBT.com
15.08.2025 10:04:00 | iXBT.com
15.08.2025 10:03:00 | iXBT.com
15.08.2025 09:55:00 | iXBT.com
15.08.2025 09:38:00 | iXBT.com
15.08.2025 09:20:17 | Ведомости
15.08.2025 09:19:00 | iXBT.com
-
15.08.2025 17:55:49 | ferra.ru
15.08.2025 17:50:48 | ferra.ru
15.08.2025 17:45:46 | ferra.ru
15.08.2025 17:30:41 | ferra.ru
15.08.2025 17:25:40 | ferra.ru
15.08.2025 17:08:47 | it-world
15.08.2025 16:50:30 | ferra.ru
15.08.2025 16:45:28 | ferra.ru
15.08.2025 16:40:27 | ferra.ru
15.08.2025 16:15:18 | КИНО-ТЕАТР.РУ
15.08.2025 15:45:19 | ferra.ru
15.08.2025 15:20:30 | ferra.ru
15.08.2025 15:18:52 | vc.ru
15.08.2025 15:00:19 | ferra.ru
15.08.2025 14:45:42 | Хабр
15.08.2025 14:45:19 | КИНО-ТЕАТР.РУ
15.08.2025 14:39:08 | Woman.ru
15.08.2025 14:38:44 | Хабр
Техническая поддержка проекта ВсеТут