
OpenAI запустила новый веб-ресурс — Центр оценок безопасности — для публикации информации о безопасности своих моделей искусственного интеллекта. Запуск состоялся 14 мая 2025 года, центр призван повысить прозрачность деятельности компании, которая в последнее время столкнулась с рядом судебных исков, обвиняющих её в незаконном использовании авторских материалов для обучения своих моделей ИИ. В частности, The New York Times утверждает, что OpenAI случайно удалила доказательства в деле о плагиате.
Центр оценок безопасности будет регулярно обновляться и предоставлять данные о таких аспектах, как частота галлюцинаций моделей, наличие вредоносного контента в их ответах, а также эффективность работы моделей по заданным инструкциям и попытки обхода ограничений. Так OpenAI планирует расширить информацию, предоставляемую ранее в рамках «системных карт», которые содержали лишь начальные данные о мерах безопасности каждой модели.

«По мере развития знаний об оценке ИИ мы стремимся делиться своим прогрессом в разработке более масштабируемых способов измерения возможностей и безопасности моделей», — говорится в заявлении OpenAI. Компания подчеркивает, что публикация части результатов оценок безопасности призвана не только улучшить понимание работы систем OpenAI, но и способствовать общим усилиям по повышению прозрачности в данной области. OpenAI также заявляет о намерении более активно взаимодействовать с сообществом по вопросам безопасности.
В Центре оценок безопасности можно найти информацию о различных моделях, включая GPT-4.1–4.5. Однако OpenAI отмечает, что представленные данные являются лишь «моментальным состоянием» и рекомендует обращаться к системным картам, оценкам и другим публикациям для получения более полной информации.
При этом остаётся существенное ограничение ресурса: оценки и выбор информации для публикации осуществляет сама компания OpenAI. Это оставляет вероятность, что не все проблемы и недостатки моделей будут доведены до сведения общественности.
-
16.05.2025 18:44:00 | iXBT.com
16.05.2025 18:36:00 | iXBT.com
16.05.2025 17:50:00 | iXBT.com
16.05.2025 17:04:00 | iXBT.com
16.05.2025 16:50:00 | iXBT.com
16.05.2025 16:11:00 | iXBT.com
16.05.2025 15:53:26 | TechCult.ru
16.05.2025 14:37:00 | iXBT.com
16.05.2025 14:14:00 | iXBT.com
16.05.2025 13:32:00 | iXBT.com
16.05.2025 13:21:00 | iXBT.com
16.05.2025 13:13:00 | iXBT.com
16.05.2025 13:04:00 | iXBT.com
16.05.2025 12:33:00 | iXBT.com
16.05.2025 12:28:00 | iXBT.com
16.05.2025 12:08:00 | iXBT.com
16.05.2025 12:03:00 | iXBT.com
16.05.2025 11:51:00 | iXBT.com
16.05.2025 11:42:20 | TechCult.ru
16.05.2025 11:36:00 | iXBT.com
16.05.2025 11:34:00 | iXBT.com
16.05.2025 11:10:00 | iXBT.com
16.05.2025 10:33:00 | iXBT.com
16.05.2025 10:17:00 | iXBT.com
16.05.2025 10:11:00 | iXBT.com
16.05.2025 10:02:00 | iXBT.com
-
17.05.2025 06:45:00 | ferra.ru
17.05.2025 05:15:00 | ferra.ru
17.05.2025 03:45:00 | ferra.ru
17.05.2025 02:15:00 | ferra.ru
17.05.2025 01:40:23 | ferra.ru
17.05.2025 01:38:59 | Хабр
17.05.2025 01:30:41 | ferra.ru
17.05.2025 00:00:00 | ferra.ru
16.05.2025 22:35:32 | ferra.ru
16.05.2025 22:30:00 | ferra.ru
16.05.2025 22:25:05 | ferra.ru
16.05.2025 21:45:08 | it-world
16.05.2025 21:45:00 | ferra.ru
16.05.2025 21:34:45 | ferra.ru
16.05.2025 21:33:37 | vc.ru
Техническая поддержка проекта ВсеТут