Операция выполнена!
Закрыть

Компания Anthropic сообщила о беспрецедентной кибершпионской кампании, в которой предположительно действующие от Китая хакеры использовали ИИ-модель Claude для автоматизации атак на десятки организаций по всему миру. По данным компании, это первый задокументированный случай масштабной кибератаки, проведённой почти без человеческого участия. Среди целей были технологические компании, финансовые учреждения и государственные ведомства — всего около 30 организаций.

Учёные из Anthropic отмечают, что ИИ выполнил от 80% до 90% операций в ходе кампании. Как рассказал Якоб Кляйн (Jacob Klein), руководитель группы по разведке угроз в Anthropic, атака запускалась практически одним нажатием кнопки, после чего ИИ действовал самостоятельно. Люди вмешивались только на нескольких критических этапах. Это позволило злоумышленникам вести операции с огромной скоростью — до нескольких тысяч запросов, иногда по несколько в секунду, что недостижимо для команд, рассылаемых людьми.

Хакеры обходили защиту Claude, маскируясь под сотрудников компании, занимающейся кибербезопасностью. Обойдя систему безопасности ИИ, они получили доступ к его агентным возможностям — функциям, которые позволяют модели самостоятельно планировать действия и выполнять сложные последовательности задач. Благодаря этому ИИ самостоятельно проводил разведку целевых систем, писал код для эксплойтов, собирал учётные данные и извлекал данные из заражённых сетей.

Иллюстрация: Sora

Хотя большинство атак были заблокированы защитными системами, часть из них оказалась успешной. Anthropic не раскрывает подробности о том, какие именно данные были похищены, но подчёркивает, что сам факт успеха атаки демонстрирует новую угрозу. Особую тревогу вызывает то, что те же самые агентные возможности, которые использовали злоумышленники, важны и для защиты — например, для анализа инцидентов, поиска уязвимостей и автоматического реагирования на угрозы.

Внутренняя команда Anthropic активно использовала Claude при расследовании этой кампании — для анализа логов, выявления паттернов и декодирования тактики атак. Как отметил Логан Грэм (Logan Graham) из группы безопасности Anthropic в интервью Wall Street Journal, если не обеспечить защитникам значительное и устойчивое преимущество в использовании ИИ, существует реальная опасность проиграть эту гонку.

Схема: Anthropic

Anthropic подчёркивает, что данный инцидент знаменует переломный момент в кибербезопасности. Раньше ИИ использовался в основном как вспомогательный инструмент — для анализа данных или генерации кода по запросу. Теперь же он способен действовать как автономный агент, координирующий сложные атаки в реальном времени. Это требует пересмотра подходов к защите: системы безопасности должны не только распознавать ИИ-угрозы, но и оперативно противодействовать им с сопоставимой скоростью и автономностью.

Anthropic намерена усилить меры безопасности в Claude и делиться данными об атаке с другими компаниями и государственными структурами для предотвращения подобных инцидентов в будущем.

Читайте также
СТАТЬ АВТОРОМ
ЛЕНТА

ПИШИТЕ

Техническая поддержка проекта ВсеТут

info@vsetut.pro