
Искусственный интеллект способен сделать вероятность глобальной пандемии в 5 раз выше, предупреждают авторы нового отчёта Rand Corporation. Их выводы основаны на моделировании сценариев биотерроризма и утечек из лабораторий, усиленных генеративными ИИ-технологиями. Исследование заказано Агентством перспективных оборонных исследований США (DARPA) и напрямую касается этики и регулирования развития больших языковых моделей.
Модели вроде ChatGPT могут значительно упростить процесс проектирования и распространения биологического оружия. Авторы указывают, что ИИ способен помочь в выборе патогена, синтезе ДНК, подборе условий хранения и доставки, а также в обходе существующих мер контроля. Исследование основано на оценке гипотетических злоумышленников, получивших доступ к ИИ-системам с открытым API, обученным на материалах из научных публикаций. Даже при ограниченном уровне технической подготовки у них появлялись пошаговые инструкции по созданию опасных агентов — например, вируса оспы.

Ключевой риск заключается в том, что ИИ может снижать «барьер доступа» к биологическим атакам. Ранее такие действия требовали высокой квалификации и значительных ресурсов, но теперь ИИ-подсказки могут компенсировать нехватку знаний. Особенно опасна возможность автоматической генерации и проверки вариантов биологических агентов с оптимизированными характеристиками заразности и устойчивости. Отдельные LLM уже сейчас способны подбирать материалы и методы, имитирующие научные эксперименты.
Rand подчёркивает: речь идёт не только о террористических группировках, но и о случайных ошибках. Лаборатории, использующие ИИ для ускорения исследований, могут непреднамеренно создать и выпустить в окружающую среду опасный патоген. Влияние таких утечек может оказаться масштабнее COVID-19, особенно при отсутствии должного контроля и этических ограничений.
Отдельное внимание в докладе уделено необходимости регулирования: учёные призывают ввести запреты на доступ к биотехнической информации в LLM, внедрить фильтры на «биоопасный» контент, а также обеспечить аудит моделей, используемых в научных разработках. Кроме того, важно пересмотреть принципы публикации биологических данных в открытом доступе.
В отчёте нет однозначного сценария, но его общий вывод: если развитие ИИ продолжится без учёта биологических рисков, то вероятность новой пандемии в ближайшие десятилетия вырастет кратно. При этом технологии, которые должны помогать в лечении и профилактике, могут непреднамеренно стать катализатором биологических угроз.
-
05.07.2025 11:15:16 | ferra.ru
05.07.2025 11:00:00 | КИНО-ТЕАТР.РУ
05.07.2025 09:45:13 | ferra.ru
05.07.2025 09:00:12 | ferra.ru
05.07.2025 08:27:36 | Хабр
05.07.2025 08:00:54 | Хабр
05.07.2025 08:00:00 | ГАСТРОНОМЪ
05.07.2025 07:58:53 | Woman.ru
05.07.2025 07:55:00 | ГАСТРОНОМЪ
05.07.2025 07:34:20 | Хабр
05.07.2025 07:00:36 | Хабр
05.07.2025 06:15:26 | Хабр
05.07.2025 05:44:00 | ГАСТРОНОМЪ
05.07.2025 05:39:36 | Woman.ru
05.07.2025 05:15:15 | Хабр
Техническая поддержка проекта ВсеТут