
Искусственный интеллект способен сделать вероятность глобальной пандемии в 5 раз выше, предупреждают авторы нового отчёта Rand Corporation. Их выводы основаны на моделировании сценариев биотерроризма и утечек из лабораторий, усиленных генеративными ИИ-технологиями. Исследование заказано Агентством перспективных оборонных исследований США (DARPA) и напрямую касается этики и регулирования развития больших языковых моделей.
Модели вроде ChatGPT могут значительно упростить процесс проектирования и распространения биологического оружия. Авторы указывают, что ИИ способен помочь в выборе патогена, синтезе ДНК, подборе условий хранения и доставки, а также в обходе существующих мер контроля. Исследование основано на оценке гипотетических злоумышленников, получивших доступ к ИИ-системам с открытым API, обученным на материалах из научных публикаций. Даже при ограниченном уровне технической подготовки у них появлялись пошаговые инструкции по созданию опасных агентов — например, вируса оспы.

Ключевой риск заключается в том, что ИИ может снижать «барьер доступа» к биологическим атакам. Ранее такие действия требовали высокой квалификации и значительных ресурсов, но теперь ИИ-подсказки могут компенсировать нехватку знаний. Особенно опасна возможность автоматической генерации и проверки вариантов биологических агентов с оптимизированными характеристиками заразности и устойчивости. Отдельные LLM уже сейчас способны подбирать материалы и методы, имитирующие научные эксперименты.
Rand подчёркивает: речь идёт не только о террористических группировках, но и о случайных ошибках. Лаборатории, использующие ИИ для ускорения исследований, могут непреднамеренно создать и выпустить в окружающую среду опасный патоген. Влияние таких утечек может оказаться масштабнее COVID-19, особенно при отсутствии должного контроля и этических ограничений.
Отдельное внимание в докладе уделено необходимости регулирования: учёные призывают ввести запреты на доступ к биотехнической информации в LLM, внедрить фильтры на «биоопасный» контент, а также обеспечить аудит моделей, используемых в научных разработках. Кроме того, важно пересмотреть принципы публикации биологических данных в открытом доступе.
В отчёте нет однозначного сценария, но его общий вывод: если развитие ИИ продолжится без учёта биологических рисков, то вероятность новой пандемии в ближайшие десятилетия вырастет кратно. При этом технологии, которые должны помогать в лечении и профилактике, могут непреднамеренно стать катализатором биологических угроз.
-
07.07.2025 13:30:19 | ferra.ru
07.07.2025 13:15:01 | КИНО-ТЕАТР.РУ
07.07.2025 13:02:54 | vc.ru
07.07.2025 12:30:01 | КИНО-ТЕАТР.РУ
07.07.2025 12:16:06 | КИНО-ТЕАТР.РУ
07.07.2025 11:15:15 | ferra.ru
07.07.2025 11:00:01 | Хабр
07.07.2025 11:00:01 | КИНО-ТЕАТР.РУ
07.07.2025 10:51:01 | vc.ru
07.07.2025 10:41:45 | it-world
07.07.2025 10:41:26 | it-world
07.07.2025 10:30:09 | ferra.ru
07.07.2025 10:30:00 | Woman.ru
07.07.2025 10:21:15 | StopGame
07.07.2025 10:05:00 | Woman.ru
07.07.2025 10:01:23 | ferra.ru
07.07.2025 09:58:27 | ГАСТРОНОМЪ
07.07.2025 09:49:16 | vc.ru
07.07.2025 09:45:20 | ferra.ru
Техническая поддержка проекта ВсеТут