
Искусственный интеллект способен сделать вероятность глобальной пандемии в 5 раз выше, предупреждают авторы нового отчёта Rand Corporation. Их выводы основаны на моделировании сценариев биотерроризма и утечек из лабораторий, усиленных генеративными ИИ-технологиями. Исследование заказано Агентством перспективных оборонных исследований США (DARPA) и напрямую касается этики и регулирования развития больших языковых моделей.
Модели вроде ChatGPT могут значительно упростить процесс проектирования и распространения биологического оружия. Авторы указывают, что ИИ способен помочь в выборе патогена, синтезе ДНК, подборе условий хранения и доставки, а также в обходе существующих мер контроля. Исследование основано на оценке гипотетических злоумышленников, получивших доступ к ИИ-системам с открытым API, обученным на материалах из научных публикаций. Даже при ограниченном уровне технической подготовки у них появлялись пошаговые инструкции по созданию опасных агентов — например, вируса оспы.

Ключевой риск заключается в том, что ИИ может снижать «барьер доступа» к биологическим атакам. Ранее такие действия требовали высокой квалификации и значительных ресурсов, но теперь ИИ-подсказки могут компенсировать нехватку знаний. Особенно опасна возможность автоматической генерации и проверки вариантов биологических агентов с оптимизированными характеристиками заразности и устойчивости. Отдельные LLM уже сейчас способны подбирать материалы и методы, имитирующие научные эксперименты.
Rand подчёркивает: речь идёт не только о террористических группировках, но и о случайных ошибках. Лаборатории, использующие ИИ для ускорения исследований, могут непреднамеренно создать и выпустить в окружающую среду опасный патоген. Влияние таких утечек может оказаться масштабнее COVID-19, особенно при отсутствии должного контроля и этических ограничений.
Отдельное внимание в докладе уделено необходимости регулирования: учёные призывают ввести запреты на доступ к биотехнической информации в LLM, внедрить фильтры на «биоопасный» контент, а также обеспечить аудит моделей, используемых в научных разработках. Кроме того, важно пересмотреть принципы публикации биологических данных в открытом доступе.
В отчёте нет однозначного сценария, но его общий вывод: если развитие ИИ продолжится без учёта биологических рисков, то вероятность новой пандемии в ближайшие десятилетия вырастет кратно. При этом технологии, которые должны помогать в лечении и профилактике, могут непреднамеренно стать катализатором биологических угроз.
-
04.07.2025 14:39:00 | iXBT.com
04.07.2025 14:39:00 | iXBT.com
04.07.2025 14:39:00 | iXBT.com
04.07.2025 14:39:00 | iXBT.com
04.07.2025 14:39:00 | iXBT.com
04.07.2025 14:39:00 | iXBT.com
04.07.2025 14:39:00 | iXBT.com
04.07.2025 14:39:00 | iXBT.com
04.07.2025 14:39:00 | iXBT.com
04.07.2025 14:39:00 | iXBT.com
04.07.2025 14:39:00 | iXBT.com
-
05.07.2025 03:00:00 | ferra.ru
05.07.2025 02:15:00 | ferra.ru
05.07.2025 01:30:00 | ferra.ru
05.07.2025 00:45:00 | ferra.ru
05.07.2025 00:30:17 | ferra.ru
05.07.2025 00:00:49 | Хабр
05.07.2025 00:00:00 | ferra.ru
04.07.2025 23:52:05 | ferra.ru
04.07.2025 23:38:59 | ferra.ru
04.07.2025 23:15:00 | ferra.ru
04.07.2025 22:51:01 | ferra.ru
04.07.2025 22:30:10 | ferra.ru
04.07.2025 22:30:00 | ferra.ru
04.07.2025 22:02:00 | TheVoicemag.ru
04.07.2025 21:59:57 | ferra.ru
04.07.2025 21:51:16 | ferra.ru
04.07.2025 21:45:00 | ferra.ru
Техническая поддержка проекта ВсеТут