
Страхи перед искусственным интеллектом оказались ближе к реальности, чем к голливудским сценариям. Исследование Университета Цюриха, в котором участвовали более 10 000 человек из США и Великобритании, показало: людей тревожат не гипотетические «восстания машин», а уже существующие проблемы — например, автоматизация рабочих мест или алгоритмическая предвзятость при приёме на работу. Это отличает общественное восприятие от популярного в медиа образа ИИ как неконтролируемой силы, угрожающей человечеству.
Учёные провели три масштабных эксперимента, предлагая респондентам оценить разные типы рисков — от катастрофических сценариев до повседневных вызовов, таких как распространение фейков через нейросети или ошибки в медицинских диагностических системах. Оказалось, что даже после знакомства с апокалиптическими прогнозами участники сохраняли повышенное внимание к актуальным угрозам. «Люди не теряют бдительность, — объясняет политолог Фабрицио Жиларди, один из авторов исследования. — Они понимают разницу между тем, что может произойти через 50 лет, и тем, что влияет на их жизнь уже сейчас».

Парадокс в том, что публичные дебаты часто сосредоточены на далёких рисках, словно игнорируя проблемы, с которыми общество сталкивается ежедневно. Например, алгоритмы, управляющие кредитными рейтингами или подбором контента в соцсетях, могут усиливать социальное неравенство — но об этом говорят реже, чем о гипотетическом «бунте ИИ». Однако, как показало исследование, такой дисбаланс в медиа не мешает людям самостоятельно расставлять приоритеты. «Обеспокоенность текущими рисками остаётся стабильной, даже если на первый план выходят футуристические прогнозы», — подчёркивает соавтор работы Эмма Хоэс.
Исследователи считают, что эти данные помогут перестроить диалог вокруг ИИ. Вместо противопоставления «близких» и «далёких» угроз учёные предлагают рассматривать их комплексно — как части одной системы. Например, разработка этических стандартов для «умных очков», распознающих эмоции, требует не только защиты приватности сегодня, но и прогнозирования долгосрочных последствий для общества.
Прогнозируя будущее, авторы отмечают: рост осознанности в отношении текущих рисков может ускорить внедрение регуляторных мер — например, обязательную проверку ИИ-систем на предвзятость перед их запуском. При этом дискуссия о будущем искусственного интеллекта, вероятно, станет более предметной, сместившись от спекуляций к анализу конкретных сценариев — от автоматизации до кибербезопасности. Как заключает Жиларди, «технологии развиваются быстрее страхов — и это шанс направить их развитие в интересах человека».
-
25.04.2025 19:56:56 | Ведомости
25.04.2025 19:42:00 | iXBT.com
25.04.2025 19:32:00 | iXBT.com
25.04.2025 18:24:00 | iXBT.com
25.04.2025 17:41:00 | iXBT.com
25.04.2025 16:52:00 | iXBT.com
25.04.2025 16:35:00 | iXBT.com
25.04.2025 16:29:00 | iXBT.com
25.04.2025 16:27:00 | iXBT.com
25.04.2025 14:59:00 | iXBT.com
25.04.2025 14:59:00 | iXBT.com
25.04.2025 14:30:00 | iXBT.com
25.04.2025 14:10:00 | iXBT.com
25.04.2025 14:00:00 | iXBT.com
25.04.2025 13:54:29 | TechCult.ru
25.04.2025 13:18:00 | iXBT.com
25.04.2025 13:13:00 | iXBT.com
25.04.2025 12:56:00 | iXBT.com
25.04.2025 11:58:00 | iXBT.com
25.04.2025 11:57:00 | iXBT.com
25.04.2025 11:41:00 | iXBT.com
25.04.2025 11:36:00 | iXBT.com
25.04.2025 11:25:00 | iXBT.com
25.04.2025 11:16:00 | iXBT.com
25.04.2025 10:41:00 | iXBT.com
25.04.2025 10:32:00 | iXBT.com
25.04.2025 10:15:00 | iXBT.com
25.04.2025 09:50:00 | iXBT.com
-
20.07.2025 23:30:48 | vc.ru
20.07.2025 22:30:44 | ferra.ru
20.07.2025 22:02:00 | TheVoicemag.ru
20.07.2025 21:52:43 | vc.ru
20.07.2025 21:45:00 | ferra.ru
20.07.2025 21:31:00 | TheVoicemag.ru
20.07.2025 21:00:00 | ferra.ru
20.07.2025 20:15:00 | ferra.ru
20.07.2025 19:38:09 | vc.ru
20.07.2025 19:30:00 | ferra.ru
20.07.2025 19:23:49 | Woman.ru
20.07.2025 18:45:00 | ferra.ru
20.07.2025 18:21:32 | Woman.ru
20.07.2025 17:15:00 | ferra.ru
20.07.2025 17:10:00 | ГАСТРОНОМЪ
20.07.2025 17:05:02 | Хабр
20.07.2025 16:44:59 | Хабр
Техническая поддержка проекта ВсеТут