
Новые исследования выявили серьёзную проблему в работе искусственного интеллекта: многие модели, включая популярные чат-боты, при ответах на вопросы опираются на данные из научных статей, которые были официально отозваны или признаны недостоверными. Это касается медицины, биологии и других областей науки, где отозванные публикации продолжают использоваться ИИ для формулировки рекомендаций и объяснений.
Команда исследователей из Университета Теннесси (США) провела тесты с использованием 21 отозванной статьи по медицинской визуализации и обнаружила, что современные версии ChatGPT (например, GPT-4o) при цитировании упоминали эти недействительные источники в ряде случаев, причём чаще, чем предупреждали об их статусе. Другое исследование показало, что при проверке более чем 200 отклонённых и недостоверных работ многие ИИ-модели не сообщали об их статусе, а порой признавали спорные утверждения верными. Значимо, что большинство таких исследований проводилось на версиях моделей с ограниченным знанием и без доступа к информации в интернете.

Исследователи подчёркивают важность внедрения механизмов распознавания отозванных работ и интеграции таких данных из научных баз в обучающие и поисковые алгоритмы искусственного интеллекта. Некоторые компании уже начали обновлять базы данных своих моделей, чтобы минимизировать использование недостоверных источников, но проблема остаётся актуальной.
Профессор Юань Фу из Иллинойского университета отмечает: «Значимость отличия отозванных публикаций очевидна, особенно когда ИИ влияет на решения в медицине и технологиях. Мы должны повышать осведомлённость как среди специалистов, так и широкой аудитории, чтобы не допустить слепого доверия к генеративным моделям». OpenAI и другие крупные разработчики пока не дали развёрнутых комментариев по этому вопросу, но в научном сообществе призывают к сотрудничеству и интеграции более прозрачных и проверяемых систем работы с научной информацией.
Эта ситуация вызывает серьёзные опасения, ведь ИИ всё чаще используется для научных обзоров, помощи исследователям и формулировки научных гипотез. Возможность получения устаревшей или неверной информации может подорвать доверие к таким системам и привести к распространению ошибок в научном и прикладном контексте.
-
23.09.2025 17:11:32 | Ведомости
23.09.2025 16:51:00 | iXBT.com
23.09.2025 16:24:00 | iXBT.com
23.09.2025 15:57:18 | TechCult.ru
23.09.2025 15:53:00 | iXBT.com
23.09.2025 15:30:00 | iXBT.com
23.09.2025 15:24:00 | iXBT.com
23.09.2025 15:16:00 | iXBT.com
23.09.2025 15:11:00 | iXBT.com
23.09.2025 14:55:00 | iXBT.com
23.09.2025 14:54:00 | iXBT.com
23.09.2025 14:53:00 | iXBT.com
23.09.2025 14:42:00 | iXBT.com
23.09.2025 14:35:00 | iXBT.com
23.09.2025 14:16:00 | iXBT.com
23.09.2025 14:09:00 | iXBT.com
23.09.2025 14:08:00 | iXBT.com
23.09.2025 13:57:00 | iXBT.com
23.09.2025 13:53:54 | TechCult.ru
23.09.2025 13:40:00 | iXBT.com
23.09.2025 13:20:00 | iXBT.com
23.09.2025 13:00:56 | Ведомости
23.09.2025 12:57:00 | iXBT.com
23.09.2025 12:52:00 | iXBT.com
23.09.2025 12:26:00 | iXBT.com
23.09.2025 12:19:00 | iXBT.com
23.09.2025 11:54:00 | iXBT.com
23.09.2025 11:52:56 | TechCult.ru
23.09.2025 11:48:00 | iXBT.com
23.09.2025 11:44:00 | iXBT.com
-
23.09.2025 20:15:26 | ferra.ru
23.09.2025 19:13:50 | КИНО-ТЕАТР.РУ
23.09.2025 18:45:55 | ferra.ru
23.09.2025 18:44:47 | КИНО-ТЕАТР.РУ
23.09.2025 18:37:34 | КИНО-ТЕАТР.РУ
23.09.2025 18:36:15 | ferra.ru
23.09.2025 18:19:50 | vc.ru
23.09.2025 18:13:15 | vc.ru
23.09.2025 18:00:52 | ferra.ru
23.09.2025 17:45:34 | КИНО-ТЕАТР.РУ
23.09.2025 17:42:42 | ferra.ru
23.09.2025 17:17:04 | ferra.ru
23.09.2025 17:15:45 | ferra.ru
23.09.2025 17:15:00 | Woman.ru
23.09.2025 17:05:12 | ferra.ru
23.09.2025 17:00:00 | ГАСТРОНОМЪ
23.09.2025 17:00:00 | ГАСТРОНОМЪ
23.09.2025 16:50:08 | ferra.ru
23.09.2025 16:39:52 | КИНО-ТЕАТР.РУ
23.09.2025 16:38:33 | vc.ru
23.09.2025 16:30:08 | ferra.ru
Техническая поддержка проекта ВсеТут