
В новом исследовании учёные выявили тревожную тенденцию: искусственный интеллект загрязняет онлайн-экосистему академической информации сгенерированными научными статьями.
Группа исследователей изучила распространённость статей с признаками искусственно сгенерированного текста в Google Scholar - популярной академической поисковой системе. Они сосредоточились на неправомерном использовании генеративных предобученных трансформеров (GPT), как больших языковых моделей, включая такие известные системы, как ChatGPT от OpenAI.

Анализ выборки научных статей в Google Scholar показал, что две трети изученных работ были как минимум частично созданы с помощью GPT без указания этого факта. Из GPT-сфабрикованных статей 14,5% касались здравоохранения, 19,5% - окружающей среды, а 23% - вычислительной техники.
«Риск того, что мы называем "манипулированием доказательствами", значительно возрастает, когда исследования, сгенерированные ИИ, распространяются в поисковых системах», - отметил Бьёрн Экстрём, соавтор исследования из Шведской школы библиотечных и информационных наук.
Исследователи выделили два основных риска. Во-первых, обилие сфабрикованных «исследований» угрожает целостности научных данных. Во-вторых, возрастает вероятность того, что убедительно выглядящий научный контент на самом деле был создан с помощью ИИ и оптимизирован для поиска в общедоступных академических поисковых системах.
«Если мы не можем доверять подлинности исследований, которые читаем, то мы рискуем принимать решения на основе неверной информации», - подчеркнула Ютта Хайдер, соавтор исследования.
Проблема усугубляется тем, что ИИ-сгенерированные тексты были обнаружены как в рецензируемых работах, так и в менее проверенных материалах, что указывает на загрязнение всей онлайн-системы академической информации.
Эксперты призывают к созданию защитных механизмов в рецензируемых журналах и поисковых системах академических работ, чтобы технологии ИИ служили научным открытиям, а не противодействовали им.
-
22.01.2025 11:33:00 | iXBT.com
22.01.2025 11:28:00 | iXBT.com
22.01.2025 11:23:00 | iXBT.com
22.01.2025 11:21:00 | iXBT.com
22.01.2025 11:01:00 | iXBT.com
22.01.2025 10:50:00 | iXBT.com
22.01.2025 10:44:00 | iXBT.com
22.01.2025 09:41:00 | iXBT.com
22.01.2025 09:32:00 | iXBT.com
22.01.2025 09:27:00 | iXBT.com
22.01.2025 09:16:00 | iXBT.com
22.01.2025 09:11:00 | iXBT.com
22.01.2025 09:06:00 | iXBT.com
22.01.2025 08:46:00 | iXBT.com
22.01.2025 08:20:00 | iXBT.com
22.01.2025 08:06:00 | iXBT.com
22.01.2025 07:55:22 | TechCult.ru
22.01.2025 07:55:00 | iXBT.com
22.01.2025 07:38:00 | iXBT.com
22.01.2025 07:19:00 | iXBT.com
22.01.2025 07:10:00 | iXBT.com
22.01.2025 07:04:24 | Ведомости
22.01.2025 07:01:00 | iXBT.com
22.01.2025 06:53:00 | iXBT.com
22.01.2025 06:47:00 | iXBT.com
22.01.2025 06:41:00 | iXBT.com
22.01.2025 02:39:00 | iXBT.com
22.01.2025 02:23:00 | iXBT.com
22.01.2025 00:22:57 | Ведомости
22.01.2025 00:19:50 | Ведомости
-
26.04.2025 12:45:09 | ferra.ru
26.04.2025 11:19:17 | vc.ru
26.04.2025 10:30:14 | ferra.ru
26.04.2025 09:45:06 | ferra.ru
26.04.2025 09:35:14 | Хабр
26.04.2025 09:31:46 | ferra.ru
26.04.2025 09:01:32 | Хабр
26.04.2025 08:33:03 | Хабр
26.04.2025 08:16:23 | Хабр
26.04.2025 08:15:57 | ferra.ru
26.04.2025 08:13:48 | ferra.ru
26.04.2025 08:00:19 | Хабр
26.04.2025 07:21:46 | ferra.ru
Техническая поддержка проекта ВсеТут