
В новом исследовании учёные выявили тревожную тенденцию: искусственный интеллект загрязняет онлайн-экосистему академической информации сгенерированными научными статьями.
Группа исследователей изучила распространённость статей с признаками искусственно сгенерированного текста в Google Scholar - популярной академической поисковой системе. Они сосредоточились на неправомерном использовании генеративных предобученных трансформеров (GPT), как больших языковых моделей, включая такие известные системы, как ChatGPT от OpenAI.

Анализ выборки научных статей в Google Scholar показал, что две трети изученных работ были как минимум частично созданы с помощью GPT без указания этого факта. Из GPT-сфабрикованных статей 14,5% касались здравоохранения, 19,5% - окружающей среды, а 23% - вычислительной техники.
«Риск того, что мы называем "манипулированием доказательствами", значительно возрастает, когда исследования, сгенерированные ИИ, распространяются в поисковых системах», - отметил Бьёрн Экстрём, соавтор исследования из Шведской школы библиотечных и информационных наук.
Исследователи выделили два основных риска. Во-первых, обилие сфабрикованных «исследований» угрожает целостности научных данных. Во-вторых, возрастает вероятность того, что убедительно выглядящий научный контент на самом деле был создан с помощью ИИ и оптимизирован для поиска в общедоступных академических поисковых системах.
«Если мы не можем доверять подлинности исследований, которые читаем, то мы рискуем принимать решения на основе неверной информации», - подчеркнула Ютта Хайдер, соавтор исследования.
Проблема усугубляется тем, что ИИ-сгенерированные тексты были обнаружены как в рецензируемых работах, так и в менее проверенных материалах, что указывает на загрязнение всей онлайн-системы академической информации.
Эксперты призывают к созданию защитных механизмов в рецензируемых журналах и поисковых системах академических работ, чтобы технологии ИИ служили научным открытиям, а не противодействовали им.
-
22.01.2025 11:33:00 | iXBT.com
22.01.2025 11:28:00 | iXBT.com
22.01.2025 11:23:00 | iXBT.com
22.01.2025 11:21:00 | iXBT.com
22.01.2025 11:01:00 | iXBT.com
22.01.2025 10:50:00 | iXBT.com
22.01.2025 10:44:00 | iXBT.com
22.01.2025 09:41:00 | iXBT.com
22.01.2025 09:32:00 | iXBT.com
22.01.2025 09:27:00 | iXBT.com
22.01.2025 09:16:00 | iXBT.com
22.01.2025 09:11:00 | iXBT.com
22.01.2025 09:06:00 | iXBT.com
22.01.2025 08:46:00 | iXBT.com
22.01.2025 08:20:00 | iXBT.com
22.01.2025 08:06:00 | iXBT.com
22.01.2025 07:55:22 | TechCult.ru
22.01.2025 07:55:00 | iXBT.com
22.01.2025 07:38:00 | iXBT.com
22.01.2025 07:19:00 | iXBT.com
22.01.2025 07:10:00 | iXBT.com
22.01.2025 07:04:24 | Ведомости
22.01.2025 07:01:00 | iXBT.com
22.01.2025 06:53:00 | iXBT.com
22.01.2025 06:47:00 | iXBT.com
22.01.2025 06:41:00 | iXBT.com
22.01.2025 02:39:00 | iXBT.com
22.01.2025 02:23:00 | iXBT.com
22.01.2025 00:22:57 | Ведомости
22.01.2025 00:19:50 | Ведомости
-
10.03.2025 17:15:45 | ferra.ru
10.03.2025 16:38:38 | vc.ru
10.03.2025 14:00:57 | Хабр
10.03.2025 13:59:06 | vc.ru
10.03.2025 13:36:01 | Хабр
10.03.2025 13:19:58 | Хабр
10.03.2025 13:10:39 | Хабр
10.03.2025 13:03:31 | Хабр
10.03.2025 12:40:53 | vc.ru
10.03.2025 12:35:58 | Хабр
10.03.2025 12:17:38 | it-world
10.03.2025 12:01:57 | Хабр
10.03.2025 11:37:59 | Хабр
Техническая поддержка проекта ВсеТут