
Компания Alibaba Group представила QwenLong-L1 – новую архитектуру, позволяющую большим языковым моделям (LLM) эффективно обрабатывать чрезвычайно длинные входные данные. Эта разработка открывает новые возможности для корпоративных приложений, требующих анализа обширных документов, таких как подробные корпоративные отчёты, многостраничные финансовые ведомости или сложные юридические контракты.
До недавнего времени способность больших моделей с рассуждениями (LRM) к работе с длинными текстами оставалась серьёзной проблемой. Хотя прогресс в области обучения с подкреплением (RL) значительно улучшил их навыки решения задач, эффективность таких моделей резко снижалась при обработке текстов, превышающих 4000 токенов. Разработчики QwenLong-L1 в своей статье отмечают, что это ограничение препятствует практическому применению LRM в областях, требующих взаимодействия с обширными базами знаний, например, в научных исследованиях.

Ключевое отличие QwenLong-L1 – многоэтапный подход к обучению. Процесс включает три основных стадии. Сначала модель проходит этап контролируемой тонкой настройки (SFT) на примерах рассуждения с длинными контекстами, что закладывает основу для точного извлечения информации из больших объёмов данных. Далее следует поэтапное обучение с подкреплением (RL), где длина входных документов постепенно увеличивается, что обеспечивает стабильную адаптацию модели к более сложным задачам. Наконец, на заключительном этапе используется выборка сложных примеров из предыдущих этапов, что стимулирует модель к освоению самых трудных задач и исследованию различных путей рассуждения.
Важной особенностью QwenLong-L1 является гибридная система вознаграждения. Она сочетает в себе строгую проверку на основе правил, гарантирующую точность, и оценку, производимую другой LLM, которая сравнивает смысловое содержание сгенерированного ответа с эталонным. Это позволяет более гибко обрабатывать различные варианты правильных ответов, характерные для длинных и сложных документов.
Тестирование QwenLong-L1 на семи эталонных наборах данных для задач вопрос-ответ на основе документов (DocQA) показало впечатляющие результаты. Модель QWENLONG-L1-32B продемонстрировала производительность, сопоставимую с Anthropic’s Claude-3.7 Sonnet Thinking, и превзошла модели OpenAI o3-mini и Qwen3-235B-A22B. Более компактная модель QWENLONG-L1-14B превзошла Google Gemini 2.0 Flash Thinking и Qwen3-32B.
Примечательно, что обучение с помощью QwenLong-L1 привело к появлению у модели специализированных навыков рассуждения в длинном контексте: лучшее «заземление» ответов (связывание ответов с конкретными частями документа), постановка промежуточных целей, отслеживание ошибок и их исправление, а также верификация ответов. Alibaba выпустила код QwenLong-L1 и веса для обученных моделей, что открывает широкие возможности для её применения в различных областях, включая юридическую сферу, финансы и сферу обслуживания.
-
04.06.2025 21:12:00 | iXBT.com
04.06.2025 21:02:00 | iXBT.com
04.06.2025 19:51:31 | Ведомости
04.06.2025 19:15:00 | iXBT.com
04.06.2025 18:56:00 | iXBT.com
04.06.2025 18:53:00 | iXBT.com
04.06.2025 18:53:00 | iXBT.com
04.06.2025 17:42:00 | iXBT.com
04.06.2025 16:52:00 | iXBT.com
04.06.2025 16:51:00 | iXBT.com
04.06.2025 16:35:00 | iXBT.com
04.06.2025 16:27:00 | iXBT.com
04.06.2025 16:23:00 | iXBT.com
04.06.2025 16:00:00 | iXBT.com
04.06.2025 15:51:00 | iXBT.com
04.06.2025 15:48:01 | TechCult.ru
04.06.2025 15:30:00 | iXBT.com
04.06.2025 15:13:00 | iXBT.com
04.06.2025 14:47:00 | iXBT.com
04.06.2025 14:12:00 | iXBT.com
04.06.2025 13:52:00 | iXBT.com
04.06.2025 13:12:00 | iXBT.com
04.06.2025 13:12:00 | iXBT.com
04.06.2025 12:52:11 | TechCult.ru
04.06.2025 12:44:00 | iXBT.com
04.06.2025 12:10:00 | iXBT.com
04.06.2025 11:59:00 | iXBT.com
04.06.2025 11:42:00 | iXBT.com
04.06.2025 11:15:00 | iXBT.com
04.06.2025 10:52:00 | iXBT.com
04.06.2025 10:27:00 | iXBT.com
-
06.06.2025 07:40:46 | ferra.ru
06.06.2025 06:05:01 | StopGame
06.06.2025 06:00:41 | ferra.ru
06.06.2025 05:40:43 | ferra.ru
06.06.2025 05:15:26 | ferra.ru
06.06.2025 04:45:17 | Хабр
06.06.2025 04:30:55 | ferra.ru
06.06.2025 03:45:00 | ferra.ru
06.06.2025 03:00:00 | ferra.ru
06.06.2025 02:00:00 | Woman.ru
06.06.2025 01:40:38 | ferra.ru
06.06.2025 01:30:00 | ferra.ru
06.06.2025 00:40:37 | ferra.ru
06.06.2025 00:00:00 | ferra.ru
06.06.2025 00:00:00 | Woman.ru
05.06.2025 23:22:26 | ferra.ru
05.06.2025 23:15:00 | ferra.ru
Техническая поддержка проекта ВсеТут