Операция выполнена!
Закрыть
Хабы: Искусственный интеллект

Вступление. В мире ИИ разгораются споры: может ли сравнительно небольшая модель превзойти или хотя бы заменить гиганта на порядок большего размера? Недавний пример — противостояние между Qwen QwQ 32B (32-миллиардная модель от Alibaba) и DeepSeek 671B (671-миллиардная модель). QwQ 32B привлекла к себе внимание тем, что при гораздо меньшем размере показывает результаты, сопоставимые с DeepSeek, в ряде стандартных тестов (QwQ-32B: Embracing the Power of Reinforcement Learning). Более того, её запуск и использование обходятся куда дешевле: если для DeepSeek-R1 требуются сверхмощные серверы (сотни гигабайт памяти на видеокарте), то QwQ 32B можно запустить даже на одном высокопроизводительном настольном ПК. На первый взгляд кажется, что выбор очевиден — зачем платить больше, если новая компактная модель справляется «почти так же хорошо»? Однако в профессиональных задачах, где цена ошибки слишком высока, подобное упрощение чревато последствиями. Рассмотрим, почему впечатляющие результаты тестов Qwen QwQ 32B не означают, что она способна полностью заменить DeepSeek 671B в сферах, требующих абсолютной точности.

Читать далее
Читайте также
НОВОСТИ

ПИШИТЕ

Техническая поддержка проекта ВсеТут

info@vsetut.pro