Операция выполнена!
Закрыть
Хабы: Искусственный интеллект, Программирование, Облачные сервисы, Качество кода, Исследования и прогнозы в IT

Локальные LLM для кода — пока мусор. По крайней мере на M1 Max 32GB

Тестировал 5 моделей на реальном проекте. Результат:
qwen3-coder-30b - завис после 44k токенов
qwen2.5-coder-14b - ушёл в бесконечные вопросы
qwen3-8b - пыталась выполнить list_files в терминале
deepseek-coder - сломал файл со второй попытки

При этом DeepSeek через API за 95₽ сделал три валидных изменения за 11 минут.
Вывод: если нет жёстких требований к конфиденциальности - не мучайте свое железо. Claude Code или облачный DeepSeek работают в разы лучше.

Подробный разбор с промптами, настройками и ценами провайдеров в статье.

Перейти
Читайте также
СТАТЬ АВТОРОМ
НОВОСТИ

ПИШИТЕ

Техническая поддержка проекта ВсеТут

info@vsetut.pro