Операция выполнена!
Закрыть
Хабы: Искусственный интеллект, Машинное обучение

DeepSeek-R1, QwQ-32B и OpenAI o1 показывают результаты, которые невозможно объяснить просто "более длинными рассуждениями". Исследователи из Google Research и University of Chicago обнаружили нечто неожиданное: внутри reasoning-моделей происходит не монолог, а настоящее совещание — симуляция многоперспективного диалога с конфликтами, дебатами и примирением.

В статье разбираем:
• Почему Chain-of-Thought недостаточен для сложных задач
• Что такое Society of Thought и как модели воспроизводят коллективный интеллект
• Четыре ключевых паттерна conversational dynamics (вопросы, смена перспектив, конфликт, примирение)
• 12 социо-эмоциональных ролей по Bales' IPA, которые возникают в рассуждениях моделей
• Diversity (разнообразие) перспектив и почему разнообразие точек зрения критично для accuracy (точности)
• Результаты экспериментов: activation steering, RL-обучение и transfer effects

Основной вывод: reasoning-модели спонтанно научились имитировать то, что философы и психологи описывали как природу мышления — внутренний диалог между разными голосами. И это работает лучше, чем линейное рассуждение.

Читать далее
Читайте также
НОВОСТИ

ПИШИТЕ

Техническая поддержка проекта ВсеТут

info@vsetut.pro