
Исследователи из компании Mem0 разработали две архитектуры памяти — Mem0 и Mem0g, — которые повышают способность больших языковых моделей (LLM) запоминать и использовать информацию в длительных диалогах. Это решение устраняет ключевое ограничение современных LLM: неспособность эффективно работать с данными за пределами их контекстного окна, даже если оно расширено до миллионов токенов.
По словам Таранджит Сингха, генерального директора Mem0, существующие системы страдают от «забывания» важных данных — например, игнорирования аллергий пациента медицинским ассистентом или потери деталей поездки в разговоре с планировщиком.

Mem0 решает проблему через динамическое извлечение и обновление информации. На первом этапе система анализирует недавние сообщения и сводку всего диалога, выделяя ключевые факты. На втором — оценивает, нужно ли добавить новые данные, обновить существующие или удалить противоречивые. В результате память агента остаётся актуальной без перегрузки контекста. Mem0g дополняет этот подход графовыми структурами, где сущности (люди, события, объекты) связаны как узлы, а их отношения — как рёбра. Это позволяет ИИ строить сложные ассоциации, например, соединять даты поездки с городами и мероприятиями.
Тестирование на базе набора данных LOCOMO показало, что Mem0 сокращает задержку на 91% и экономит более 90% токенов по сравнению с методами, загружающими полный контекст. При этом качество ответов не ухудшается. Mem0g демонстрирует аналогичную эффективность, но лучше справляется с задачами, требующими временных или логических связей. Обе архитектуры превзошли шесть категорий систем, включая решения с открытым исходным кодом и ChatGPT.
Для корпоративных приложений это означает более надёжных ИИ-агентов в службах поддержки, медицинских сервисах или планировании. Mem0 подойдёт для простых сценариев, а Mem0g — для комплексных задач вроде анализа многомесячных диалогов. Разработчики подчёркивают, что их подход не требует увеличения вычислительных ресурсов, что делает его экономически выгодным для бизнеса.
-
12.05.2025 12:24:00 | iXBT.com
12.05.2025 12:22:00 | iXBT.com
12.05.2025 12:17:00 | iXBT.com
12.05.2025 12:13:00 | iXBT.com
12.05.2025 12:02:00 | iXBT.com
12.05.2025 11:57:00 | iXBT.com
12.05.2025 11:52:00 | iXBT.com
12.05.2025 11:52:00 | iXBT.com
12.05.2025 11:43:00 | iXBT.com
12.05.2025 11:22:00 | iXBT.com
12.05.2025 11:20:00 | iXBT.com
12.05.2025 10:55:00 | iXBT.com
12.05.2025 10:51:00 | iXBT.com
12.05.2025 10:46:00 | iXBT.com
12.05.2025 10:45:00 | iXBT.com
12.05.2025 10:41:00 | iXBT.com
12.05.2025 10:39:00 | iXBT.com
12.05.2025 10:35:00 | iXBT.com
12.05.2025 10:21:00 | iXBT.com
12.05.2025 10:18:00 | iXBT.com
12.05.2025 10:08:00 | iXBT.com
12.05.2025 09:51:00 | iXBT.com
12.05.2025 09:22:00 | iXBT.com
12.05.2025 08:55:13 | TechCult.ru
12.05.2025 08:50:00 | iXBT.com
12.05.2025 08:46:00 | iXBT.com
12.05.2025 08:32:00 | iXBT.com
12.05.2025 08:11:00 | iXBT.com
12.05.2025 07:54:00 | iXBT.com
12.05.2025 07:38:00 | iXBT.com
-
12.05.2025 18:47:58 | vc.ru
12.05.2025 18:45:36 | it-world
12.05.2025 17:40:46 | vc.ru
12.05.2025 17:40:46 | vc.ru
12.05.2025 17:15:14 | ferra.ru
12.05.2025 15:00:13 | Хабр
12.05.2025 14:47:17 | vc.ru
12.05.2025 14:46:29 | Хабр
12.05.2025 14:37:58 | vc.ru
12.05.2025 14:37:58 | vc.ru
12.05.2025 14:16:09 | Хабр
12.05.2025 14:15:47 | Хабр
12.05.2025 13:37:01 | Хабр
12.05.2025 13:30:28 | ferra.ru
12.05.2025 13:18:08 | Хабр
Техническая поддержка проекта ВсеТут