AI Memory Systems

Как дать Jarvis настоящую память — сравниваем 4 решения

🔍

QMD

Локальный поиск по Markdown

Простой
🐘

ClawVault

Obsidian + структурированная память

OpenClaw
🧠

Mem0 vs Cognee

Умная память с AI-экстракцией

Продвинутый

Текущая ситуация

Что имеем сейчас и почему этого мало

📦 Что есть

  • MEMORY.md — курируемые долгосрочные воспоминания
  • memory/YYYY-MM-DD.md — ежедневные логи
  • memory_search — текстовый поиск по файлам
  • memory_get — чтение конкретных файлов

⚠️ Проблемы

  • Нет автоматического извлечения фактов
  • Я сам пишу MEMORY.md вручную
  • Поиск — текстовый, не семантический
  • Нет связей между сущностями (кто/что/когда)
  • Забываю то, что не записал

💡 Цель: память, которая работает автоматически — извлекает факты из разговоров и находит их по смыслу

4 варианта на выбор

🔍 QMD

Рекомендую первым

  • BM25 + векторный + LLM re-ranking
  • Нативная интеграция с OpenClaw
  • Локальный, 0 внешних зависимостей
  • Установка: 5 минут

🐘 ClawVault

Опционально

  • Структурированная память + Obsidian
  • Store / search / checkpoint
  • GUI через Obsidian
  • Ещё один слой поверх файлов

🧠 Mem0

Лучший для Jarvis

  • Авто-извлечение фактов из разговоров
  • Vector + Knowledge Graph
  • JS/TS SDK (нативный для OpenClaw)
  • 48K ★ на GitHub, YC $24M

🔗 Cognee

Мощный, но сложный

  • Knowledge Graph pipeline (ECL)
  • 30+ коннекторов (PDF, Slack, Notion...)
  • Мультимодальный (фото, аудио)
  • Batch processing, не real-time

Mem0 vs Cognee: Цифры

Mem0
48K
GitHub ★
$24M
Series A (YC)
2
SDK (Py + JS)
Real-time
Режим работы
VS
Cognee
12K
GitHub ★
$7.5M
Seed
1
SDK (Python)
Batch
Режим работы

Mem0 vs Cognee: Детально

КритерийMem0Cognee
АрхитектураVector DB + Graph (dual-store)Pipeline: Extract → Cognify → Load
Self-hosted DBВстроенныйSQLite + LanceDB + Kuzu
Knowledge Graph$249/мес (Pro only)Бесплатно (все уровни)
Реальное времяДа — add() в момент чатаНет — cognify() batch
JS/TS SDKДаНет (Python only)
КоннекторыРазговоры агента30+ (PDF, Slack, Notion...)
МультимодальностьНетФото, аудио, документы
RAM (self-hosted)~200-500 МБ~300-700 МБ
CPU нагрузкаЛёгкаяТяжёлая при cognify
Benchmark (LongMemEval)49.0%Не опубликован
Зрелость48K ★, SOC2, HIPAA12K ★, growing

Почему Mem0 для Jarvis?

Real-time

Извлекает факты прямо во время разговора. Не нужно запускать batch-процесс.

🟢

JS/TS SDK

Нативная совместимость с OpenClaw (Node.js). Не нужен Python bridge.

💻

Минимальная нагрузка

~200-500 МБ RAM, лёгкий CPU. Не грузит VPS.

🔒

Self-hosted

Полный контроль данных. Никаких внешних API.

🧩

Простая интеграция

3 строки кода: add() → search() → готово.

📈

Зрелый проект

48K ★, YC-стартап, v1.0, SOC2/HIPAA.

Дорожная карта

Пошаговый план улучшения памяти Jarvis

1

Сейчас

QMD

Лучший семантический поиск по Markdown файлам. 5 минут установки.

memory.backend = "qmd"

2

Следующий

Mem0 Self-hosted

Авто-извлечение фактов из разговоров. Векторный поиск + связи.

npm install mem0ai

3

Будущее

Cognee (опционально)

Knowledge graph из документов. PDF, Notion, Slack → граф знаний.

Если понадобится deeper understanding

✅ Рекомендация

Шаг 1: QMD — быстрый апгрейд поиска (сегодня)
Шаг 2: Mem0 self-hosted — умная память (на след. неделе)
Шаг 3: Cognee — если захочешь knowledge graph из внешних источников

1 / 7