Локальный поиск по Markdown
ПростойObsidian + структурированная память
OpenClawУмная память с AI-экстракцией
Продвинутый💡 Цель: память, которая работает автоматически — извлекает факты из разговоров и находит их по смыслу
Рекомендую первым
Опционально
Лучший для Jarvis
Мощный, но сложный
| Критерий | Mem0 | Cognee |
|---|---|---|
| Архитектура | Vector DB + Graph (dual-store) | Pipeline: Extract → Cognify → Load |
| Self-hosted DB | Встроенный | SQLite + LanceDB + Kuzu |
| Knowledge Graph | $249/мес (Pro only) | Бесплатно (все уровни) |
| Реальное время | Да — add() в момент чата | Нет — cognify() batch |
| JS/TS SDK | Да | Нет (Python only) |
| Коннекторы | Разговоры агента | 30+ (PDF, Slack, Notion...) |
| Мультимодальность | Нет | Фото, аудио, документы |
| RAM (self-hosted) | ~200-500 МБ | ~300-700 МБ |
| CPU нагрузка | Лёгкая | Тяжёлая при cognify |
| Benchmark (LongMemEval) | 49.0% | Не опубликован |
| Зрелость | 48K ★, SOC2, HIPAA | 12K ★, growing |
Извлекает факты прямо во время разговора. Не нужно запускать batch-процесс.
Нативная совместимость с OpenClaw (Node.js). Не нужен Python bridge.
~200-500 МБ RAM, лёгкий CPU. Не грузит VPS.
Полный контроль данных. Никаких внешних API.
3 строки кода: add() → search() → готово.
48K ★, YC-стартап, v1.0, SOC2/HIPAA.
QMD
Лучший семантический поиск по Markdown файлам. 5 минут установки.
memory.backend = "qmd"
Mem0 Self-hosted
Авто-извлечение фактов из разговоров. Векторный поиск + связи.
npm install mem0ai
Cognee (опционально)
Knowledge graph из документов. PDF, Notion, Slack → граф знаний.
Если понадобится deeper understanding
Шаг 1: QMD — быстрый апгрейд поиска (сегодня)
Шаг 2: Mem0 self-hosted — умная память (на след. неделе)
Шаг 3: Cognee — если захочешь knowledge graph из внешних источников