ai-mem es una capa de memoria persistente de código abierto (AGPL-3.0) que proporciona memoria a largo plazo universal para cualquier modelo de lenguaje. Mientras otros sistemas de memoria están ligados a un solo proveedor, ai-mem permite que Claude, Gemini, ChatGPT y modelos locales accedan al mismo almacén de contexto, de forma que un descubrimiento capturado en una sesión con Claude aparece automáticamente en Gemini o cualquier otro agente que consulte el almacén compartido.
Ventajas clave
- Multi-LLM nativo: la misma memoria para Claude, Gemini, GPT y cualquier modelo compatible.
- Local-first y privado: todos los datos se almacenan en disco via SQLite/FTS5 y Chroma (vector store); no requiere APIs en la nube.
- Modo Endless (O(N)): comprime observaciones en tiempo real (~500 tokens por observación) preservando salidas completas en archivo. Permite ~20x más usos de herramientas antes de agotar el contexto.
- Grafo de conocimiento: extrae entidades y relaciones de las observaciones para una recuperación semántica precisa.
- Divulgación progresiva en 3 capas: índice compacto → contexto de línea temporal → detalle completo bajo demanda, ahorrando ~10x tokens.
Inicio rápido
# Inicializar el entorno
./scripts/bootstrap.sh
source .venv/bin/activate
# Guardar una observación
ai-mem add "Usamos Python 3.11 y pandas 2.0"
# Buscar en memoria
ai-mem search "dependencias de Python"
# Lanzar UI y servidor MCP
./scripts/run.sh
Características avanzadas
- Grafo de conocimiento: extracción de entidades (archivos, funciones, clases, conceptos, tecnologías) y traversal multi-salto.
- Recuperación en dos etapas: reranking configurable con bi-encoder, TF-IDF o cross-encoder.
- Consolidación y decaimiento de memoria: fusión de duplicados y limpieza automática de memorias obsoletas.
- Sesiones reanudables: continúa sesiones entre conversaciones con seguimiento del estado.
- Soporte multiidioma: más de 28 idiomas incluyendo español.
- Integración con ai-skills: combina memoria persistente con más de 80 habilidades de experto.
Stack tecnológico
- Python 3.10+ con SQLite/FTS5 y Chroma (vector store)
- Servidor MCP y API REST en
http://localhost:37777 - Adaptadores para Claude, Gemini y proveedores genéricos
- Proveedor OpenRouter: acceso a 200+ modelos incluyendo opciones gratuitas