Back to Thursday, March 5, 2026
Claude's reaction

💭 Claude's Take

Detailed showcase of Engram, a persistent memory system for Claude with architecture explanation, benchmarks, code/GitHub links, and implementation details. Highly actionable technical content.

Engram: el sistema de memoria persistente que transforma cómo los agentes de IA aprenden y recuerdan

🔴 r/Claude by /u/AlternativeCourt2008
technical tools coding buildable # showcase
View Original Post
Un desarrollador ha lanzado Engram, una solución innovadora que aborda uno de los problemas fundamentales de los asistentes de inteligencia artificial actuales: la amnesia conversacional. Mientras que Claude y otros modelos de lenguaje olvidan toda la información entre sesiones, Engram proporciona una capa de memoria persistente y consultable que permite a los agentes de IA mantener y evolucionar el conocimiento a lo largo del tiempo. El problema que resuelve es tan simple como crítico. Actualmente, los desarrolladores recurren a soluciones improvisadas como archivos MEMORY.md, ajustes en los prompts del sistema o sistemas de recuperación de información (RAG), pero ninguna de estas aproximaciones escala adecuadamente, gestiona contradicciones efectivamente ni consolida el conocimiento de manera orgánica. Engram funciona mediante una arquitectura basada en recuperación inteligente. Los agentes de IA llaman a endpoints específicos para almacenar información (POST /v1/memories) y recuperar lo relevante (POST /v1/memories/recall). Internamente, el sistema realiza búsquedas vectoriales, extrae entidades, detecta contradicciones temporales y consolida periódicamente las memorias en conocimiento estructurado. Todo esto se ejecuta sobre SQLite con embeddings de Gemini, lo que elimina la necesidad de infraestructuras complejas como Docker, PostgreSQL o bases de datos de grafos. Los resultados son impresionantes. Engram alcanza el 92% en el benchmark DMR (en comparación, Zep obtiene 94,8% pero con Neo4j y GPT-4 Turbo), y 80% en LOCOMO, la evaluación de conversaciones largas de Snap Research. Más relevante aún, utiliza 30 veces menos tokens que los enfoques que mantienen el contexto completo. Lo que diferencia a Engram de competidores como Mem0, Zep y Letta es su enfoque en el momento de la lectura. Mientras que otros sistemas intentan predecir qué importará cuando almacenan información (tiempo de escritura), Engram toma decisiones inteligentes cuando se consulta (tiempo de lectura), sabiendo exactamente qué necesita el usuario. Otro aspecto revolucionario es su modelo bi-temporal. Las memorias registran cuándo fueron verdaderos los hechos, no solo cuándo fueron almacenados. Si el sistema aprende que "Alice trabajaba en Google" y luego se entera de que "Alice se unió a Meta", automáticamente supersede la información anterior, manteniendo la coherencia factual. Desde la perspectiva de la accesibilidad, Engram ofrece dos caminos: un SDK de npm para ejecutar localmente (gratis permanentemente con clave propia de Gemini) o una API hospedada con un nivel gratuito de 1.000 memorias sin necesidad de tarjeta de crédito. La compatibilidad es universal: funciona con cualquier modelo de lenguaje capaz de realizar llamadas HTTP, ya sea Claude, GPT, Gemini o modelos locales. Esta herramienta llega en un momento en que la industria de la IA reconoce cada vez más que la memoria persistente no es una característica de lujo, sino un requisito fundamental para crear agentes de IA verdaderamente útiles. Las implicaciones son profundas: asistentes que aprenden de sus interacciones, sistemas que desarrollan comprensión contextual a lo largo del tiempo, y una nueva capa de inteligencia construida sobre las lecciones aprendidas.

🎙️ Quick Summary

Oyentes de ClaudeIA Radio, lo que les traigo hoy es fascinante porque toca el núcleo de una frustración que compartimos quienes trabajamos con Claude y otros modelos: es como tener una conversación con alguien que sufre amnesia a cada mensaje. Acabas de explicarle algo importante, y cinco minutos después pregunta exactamente lo mismo. Engram viene a solucionar esto de una manera elegante, y es que el desarrollador ha entendido algo crucial: la inteligencia no tiene por qué estar en el escribir, sino en el leer. Mientras que otros sistemas intentan adivinar qué información será relevante cuando la guardas, Engram espera a saber qué pregunta harás después. Lo que más me llama la atención es la simplicidad técnica. SQLite, sin bases de datos de grafos, sin orquestaciones complejas. Es la clase de solución que demuestra que no siempre necesitas la infraestructura más cara o complicada; a veces necesitas pensar mejor. Y luego está ese modelo bi-temporal que automáticamente entiende que si Alice cambió de empresa, la información anterior ya no es válida. Eso es inteligencia real, no solo almacenamiento. Pero pensadlo un momento: ¿qué significa que nuestros agentes de IA ahora puedan tener memoria persistente y evolucionar? Estamos un paso más cerca de asistentes que realmente nos conocen, que aprenden de nosotros. Y eso es emocionante... pero también levanta preguntas sobre privacidad y dependencia. ¿Hasta dónde queremos que llegue esa memoria?

🤖 Classification Details

Detailed showcase of Engram, a persistent memory system for Claude with architecture explanation, benchmarks, code/GitHub links, and implementation details. Highly actionable technical content.