Back to Tuesday, February 10, 2026
Claude's reaction

💭 Claude's Take

Detailed technical system for solving context compaction/loss in Claude with structured templates, session handoff protocols, and specific design decisions documented. Open-sourced with concrete implementation details and token counts (~3.5K).

Un desarrollador crea un sistema para evitar que Claude pierda información en proyectos largos

🔴 r/ClaudeAI by /u/coolreddy
technical tools prompts buildable meta-tooling # showcase
View Original Post
La compactación automática de contexto en Claude representa uno de los mayores desafíos para usuarios que trabajan en proyectos de larga duración. Después de veinte mensajes aproximadamente, el modelo de IA resume automáticamente la conversación anterior para hacer espacio a nuevos intercambios, lo que provoca la pérdida sistemática de información crítica. Un desarrollador ha identificado este problema y creado una solución estructurada que preserva los datos esenciales mediante archivos en lugar de depender únicamente de la memoria conversacional. El sistema, bautizado como CLAUDE.md, funciona escribiendo el estado del proyecto en disco de forma deliberada y organizada, evitando así las pérdidas que típicamente ocurren durante la compactación automática. La investigación del desarrollador ha identificado cinco fallos específicos en el proceso de resumen: los números precisos se redondean o desaparecen, la lógica condicional se colapsa, la justificación de decisiones se pierde mientras que solo persisten los resultados, las relaciones entre documentos se aplanan, y las preguntas abiertas se resuelven silenciosamente como cerradas. La arquitectura propuesta incluye seis reglas de gestión de contexto, un protocolo de transferencia de sesiones y cinco plantillas estructuradas que previenen mecánicamente estas cinco fuentes de pérdida de información. El núcleo del sistema ocupa aproximadamente 3.500 tokens, lo que lo mantiene eficiente y accesible. Las plantillas se cargan bajo demanda y funcionan conjuntamente con un protocolo de procesamiento de documentos que evita la lectura masiva de archivos, una de las principales causas de desperdicio contextual. La mejora en eficiencia es significativa: mientras que una sesión estándar después de treinta mensajes requiere aproximadamente 50.000 tokens de historial, una nueva sesión que utiliza el protocolo de transferencia estructurada comienza con apenas 5.000 tokens, representando una reducción de diez veces en el consumo por mensaje. El sistema incluye también contratos de salida para subagendes —formatos estructurados que obligan a devolver información en campos predefinidos en lugar de texto libre— y un campo "Lo que NO releer" en cada transferencia para evitar que Claude desperdicie tokens releyendo archivos ya procesados. Esta solución aborda una necesidad específica pero creciente en el uso profesional de Claude. A medida que los modelos de IA se integran en flujos de trabajo empresariales y científicos, la capacidad de mantener contexto preciso a través de múltiples sesiones se vuelve crítica. El enfoque implementa un patrón que otros usuarios han descubierto fragmentariamente —archivos de plan, resúmenes manuales, inicios de nuevos chats— pero unificado en un marco coherente y reutilizable. El desarrollador ha puesto el código a disposición pública bajo licencia abierta, reconociendo explícitamente que la solución está dirigida a profesionales que trabajan en proyectos complejos de múltiples semanas. Para usuarios ocasionales que plantean preguntas puntuales a Claude, el sistema resulta innecesario. Sin embargo, para investigadores, analistas, programadores y consultores que mantienen conversaciones iterativas sobre proyectos complejos, representa una mejora tangible sobre el comportamiento por defecto del modelo.

🎙️ Quick Summary

Mira, esto es interesante porque toca un punto doloroso que muchos hemos experimentado. Yo trabajo regularmente con Claude en proyectos largos, y es frustrante: llevas horas refinando una estrategia, documentando decisiones, y de repente el modelo se olvida de todo en la compactación automática. Tienes que volver a explicar el contexto, volver a justificar decisiones, y pierdes productividad. Lo que más me llama la atención es que este desarrollador no está pidiendo a Anthropic que arregle Claude —está siendo pragmático. Dice básicamente: "Si el sistema resume mal, no puedo cambiar el algoritmo, así que voy a cambiar la arquitectura de cómo trabajo". Es escribir el estado en archivos, en lugar de esperar que la memoria conversacional lo retenga. Es un patrón que probablemente veremos replicarse en todo el ecosistema de IA. Pensadlo un momento: si el problema es que los modelos olvidan, ¿por qué confiamos en que recuerden? Quizás el futuro del trabajo con IA no sea tener conversaciones perfectas con memoria infinita, sino diseñar sistemas donde la máquina trabaja con datos estructurados en archivos, no en el chat. Eso es lo que de verdad me intriga de esto.

🤖 Classification Details

Detailed technical system for solving context compaction/loss in Claude with structured templates, session handoff protocols, and specific design decisions documented. Open-sourced with concrete implementation details and token counts (~3.5K).