Back to Tuesday, February 17, 2026
Claude's reaction

💭 Claude's Take

Updated CLAUDE.md system prompt backed by research citations (Self-Attention Limits Working Memory, Chroma Context Rot, Lost in the Middle TACL 2024). Provides research-grounded patterns for multi-session Claude Code work with templates and GitHub repo.

Un desarrollador resuelve el problema de pérdida de contexto en Claude con un nuevo protocolo basado en investigación científica

🔴 r/ClaudeAI by /u/coolreddy
technical prompts buildable research # resource
View Original Post
La gestión del contexto se ha convertido en uno de los desafíos más críticos al trabajar con modelos de lenguaje grandes en sesiones prolongadas. Un desarrollador ha presentado una solución radicalmente simplificada denominada CLAUDE.md, un protocolo que aborda el problema fundamental de la compactación y pérdida de información que ocurre cuando los modelos de IA resumen conversaciones extensas. El problema es bien conocido entre quienes utilizan Claude para proyectos complejos: después de treinta mensajes, cada intercambio acumula aproximadamente 50.000 tokens de historial. Cuando comienza una nueva sesión con resúmenes estándar, la información disponible se reduce a 5.000-10.000 tokens, representando una pérdida de contexto del 90%. Durante este proceso de compresión, elementos críticos desaparecen sistemáticamente: los números precisos se redondean, la lógica condicional colapsa, la justificación de decisiones se evapora y las relaciones entre documentos se simplifican. La investigación que fundamenta esta nueva versión ha desafiado varias suposiciones previas sobre cómo procesan contexto los grandes modelos de lenguaje. Según los estudios consultados, los modelos de IA solo pueden mantener un seguimiento efectivo de 5 a 10 reglas antes de comenzar a ignorar silenciosamente algunas, un hallazgo que contradice versiones anteriores del protocolo que contenían más de quince reglas. Un estudio adicional sobre interferencia de contexto demostró que las explicaciones prosas temáticamente relacionadas con las instrucciones interfieren más que el ruido aleatorio, lo que sugiere que las secciones de justificación no son neutras sino que compiten activamente con los propios mandatos que pretenden reforzar. Otra conclusión relevante afecta directamente a Claude: la versión 4.6 del modelo sobrerreacciona ante términos como "CRÍTICO" y "NUNCA", patrones que funcionaban con Claude 3.x pero ahora generan sobrecorrección. La documentación oficial de Anthropic recomienda utilizar imperativos simples en lugar de estos énfasis artificiales. La solución implementada en la versión 4 del protocolo reduce drásticamente la complejidad: solo 47 líneas de código y 7 reglas fundamentales, sin ninguna explicación de relleno. Cada decisión de diseño se corresponde con un artículo científico específico. Las reglas eliminadas se han trasladado a archivos de referencia que Claude carga bajo demanda, alineándose con el patrón de "contexto justo a tiempo" que recomienda Anthropic. Las mejoras adicionales incluyen colocar listas de verificación al final del archivo (estudios demuestran aproximadamente un 30% de mejor cumplimiento cuando las instrucciones aparecen al final), limitar cada regla a 1-3 líneas para mejorar la capacidad del modelo de localizarlas, e implementar un sistema de mapeo entre tipos de trabajo y archivos de contexto. El enfoque puede resumirse mediante una analogía nutricional: la ingeniería de contexto funciona como la nutrición. El exceso de un tipo de información produce rendimientos decrecientes, la ausencia de componentes críticos invalida todo el sistema, y demasiado contexto total degrada el rendimiento. La combinación correcta depende de la tarea específica. El protocolo mantiene su licencia MIT original sin dependencias externas, preservando las plantillas y el sistema de transferencia de sesiones pero con mejoras sustanciales. El sistema incluye reglas de gestión de contexto donde el estado se escribe en disco en lugar de en la conversación, un protocolo de transferencia de sesiones para mantener continuidad, plantillas estructuradas que previenen pérdidas de compactación, un protocolo de procesamiento de documentos que evita lecturas masivas, patrones de recuperación de errores, y un campo "Qué NO releer" en cada transferencia de sesión para eliminar desperdicio de tokens en archivos ya procesados. Esta solución cobra relevancia en un contexto donde los usuarios de Claude van más allá de desarrolladores de software: profesionales en nutrición, gestión de proyectos y otras disciplinas utilizan Claude Code para trabajos que abarcan múltiples sesiones. El protocolo responde a una necesidad genuina documentada en la investigación reciente sobre procesamiento de contexto en modelos de lenguaje, utilizando fundamentos científicos para resolver un problema práctico recurrente.

🎙️ Quick Summary

Esto es interesante porque toca un problema que muchos de vosotros probablemente habéis experimentado sin saber exactamente por qué ocurría. Cuando trabajáis con Claude durante varias sesiones seguidas y intentáis mantener continuidad, sentís que algo se pierde, ¿verdad? El modelo empieza a olvidar matices, números exactos, la lógica de por qué hicisteis algo. Pues bien, resulta que no es paranoia vuestra: es un problema real, medible, y ahora tiene una solución basada en investigación científica legítima. Lo que más me llama la atención es cómo este desarrollador ha hecho su tarea. No se ha limitado a pensar "voy a hacer algo mejor" y lanzarlo. No. Ha buceado en papers científicos reales, ha descubierto que sus suposiciones anteriores eran incorrectas —que el modelo podía mantener solo 5-10 reglas, no 15 como creía— y ha ajustado todo según eso. Eso es trabajo de ingeniería de verdad. Pero aquí viene lo que me fascina: ha descubierto que añadir explicaciones largas sobre por qué son importantes las reglas en realidad las hace peor. Vuestro modelo las ignora más. Es contraintuitivo, ¿no? Creemos que si explicamos bien algo, funciona mejor. En realidad, el exceso de prosa temática interfiere. Y pensadlo un momento en lo que esto implica para el futuro de trabajar con IA. No se trata solo de Claude, sino de una lección más profunda: la ingeniería de prompts y contexto necesita ser científica, basada en datos, no en intuición. El hecho de que alguien se tome el tiempo para investigar realmente cómo procesan estos modelos la información y traducirlo en un protocolo concreto, repetible y gratuito, eso es lo que eventualmente va a separar a los usuarios expertos de los ocasionales. ¿Cuántos de vosotros estáis dispuestos a aplicar investigación rigurosa a vuestras propias interacciones con IA?

🤖 Classification Details

Updated CLAUDE.md system prompt backed by research citations (Self-Attention Limits Working Memory, Chroma Context Rot, Lost in the Middle TACL 2024). Provides research-grounded patterns for multi-session Claude Code work with templates and GitHub repo.