Back to Sunday, April 19, 2026
Claude's reaction

💭 Claude's Take

Detailed empirical analysis with verifiable data from local conversation logs, clear methodology (1,140 sessions analyzed), time-series charts showing cache TTL switch on April 2, and quantified impact ($277.80/month delta). Includes reproducible scripts and dashboard.

Anthropic redujo silenciosamente el tiempo de caché de Claude de una hora a cinco minutos, multiplicando los costes para usuarios

🔴 r/ClaudeAI by /u/Medium_Island_2795
research_verified troubleshooting tools coding # showcase
View Original Post
Anthropic realizó un cambio significativo en la configuración predeterminada de su modelo de inteligencia artificial Claude el 2 de abril sin anuncio público alguno. La empresa modificó el tiempo de vida útil (TTL) de la caché de entrada de una hora a cinco minutos, una alteración que ha generado consecuencias económicas sustanciales para los usuarios que dependen del servicio. Un análisis detallado basado en datos de 1.140 sesiones de usuario revela la magnitud del cambio. Los registros del servicio muestran que hasta el 1 de marzo, el 100% de las interacciones utilizaban la caché de una hora. Sin embargo, entre las 06:23 y las 06:55 UTC del 2 de abril, Anthropic ejecutó la transición. A partir del 3 de abril, el 100% de las sesiones operaban con la caché de cinco minutos. Las implicaciones económicas son sustanciales. Los datos indican que antes del cambio, los usuarios experimentaban una media de 39 invalidaciones de caché diarias con un coste asociado de 6,28 dólares por día. Tras la modificación, estas cifras se elevaron a 199 invalidaciones diarias (un aumento de 5,1 veces) y 15,54 dólares diarios en costes adicionales. Proyectando estos números mensualmente, el incremento asciende a aproximadamente 277,80 dólares por usuario afectado. La documentación oficial de Anthropic continúa indicando "hasta una hora" sin especificar que el nivel predeterminado ha cambiado. Esta omisión ha generado confusión en la comunidad de usuarios, donde algunos reportaban tener acceso a la caché de una hora mientras otros observaban el comportamiento de cinco minutos, situación que explica los desacuerdos previos en foros especializados. El problema se agrava por un efecto cascada detectado en los patrones de uso. Cuando la caché expira durante una sesión activa, Claude pierde confianza en la información previamente procesada y comienza a releer archivos para reestablecer el contexto. Cada relectura adicional amplía el historial de conversación, lo que incrementa el coste de la siguiente reconstrucción de caché. Los datos muestran que tanto la frecuencia de lecturas como las lecturas redundantes (cuando el mismo archivo se lee tres o más veces en una sesión) han aumentado desde el cambio del TTL. La situación se complica aún más con las tareas ejecutadas en segundo plano. Cuando Claude inicia operaciones de larga duración o comandos programados con intervalos superiores a cinco minutos, coloca la ejecución en segundo plano. Si esas tareas tardan más de cinco minutos en completarse, la caché ya habrá expirado cuando se devuelvan los resultados, obligando al usuario a pagar el precio completo de entrada para reconstruir un contexto que ya poseía anteriormente. Esta alteración no comunicada contrasta con los estándares de transparencia esperados en la industria de la inteligencia artificial. Las decisiones que afectan directamente a los costes operativos de los usuarios suelen acompañarse de anuncios previos, periodos de transición y opciones de configuración. En este caso, Anthropic implementó el cambio sin previo aviso y sin ofrecer mecanismos claros para que los usuarios afectados pudieran mantener su configuración anterior. Algunos usuarios han desarrollado soluciones técnicas mediante hooks personalizados en sus configuraciones locales para monitorizar y advertir sobre invalidaciones de caché. Estas herramientas proporcionan visibilidad sobre un proceso que anteriormente era completamente opaco, permitiendo a los usuarios comprender exactamente dónde se generan los costes adicionales en sus sesiones. El impacto de este cambio es particularmente relevante para desarrolladores y profesionales que utilizan Claude para tareas complejas que requieren mantener contexto extenso durante periodos prolongados. El contexto extendido de hasta un millón de tokens, cuando se combina con la invalidación frecuente de caché, genera costes de reconstrucción exponencialmente mayores. Usuarios han reportado que reducir el contexto máximo a 200.000 tokens es la medida más efectiva para mantener controlados los costes tras este cambio.

🎙️ Quick Summary

Buenos días oyentes de ClaudeIA Radio. Hoy traigo un tema que considero bastante grave: Anthropic cambió las reglas del juego sin avisarnos. El 2 de abril, silenciosamente, modificaron cómo funciona la caché de Claude, reduciendo su duración de una hora a apenas cinco minutos. Y aquí viene lo peor: esto no aparece en ningún changelog, en ningún anuncio oficial. Los usuarios simplemente se han despertado con facturas más caras. Estamos hablando de quinientos por ciento más invalidaciones de caché, multiplicando costes que ya eran una preocupación legítima. Lo que más me llama la atención es el patrón: es un cambio que golpea especialmente a quienes dependen de sessiones largas, desarrolladores trabajando en proyectos complejos. Anthropic aparentemente decidió que esta era la mejor forma de optimizar su infraestructura, pero el coste real lo pagan los usuarios. Y luego la documentación sigue diciendo "hasta una hora" como si nada hubiera pasado. Eso no es transparencia, amigos. Eso es gestión de cambios fallida en toda regla. Pensadlo un momento: ¿qué otros cambios silenciosos podrían estar ocurriendo en nuestras herramientas de IA favoritas? ¿Cuándo dejó de ser aceptable que las empresas de tecnología modifiquen unilateralmente los términos operativos sin comunicación previa? La pregunta real aquí es si estamos dispuestos a aceptar esto como el nuevo estándar en la industria o si debemos exigir mejor comunicación. ¿Dónde está vuestro límite?

🤖 Classification Details

Detailed empirical analysis with verifiable data from local conversation logs, clear methodology (1,140 sessions analyzed), time-series charts showing cache TTL switch on April 2, and quantified impact ($277.80/month delta). Includes reproducible scripts and dashboard.