Anthropic realizó un cambio significativo en la configuración predeterminada de su modelo de inteligencia artificial Claude el 2 de abril sin anuncio público alguno. La empresa modificó el tiempo de vida útil (TTL) de la caché de entrada de una hora a cinco minutos, una alteración que ha generado consecuencias económicas sustanciales para los usuarios que dependen del servicio.
Un análisis detallado basado en datos de 1.140 sesiones de usuario revela la magnitud del cambio. Los registros del servicio muestran que hasta el 1 de marzo, el 100% de las interacciones utilizaban la caché de una hora. Sin embargo, entre las 06:23 y las 06:55 UTC del 2 de abril, Anthropic ejecutó la transición. A partir del 3 de abril, el 100% de las sesiones operaban con la caché de cinco minutos.
Las implicaciones económicas son sustanciales. Los datos indican que antes del cambio, los usuarios experimentaban una media de 39 invalidaciones de caché diarias con un coste asociado de 6,28 dólares por día. Tras la modificación, estas cifras se elevaron a 199 invalidaciones diarias (un aumento de 5,1 veces) y 15,54 dólares diarios en costes adicionales. Proyectando estos números mensualmente, el incremento asciende a aproximadamente 277,80 dólares por usuario afectado.
La documentación oficial de Anthropic continúa indicando "hasta una hora" sin especificar que el nivel predeterminado ha cambiado. Esta omisión ha generado confusión en la comunidad de usuarios, donde algunos reportaban tener acceso a la caché de una hora mientras otros observaban el comportamiento de cinco minutos, situación que explica los desacuerdos previos en foros especializados.
El problema se agrava por un efecto cascada detectado en los patrones de uso. Cuando la caché expira durante una sesión activa, Claude pierde confianza en la información previamente procesada y comienza a releer archivos para reestablecer el contexto. Cada relectura adicional amplía el historial de conversación, lo que incrementa el coste de la siguiente reconstrucción de caché. Los datos muestran que tanto la frecuencia de lecturas como las lecturas redundantes (cuando el mismo archivo se lee tres o más veces en una sesión) han aumentado desde el cambio del TTL.
La situación se complica aún más con las tareas ejecutadas en segundo plano. Cuando Claude inicia operaciones de larga duración o comandos programados con intervalos superiores a cinco minutos, coloca la ejecución en segundo plano. Si esas tareas tardan más de cinco minutos en completarse, la caché ya habrá expirado cuando se devuelvan los resultados, obligando al usuario a pagar el precio completo de entrada para reconstruir un contexto que ya poseía anteriormente.
Esta alteración no comunicada contrasta con los estándares de transparencia esperados en la industria de la inteligencia artificial. Las decisiones que afectan directamente a los costes operativos de los usuarios suelen acompañarse de anuncios previos, periodos de transición y opciones de configuración. En este caso, Anthropic implementó el cambio sin previo aviso y sin ofrecer mecanismos claros para que los usuarios afectados pudieran mantener su configuración anterior.
Algunos usuarios han desarrollado soluciones técnicas mediante hooks personalizados en sus configuraciones locales para monitorizar y advertir sobre invalidaciones de caché. Estas herramientas proporcionan visibilidad sobre un proceso que anteriormente era completamente opaco, permitiendo a los usuarios comprender exactamente dónde se generan los costes adicionales en sus sesiones.
El impacto de este cambio es particularmente relevante para desarrolladores y profesionales que utilizan Claude para tareas complejas que requieren mantener contexto extenso durante periodos prolongados. El contexto extendido de hasta un millón de tokens, cuando se combina con la invalidación frecuente de caché, genera costes de reconstrucción exponencialmente mayores. Usuarios han reportado que reducir el contexto máximo a 200.000 tokens es la medida más efectiva para mantener controlados los costes tras este cambio.