Un desarrollador ha documentado un incremento significativo en el consumo de tokens de salida en las recientes versiones de Claude Code, alertando sobre un problema que podría afectar de manera sustancial a los costes operativos de los usuarios de esta herramienta de inteligencia artificial.
Según el análisis realizado mediante pruebas aisladas y rigurosas, desde la versión 2.1.101 de Claude Code se registra un aumento del 300 por ciento en los tokens de salida por solicitud en comparación con versiones anteriores. El problema comenzó a manifestarse alrededor del 10 de abril, generando un impacto directo en los gastos de uso que ha motivado una investigación exhaustiva de los datos de consumo.
El desarrollador implementó un riguroso protocolo de pruebas A/B utilizando versiones anteriores de Claude Code instaladas localmente en su máquina. Mediante el uso de un harness de prueba estandarizado —manteniendo constantes el prompt, los datos de entrada y las condiciones de ejecución— pudo aislar el problema y validar su hipótesis. Los resultados revelaron un incremento del 200 por ciento en la versión 2.1.98, una versión que posteriormente fue retirada de circulación, seguido de un aumento del 300 por ciento en la versión 2.1.101.
Para garantizar la reproducibilidad de los hallazgos, el autor ha puesto a disposición de la comunidad un archivo con todas las herramientas necesarias y los pasos exactos para replicar el experimento, facilitando así que otros desarrolladores validen de manera independiente estos resultados. Los tokens de salida representan un componente crucial en la estructura de costes de las herramientas basadas en IA, dado que determinan directamente el volumen de datos que el modelo procesa y genera como respuesta.
Este aumento no es un fenómeno aislado, sino que forma parte de una serie más amplia de reportes en la comunidad de usuarios de Claude Code sobre cambios de rendimiento en las versiones recientes. La magnitud del incremento plantea interrogantes sobre si se trata de un cambio deliberado en el comportamiento del modelo, una degradación accidental en la eficiencia, o si el modelo genera respuestas más extensas por defecto.
Los usuarios afectados enfrentan ahora decisiones críticas respecto a la gestión de costes, incluyendo la posibilidad de revertir a versiones anteriores o explorar modos alternativos de funcionamiento que permitan reducir el consumo de tokens. Para muchos desarrolladores y empresas que dependen de Claude Code en sus flujos de trabajo, esta información es vital para la planificación presupuestaria y la evaluación del retorno de inversión en herramientas de IA generativa.
🎙️ Quick Summary
Buenas tardes, oyentes de ClaudeIA Radio. Hoy queremos hablar de algo que está calentando los ánimos en la comunidad de desarrolladores, y es el aumento brutal del consumo de tokens en Claude Code. Estamos hablando de un triple, amigos. Un TRIPLE. Eso no es un ajuste, eso es un cambio de paradigma que golpea directamente al bolsillo de quien usa estas herramientas.
Lo que más me llama la atención es la metodología del que reporta esto. Ha hecho un trabajo de detective de verdad: versiones anteriores instaladas localmente, pruebas A/B aisladas, variables controladas. Esto no es alguien que se queja por quejarse; esto es alguien que dice: «Mira, te lo puedo demostrar». Y eso me gusta. Porque en el mundo de la IA, donde todo cambia a velocidad de vértigo, necesitamos datos, necesitamos reproducibilidad. Necesitamos que alguien sea capaz de decir: «Aquí está el kit, replica esto tú mismo».
Pero bueno, pensadlo un momento: ¿esto es intencional o accidental? Porque si Anthropic ha decidido que Claude Code genere respuestas más largas, más detalladas, más exhaustivas, tal vez haya una razón. Quizá es mejor, quizá es más útil. Pero si es accidental, si alguien cometió un error en el despliegue, entonces estamos viendo a miles de usuarios pagando más por algo que nadie pidió. ¿Es eso aceptable? ¿Debería haber una compensación? Estos son los debates que deberían estar teniendo lugar ahora mismo en foros y en las oficinas de Anthropic.
🤖 Classification Details
Detailed technical investigation with reproducible A/B test methodology, version comparison, isolated variables, and quantified results (3x token increase). Includes github issue reference and test harness.