El equipo de Claude Code de Anthropic ha implementado varios cambios significativos en su plataforma de desarrollo asistido por IA durante las últimas semanas, generando debate en comunidades tecnológicas sobre cómo estos ajustes afectan al rendimiento y la capacidad de razonamiento del modelo.
Según explicaciones del equipo de producto, los cambios responden a una búsqueda de equilibrio entre la inteligencia del modelo, la latencia de respuesta y la eficiencia de costos. El primero de estos cambios, implementado el 12 de febrero, introduce una cabecera denominada `redact-thinking-2026-02-12` que oculta el proceso de pensamiento del modelo en la interfaz de usuario, aunque sin afectar al funcionamiento interno del razonamiento. Esta modificación es únicamente cosmética y reduce la latencia al evitar la necesidad de generar resúmenes de pensamiento. Los usuarios pueden deshabilitar esta opción mediante el parámetro `showThinkingSummaries: true` en su archivo de configuración.
Dos cambios adicionales implementados en febrero han tenido un impacto más directo en el comportamiento del modelo. El 9 de febrero, coincidiendo con el lanzamiento de Opus 4.6, Anthropic activó por defecto el "pensamiento adaptativo", un nuevo modo que permite al modelo decidir automáticamente cuánto tiempo dedicar al razonamiento, sustituyendo al anterior sistema de presupuestos de pensamiento fijos. Esta aproximación ha demostrado funcionar mejor en la mayoría de casos de uso.
El segundo cambio significativo llegó el 3 de marzo con la modificación del nivel de esfuerzo predeterminado a 85 en Opus 4.6. Los ingenieros de Anthropic determinaron que este punto representa un equilibrio óptimo entre capacidad intelectual, velocidad de respuesta y consumo de tokens. Aunque la compañía reconoce su principio de evitar cambiar configuraciones sin consentimiento del usuario, consideró este cambio lo suficientemente importante como para implementarlo mediante una ventana de diálogo que notifica a los usuarios de la modificación y les permite rechazarla.
Estos ajustes han generado análisis críticos en comunidades como Reddit y Hacker News, donde algunos usuarios han documentado una reducción de aproximadamente el 67% en la profundidad del pensamiento del modelo. Sin embargo, los desarrolladores de Anthropic señalan que parte de esta métrica puede deberse a que el pensamiento sigue produciéndose internamente, pero simplemente no se visualiza en la interfaz de usuario cuando está activa la nueva cabecera de ocultación.
Para usuarios que requieran mayor capacidad de razonamiento, Anthropic ofrece varias alternativas. El comando `/effort` permite establecer manualmente el nivel de esfuerzo a valores superiores, incluyendo la opción `/effort max` para máxima potencia de razonamiento. Adicionalmente, la palabra clave `ULTRATHINK` permite utilizar alto esfuerzo para un único turno de conversación. Estos parámetros son persistentes entre sesiones y pueden compartirse entre usuarios de un mismo equipo.
Mirando hacia adelante, el equipo planea establecer niveles de esfuerzo más elevados por defecto para usuarios de planes Teams y Enterprise, reconociendo que estos segmentos pueden tolerar mejor el aumento en latencia y consumo de tokens a cambio de mejores resultados en tareas complejas.
Los cambios reflejan una tendencia más amplia en la industria de IA: la optimización de modelos no solo para máxima capacidad, sino para máxima utilidad práctica. La decisión de Anthropic de priorizar la velocidad y eficiencia por defecto, manteniendo opciones avanzadas disponibles para usuarios especializados, sugiere una maduración en cómo las empresas de IA diseñan interfaces y parámetros por defecto. Sin embargo, la brecha entre lo que el modelo realmente «piensa» internamente y lo que muestra al usuario plantea preguntas sobre transparencia y confianza en sistemas de IA cada vez más complejos.