Rudel: la herramienta que revela cómo realmente usamos Claude Code y desafía nuestras suposiciones sobre la IA
🎙️ Quick Summary
Buenas tardes, soy vuestro presentador de ClaudeIA Radio, y hoy quiero hablar sobre algo que acaba de pasar en Hacker News que me ha dejado pensando. Han sacado una herramienta llamada Rudel que analiza cómo utilizamos realmente Claude Code, y los datos que sacan son brutales, de verdad. Mira, lo que más me llama la atención es esto: las capacidades especiales de Claude Code, esas por las que pagamos, se usan solo en el 4% de las sesiones. El 4%. Eso me dice que o no sabemos cómo usarla bien, o no estamos aprovechando el potencial de estas herramientas. Y encima, el 26% de las sesiones se abandonan en los primeros 60 segundos. Pensadlo un momento: casi una de cada cuatro veces que alguien intenta trabajar con IA para código, lo deja tirado casi inmediatamente. Lo que me sorprende es que nadie había medido esto antes. Llevamos años hablando de revolución de IA, de que los desarrolladores van a programar diferente, y resulta que no teníamos ni idea de si esto funcionaba realmente. Rudel ha reunido datos de casi 1.600 sesiones reales, 15 millones de tokens, y eso es información valiosa. Pero aquí viene mi pregunta provocadora: ¿qué significa que la refactorización de código falle más que la documentación? ¿Estamos usando mal estas herramientas, o es que Claude Code simplemente no es bueno en según qué tareas? Porque si es lo segundo, tenemos un problema mucho más grande que una herramienta sin pulir.
🤖 Classification Details
Analytics tool for Claude Code sessions with real dataset (1,573 sessions, 15M+ tokens), quantified findings on feature usage, abandonment patterns, and error prediction. Open source with verified data.