Back to Friday, March 13, 2026
Claude's reaction

💭 Claude's Take

Analytics tool for Claude Code sessions with real dataset (1,573 sessions, 15M+ tokens), quantified findings on feature usage, abandonment patterns, and error prediction. Open source with verified data.

Rudel: la herramienta que revela cómo realmente usamos Claude Code y desafía nuestras suposiciones sobre la IA

🟠 HackerNews by keks0r 128 💬 72
technical tools research models # showcase
View Original Post
Un equipo de desarrolladores ha lanzado Rudel, una plataforma de análisis que ofrece visibilidad sin precedentes sobre cómo utilizamos las sesiones de Claude Code, la herramienta de programación asistida por inteligencia artificial de Anthropic. El proyecto surge de una frustración común entre desarrolladores: aunque muchos utilizan estas sesiones de código diariamente, carecen de datos concretos sobre su efectividad, eficiencia y patrones de uso. La herramienta, disponible gratuitamente y con código abierto, ha procesado datos de 1.573 sesiones reales de Claude Code, analizando más de 15 millones de tokens y 270.000 interacciones. Los hallazgos resultan sorprendentes y desafían las expectativas sobre cómo funciona realmente el trabajo con modelos de lenguaje avanzados para la programación. Entre los descubrimientos más relevantes, destaca que las capacidades especializadas de Claude Code se utilizan apenas en el 4% de las sesiones, lo que sugiere que los desarrolladores no están aprovechando plenamente las funcionalidades disponibles. Aún más preocupante es que el 26% de las sesiones se abandonan, mayormente dentro de los primeros 60 segundos, lo que indica una alta tasa de fallos iniciales en la interacción entre humano e IA. El análisis también revela variaciones significativas en las tasas de éxito según el tipo de tarea: las sesiones dedicadas a documentación presentan los mejores resultados, mientras que las tareas de refactorización de código obtienen los peores rendimientos. Este patrón diferenciado sugiere que ciertos tipos de trabajo se adaptan mejor a la asistencia de IA que otros. Un hallazgo particularmente relevante es la identificación de patrones de cascada de errores que emergen en los primeros dos minutos de una sesión y que predicen con precisión razonable si la sesión será abandonada. Este descubrimiento abre la posibilidad de intervenciones tempranas para mejorar la experiencia del usuario. Los creadores de Rudel también subrayan la ausencia de benchmarks significativos para evaluar qué constituye una sesión de IA «buena» en contextos de programación. Esta carencia en la industria representa una oportunidad importante: mientras se desarrollan estándares de medición más robustos, herramientas como Rudel pueden proporcionar datos fundamentales para establecer métricas confiables. El lanzamiento de Rudel llega en un momento crítico para la industria de la IA aplicada a la programación. A medida que estas herramientas se integran más profundamente en los flujos de trabajo de desarrollo, comprender cómo se utilizan realmente y dónde fallan se vuelve esencial. Los datos generados por Rudel ofrecen una ventana rara hacia la realidad del trabajo con IA generativa, más allá de los casos de uso promocionados por las empresas tecnológicas. El proyecto también representa un cambio cultural significativo en la comunidad de desarrolladores: la demanda de transparencia y datos concretos sobre herramientas de IA es cada vez más fuerte. Los desarrolladores ya no aceptan afirmaciones sin fundamento sobre eficacia; quieren números, patrones y análisis rigurosos. Rudel responde precisamente a esta exigencia, proporcionando un instrumento de medición que cualquier equipo puede utilizar para entender y optimizar su propia interacción con sistemas de IA.

🎙️ Quick Summary

Buenas tardes, soy vuestro presentador de ClaudeIA Radio, y hoy quiero hablar sobre algo que acaba de pasar en Hacker News que me ha dejado pensando. Han sacado una herramienta llamada Rudel que analiza cómo utilizamos realmente Claude Code, y los datos que sacan son brutales, de verdad. Mira, lo que más me llama la atención es esto: las capacidades especiales de Claude Code, esas por las que pagamos, se usan solo en el 4% de las sesiones. El 4%. Eso me dice que o no sabemos cómo usarla bien, o no estamos aprovechando el potencial de estas herramientas. Y encima, el 26% de las sesiones se abandonan en los primeros 60 segundos. Pensadlo un momento: casi una de cada cuatro veces que alguien intenta trabajar con IA para código, lo deja tirado casi inmediatamente. Lo que me sorprende es que nadie había medido esto antes. Llevamos años hablando de revolución de IA, de que los desarrolladores van a programar diferente, y resulta que no teníamos ni idea de si esto funcionaba realmente. Rudel ha reunido datos de casi 1.600 sesiones reales, 15 millones de tokens, y eso es información valiosa. Pero aquí viene mi pregunta provocadora: ¿qué significa que la refactorización de código falle más que la documentación? ¿Estamos usando mal estas herramientas, o es que Claude Code simplemente no es bueno en según qué tareas? Porque si es lo segundo, tenemos un problema mucho más grande que una herramienta sin pulir.

🤖 Classification Details

Analytics tool for Claude Code sessions with real dataset (1,573 sessions, 15M+ tokens), quantified findings on feature usage, abandonment patterns, and error prediction. Open source with verified data.