Back to Sunday, March 8, 2026
Claude's reaction

💭 Claude's Take

Functional tool for replaying Claude Code sessions with clear implementation details, GitHub repo, and working examples. Directly relevant to Claude tooling.

Claude-replay: la herramienta que convierte sesiones de IA en vídeos interactivos reproducibles

🟠 HackerNews by es617 96 💬 32
technical tools coding buildable # showcase
View Original Post
Un desarrollador ha creado una solución innovadora para uno de los problemas más comunes al trabajar con inteligencia artificial: cómo compartir y documentar de forma efectiva las demostraciones de sesiones con Claude, el asistente de IA de Anthropic. La herramienta, denominada Claude-replay, aprovecha un recurso que ya existe pero que apenas se utilizaba: los registros completos que Claude Code almacena localmente en formato JSONL (JSON Lines). Estos archivos contienen la totalidad de la información de cada sesión: los prompts introducidos por el usuario, las llamadas a herramientas, los bloques de pensamiento interno de la IA y las marcas de tiempo precisas. El funcionamiento es directo: el CLI tool convierte esos registros de sesión en un archivo HTML interactivo, similar a un reproductor de vídeo pero para conversaciones de IA. Los usuarios pueden avanzar y retroceder por la línea temporal, expandir las llamadas a herramientas para inspeccionar detalles, y revisar la conversación completa con toda su estructura. Lo que hace especialmente atractiva esta solución es su portabilidad. El HTML generado es completamente autónomo, sin dependencias externas ni requisitos de servidor. Se trata de un archivo único que puede compartirse por correo electrónico, alojarse en cualquier servidor web, insertarse en un blog o incluso visualizarse correctamente en dispositivos móviles. Esta herramienta responde a una necesidad real en la comunidad de desarrolladores que trabajan con IA. Las capturas de pantalla del terminal resultan estáticas y difíciles de seguir, mientras que las grabaciones de pantalla son voluminosas y complejas de gestionar. Un formato interactivo y reproducible ofrece el punto medio ideal: permite que otros desarrolladores vean exactamente qué sucedió en cada paso, inspeccionen el razonamiento de la IA, y comprendan cómo se utilizaron las herramientas disponibles. La iniciativa también ilustra una tendencia más amplia en el ecosistema de la IA: la creación de herramientas complementarias que mejoran la experiencia de trabajo con modelos de lenguaje. Mientras Anthropic se enfoca en mejorar Claude, desarrolladores independientes identifican fricciones en el flujo de trabajo y crean soluciones prácticas que aumentan la productividad y facilitan la colaboración. Para quienes trabajan regularmente con Claude Code en proyectos de desarrollo, debuggeo o educación, esta herramienta representa una mejora significativa en cómo documentar y comunicar el trabajo realizado con IA, convirtiendo sesiones opacas en artefactos reproducibles y compartibles.

🎙️ Quick Summary

Hola oyentes de ClaudeIA Radio. Hoy quiero hablaros de algo que, aunque parezca un detalle técnico menor, en realidad toca un nervio importante en cómo estamos usando la IA en nuestro día a día. Os pregunto: ¿cuántas veces habéis intentado mostrar a un colega o a un cliente lo que habéis hecho con Claude, y os habéis quedado mirando la pantalla pensando «¿cómo le explico esto?» Los screenshots son planos, los vídeos son enormes, y las transcripciones de texto... bueno, son aburridas. Un desarrollador ha tenido una idea genial: si Claude ya guarda todo lo que ocurre en una sesión, ¿por qué no convertirlo en algo reproducible, interactivo, como un vídeo pero mejor? Lo que más me llama la atención es que esta herramienta desvela algo sobre cómo funcionamos los humanos cuando intentamos entender el trabajo con IA. No queremos un resumen, queremos *acompañar el viaje*. Queremos ver dónde la IA pensó, dónde falló, cómo corregisteis el rumbo. Eso es lo que Claude-replay permite: reproducir la inteligencia, paso a paso. Y aquí está el quid de la cuestión: esto es solo el principio. Mientras Anthropic se dedica a mejorar el modelo, desarrolladores como es617 están construyendo la infraestructura de *explicabilidad* que necesitamos. Porque si la IA va a ser herramienta central en nuestro trabajo, tenemos que poder mostrar, auditar y entender qué hizo exactamente. ¿No os parece que esto es el futuro? ¿Cómo creéis que evolucionará el debugging de IA cuando todos podamos reproducir exactamente qué sucedió en cada momento?

🤖 Classification Details

Functional tool for replaying Claude Code sessions with clear implementation details, GitHub repo, and working examples. Directly relevant to Claude tooling.