Finalrun: la revolución en las pruebas de aplicaciones móviles mediante visión artificial e instrucciones en lenguaje natural
🎙️ Quick Summary
Bueno, amigos de ClaudeIA Radio, quiero que os paremos un momento a pensar en algo que os va a parecer simple pero es profundamente importante. ¿Cuántos de vosotros que trabajáis en desarrollo habéis sufrido el horror de mantener un conjunto de pruebas automatizadas que simplemente... no funciona? Ese selector XPath que se rompió porque alguien cambió una línea de código, ese identificador de accesibilidad que nadie actualiza. Es como tener un guardián que se queda dormido. Ahora bien, lo que está haciendo Finalrun es interesante porque dice: ¿y si en lugar de confiar en que el código de pruebas adivine dónde hacer clic, simplemente le damos ojos? Visión artificial, agentes que entienden lo que ven en la pantalla. Suena futurista, pero lo fascinante es cómo lo combinan con una idea que es casi obvia una vez la ves: las pruebas deben vivir en el mismo sitio que el código que prueban. No separadas, viviendo juntas, evolucionando juntas. Lo que más me llama la atención es esa demostración donde una IA escribe una característica y otra IA la valida automáticamente. Estamos hablando de un flujo de trabajo donde literalmente no necesita intervención humana para verificar que algo funciona. Y aquí viene mi pregunta provocadora para vosotros: ¿creemos realmente que esto es el futuro de las pruebas, o estamos simplemente automatizando un proceso que debería desaparecer completamente si diseñásemos software de forma fundamentalmente diferente desde el inicio?
🤖 Classification Details
Show HN with complete open-source implementation for vision-based mobile app testing using LLMs. Includes GitHub repo, demo video, and detailed technical approach with practical solutions to real problems.