Back to Thursday, February 19, 2026
Claude's reaction

💭 Claude's Take

Detailed workflow system with specific, actionable components (/arm, /design, /plan, /build, etc.), concrete implementation details, and architectural principles. Demonstrates real Claude Code usage patterns with measurable constraints (0.8% token cost of 200k).

Un ingeniero de software revela su sistema de desarrollo con IA tras 3.000 horas de iteración: cuando el contexto es ruido

🔴 r/ClaudeCode by /u/Logical-Storm-1180
technical tools coding prompts buildable # showcase
View Original Post
Un desarrollador que ha invertido 3.000 horas perfeccionando un flujo de trabajo integral con Claude ha publicado los detalles de un sistema que desafía las prácticas convencionales en el desarrollo asistido por inteligencia artificial. El enfoque, que combina primeros principios, desarrollo dirigido por especificaciones, testing exhaustivo y validaciones en cascada, representa un cambio paradigmático en cómo se estructura la colaboración entre humanos y modelos de lenguaje. El núcleo de la filosofía subyacente es contraintuitivo: más contexto no equivale a mejor desempeño. Según el autor, las ventanas de token expandidas representan una "trampa cognitiva" que degrada la inteligencia operativa del sistema. En su lugar, propone un enfoque de "contexto curado" donde cada fase del desarrollo recibe únicamente la información necesaria y verificada para su ejecución específica. La arquitectura del sistema implementa una jerarquía cognitiva clara: Claude Opus maneja la estrategia y diseño; Sonnet se dedica a la implementación; Haiku actúa como intermediario para modelos externos como Kimi y GLM. Cada transición entre fases implementa un "control de calidad" automático que bloquea el progreso hasta que se cumplen criterios de validación formales. El flujo operativo es extraordinariamente granular. Comienza con /arm, un proceso conversacional donde Opus extrae requisitos, restricciones y decisiones críticas a través de diálogo estructurado. Después, /design aplica análisis de primeros principios validado contra documentación en vivo. La fase /ar implementa lo que el autor denomina "revisión adversarial": tres modelos distintos critican el diseño en paralelo, cada uno con diferentes puntos ciegos entrenados, basándose en acceso al sistema de archivos y documentación del proyecto. La fase /plan transforma el diseño aprobado en un documento de ejecución tan específico que evita ambigüedades. Las tareas se definen en grupos de cinco por agente, sin conflictos de archivos, con rutas exactas y ejemplos de código completos. Los casos de prueba se definen en tiempo de planificación, no después de la compilación. La ejecución ocurre en /build, donde Opus coordina mientras que múltiples instancias de Sonnet construyen en paralelo, cada una con su propia terminal. Después de la compilación, un pipeline post-build secuencial o paralelo aplica auditorías: /denoise elimina código muerto, /qf y /qb validan guías de estilo, /qd verifica documentación, /security-review escanea vulnerabilidades OWASP. Un principio crítico distingue esta arquitectura: "separación de contextos para ejecución y validación". El agente que construye el código nunca lo valida. Esto previene la "alucinación validada", donde los sistemas refuerzan sus propios errores. El costo de token inicial representa solo el 0,8% de una ventana de 200.000 tokens, sugiriendo que la curación agresiva de contexto no sacrifica eficiencia económica. El sistema incorpora "stress-testing de suposiciones": múltiples perspectivas de modelos distintos critican el mismo diseño, exponiendo puntos ciegos que una única perspectiva ocultaría. El autor enfatiza que el sistema preserve "intención y agencia" contra "gaslighting cognitivo" y "tercerización cognitiva". La premisa fundamental es que el código es un pasivo; el juicio es un activo. Los agentes deben respetar la velocidad de pensamiento humana sin automatizar decisiones que requieren comprensión contextual profunda. Esta arquitectura emerge en un momento crítico en la industria de IA. Mientras que la mayoría de flujos de trabajo siguen el patrón lineal prompt → plan → code, este enfoque cuestiona si esa secuencia es óptima. La introducción de "validación adversarial" con múltiples modelos y la "verificación contra documentación en vivo" representa una respuesta a problemas bien documentados de confiabilidad en sistemas de IA: alucinación sobre bibliotecas, recomendaciones de patrones desactualizados y decisiones de arquitectura no fundamentadas. El sistema también responde a una fricción operativa común: agentes que piden "aclaraciones" porque el plan fue insuficiente. Al forzar planes exquisitamente detallados en fase de ejecución, el autor elimina ambigüedad sin requerir intervención humana iterativa. La implicación más amplia es que la eficacia de sistemas con IA depende menos de capacidad bruta del modelo y más de arquitectura de flujos de trabajo que respeten limitaciones cognitivas, tanto de humanos como de máquinas. Conforme la industria migra desde "prompting mágico" hacia "ingeniería de sistemas", frameworks como este señalan direcciones de maduración.

🎙️ Quick Summary

Buenas noches, y lo que os traigo hoy es fascinante porque va directo al corazón de una pregunta que llevan haciendo mal la mayoría de desarrolladores con IA: ¿más contexto es mejor contexto? Pues no, resulta que es todo lo contrario. Este tipo ha pasado 3.000 horas descubriendo que darle a Claude toda la información posible es como intentar beber agua de una manguera: terminas ahogado. Lo que realmente mejora el rendimiento es darle exactamente lo que necesita, cuando lo necesita, y nada más. Lo que me fastidia y me emociona a partes iguales es cómo ha diseñado esto. No es aleatorio, ¿eh? Cada fase del trabajo tiene su propio propósito, su propia validación, y aquí viene lo bueno: el código nunca se valida a sí mismo. El que construye no es quien revisa. Es como tener un sistema judicial donde el acusado no es el juez. Esto elimina el problema más perverso de la IA: que se convenza a sí misma de que está en lo correcto. Y encima, usa múltiples modelos como críticos adversariales, como si fueran abogados defensores cuestionando el diseño desde ángulos diferentes. Pero pensadlo un momento: ¿estamos viendo aquí la futura forma de trabajar con IA, o es un ejemplo de lo complicado que se va a poner esto? Porque honestamente, si necesitamos arquitecturas tan elaboradas solo para que una IA nos ayude de verdad sin mentir ni alucinarse, ¿no sugiere eso que todavía no hemos resuelto el problema fundamental de confianza en estos sistemas?

🤖 Classification Details

Detailed workflow system with specific, actionable components (/arm, /design, /plan, /build, etc.), concrete implementation details, and architectural principles. Demonstrates real Claude Code usage patterns with measurable constraints (0.8% token cost of 200k).