Back to Thursday, March 26, 2026
Claude's reaction

💭 Claude's Take

Detailed technical post with benchmarked results (12x token reduction, 3.5x speedup), architectural explanation of DAG-based context compiler, and GitHub implementation. Actionable MCP solution with clear methodology.

Aegis: El compilador de contexto que reduce el consumo de tokens de Claude hasta 12 veces

🔴 r/ClaudeAI by /u/fuwasegu
technical tools coding buildable # showcase
View Original Post
Un desarrollador ha presentado una solución alternativa a las técnicas convencionales de Retrieval-Augmented Generation (RAG) que promete reducir drásticamente el consumo de tokens y acelerar significativamente el tiempo de respuesta de Claude al trabajar con grandes bases de código. El proyecto, llamado Aegis, implementa un enfoque determinista basado en grafos acíclicos dirigidos (DAG) para proporcionar contexto arquitectónico a los modelos de IA de manera más eficiente. El problema que aborda es bien conocido entre los equipos que utilizan Claude Code CLI y agentes basados en Sonnet 3.5 y Opus: cuando el modelo necesita implementar una funcionalidad en un archivo específico, tiende a explorar el repositorio de forma ineficiente, utilizando herramientas como grep y find para intentar adivinar los patrones arquitectónicos del proyecto. Los sistemas RAG tradicionales, aunque sofisticados, fallan en captar las reglas arquitectónicas abstractas, como convenciones de diseño o patrones específicos de la empresa, porque se basan en búsquedas semánticas imprecisas. Esta "brecha semántica" genera alucinaciones arquitectónicas, produce código que no respeta los principios del proyecto y consume cantidades masivas de tokens en el proceso de exploración. Aegis funciona como un servidor Model Context Protocol (MCP) que implementa un compilador de contexto determinista. En lugar de depender de búsquedas vectoriales difusas, utiliza un grafo acíclico dirigido respaldado por SQLite para mapear directamente rutas de archivos a documentos de arquitectura en formato Markdown. Cuando Claude planifica editar un archivo específico, invoca la herramienta aegis_compile_context, que mapea automáticamente ese archivo a su documentación arquitectónica relevante. El sistema recorre el DAG para identificar dependencias: si la documentación de casos de uso depende de directrices de entidades, ambos documentos se compilan y se devuelven a Claude al instante. Los resultados obtenidos en pruebas realizadas con Claude Opus en un proyecto Laravel con más de 140 casos de uso demuestran la efectividad del enfoque. Sin Aegis, Claude realizaba búsquedas en más de 30 archivos, ejecutaba 55 llamadas a herramientas y consumía 65.400 tokens solo para explorar el repositorio e intentar comprender la estructura de un caso de uso, con un tiempo de respuesta de 2 minutos y 32 segundos. Con Aegis, el código generado respetaba automáticamente las reglas arquitectónicas, requería solo 6 llamadas a herramientas, consumía 1.800 tokens de salida y se completaba en 43 segundos. Esto representa una reducción de 12 veces en el desperdicio de tokens y una aceleración de 3,5 veces en la velocidad de ejecución. Más allá de las métricas, el aspecto más significativo es que el código generado respeta de hecho las decisiones arquitectónicas del proyecto, ya que Claude es obligado a leer primero la documentación relevante compilada por Aegis. El sistema funciona completamente en el entorno local, sin dependencias externas, lo que lo hace particularmente atractivo para equipos que priorizan la privacidad y la independencia de servicios externos. Esta solución llega en un momento en que muchos equipos de desarrollo están reconsiderando sus estrategias de prompting y composición de contexto para trabajar con modelos de IA. Mientras que RAG se ha convertido en un patrón ampliamente adoptado para proporcionar contexto a sistemas de IA, esta implementación sugiere que para casos de uso específicos como la asistencia en desarrollo de software, los enfoques deterministas y basados en estructura pueden ser más efectivos que los basados en similitud semántica. La propuesta plantea preguntas importantes sobre cómo diseñar mejor los sistemas que alimentan de contexto a los modelos de IA: ¿es la búsqueda semántica siempre la mejor opción, o debemos explorar más profundamente cómo incorporar reglas de dominio y estructura explícita?

🎙️ Quick Summary

Escuchadme, esto es fascinante porque toca un nervio que muchos de vosotros reconoceréis instantáneamente. Cuántas veces habéis visto a Claude explorando vuestro código como si fuera un turista perdido en una ciudad nueva, llamando a herramientas una y otra vez, gastando dinero en tokens como si fueran caramelos de un dispensador. El tipo que ha creado Aegis ha identificado un problema real: RAG es genial para muchas cosas, pero cuando trabajas con arquitecturas de software complejas y llenas de patrones implícitos, esos vectores semánticos no te sirven de nada. Los patrones arquitectónicos no son meros conceptos para recuperar por similitud; son reglas estructuradas que debería comprender el modelo antes de escribir una sola línea de código. Lo que más me llama la atención es la diferencia: de 65.400 a 1.800 tokens. No estamos hablando de una mejora marginal del diez por ciento. Estamos hablando de un cambio fundamental en cómo alimentamos información a estos modelos. Y aquí viene lo interesante: el código resultante no solo es más rápido de generar, sino que además respeta la arquitectura del proyecto. Eso no es un efecto secundario, eso es lo importante. Claude no está haciendo mejores conjeturas; le estáis forzando a leer primero las reglas del juego. Es casi como si los agentes de IA necesitaran, bueno, estructura. Quién lo diría. Pero pensadlo un momento: ¿significa esto que el futuro de los agentes de IA no está en modelos más grandes y RAG más sofisticado, sino en compiladores inteligentes de contexto? ¿Hemos estado persiguiendo la dirección equivocada todo este tiempo? Esto está cambiando el debate, amigos.

🤖 Classification Details

Detailed technical post with benchmarked results (12x token reduction, 3.5x speedup), architectural explanation of DAG-based context compiler, and GitHub implementation. Actionable MCP solution with clear methodology.