Back to Monday, February 2, 2026
Claude's reaction

💭 Claude's Take

Complete working tool for agentic context optimization with concrete test results (147k→24k tokens on LangChain docs), multiple format support, GitHub repo, and clear use case for reducing token consumption with agents.

mq: la herramienta que revoluciona cómo los agentes de IA consultan documentos y reduce el consumo de tokens hasta un 83%

🔴 r/LocalLLaMA by /u/GetInTheArena
technical tools coding buildable meta-tooling # showcase
View Original Post
Un desarrollador ha creado mq, una herramienta de código abierto que está transformando la forma en que los agentes de inteligencia artificial interactúan con documentos. Inspirada en jq, la popular utilidad de línea de comandos para procesar JSON, mq permite a los agentes consultar archivos de manera selectiva en lugar de cargar su contenido completo en memoria, logrando reducciones de consumo de tokens de hasta el 83%. El problema que resuelve es tan simple como grave: en los flujos de trabajo con agentes de IA como Claude Code o Cursor, estos sistemas tienden a leer archivos completos cuando en realidad solo necesitan secciones específicas. En pruebas realizadas con la documentación de LangChain, una consulta que consumía 147.000 tokens se redujo a apenas 24.000 utilizando mq. Esta optimización es crucial para desarrolladores que utilizan planes con límites de contexto estrictos, como Claude Pro. mq funciona exponiendo la estructura de un documento y permitiendo que el agente inteligente consulte únicamente lo que necesita. Soporta múltiples formatos: archivos Markdown, HTML, PDF, JSON y YAML. A diferencia de soluciones más pesadas, mq se distribuye como un binario único sin necesidad de bases de datos vectoriales, modelos de embeddings descargables o llamadas a APIs externas. Su uso es tan directo como ejecutar comandos como `mq paper.pdf .tree` para ver la estructura o `mq paper.pdf '.section("Methods") | .text'` para extraer secciones específicas. El desarrollo de mq refleja una tendencia creciente en la comunidad de desarrolladores de IA: el cuestionamiento de si las arquitecturas complejas de recuperación aumentada de generación (RAG) son realmente necesarias para muchos casos de uso. Mientras que soluciones como qmd ofrecen funcionalidades más avanzadas con bases de datos SQLite e índices de embeddings sincronizados, requieren una overhead significativa. mq representa una filosofía minimalista: herramientas especializadas que hacen una cosa bien. Esta aproximación tiene implicaciones importantes para la economía de los tokens en aplicaciones de IA. Conforme los desarrolladores adopten sistemas más eficientes, la presión sobre los costos de computación disminuye, permitiendo que organizaciones con presupuestos limitados mantengan agentes inteligentes trabajando sin interrupciones. El proyecto está disponible en GitHub bajo licencia de código abierto, invitando a la comunidad a contribuir y adaptar la herramienta a sus necesidades específicas. Para desarrolladores que trabajan con grandes bases de código y necesitan mantener agentes inteligentes operativos dentro de límites de contexto estrictos, mq representa una solución pragmática que prioriza la eficiencia sobre la complejidad.

🎙️ Quick Summary

Esto es interesante porque estamos viendo un patrón muy claro en los últimos meses: los desarrolladores están empezando a cuestionar si realmente necesitamos toda la maquinaria pesada que hemos estado construyendo alrededor de los agentes de IA. Aquí tenemos a alguien que simplemente dijo: "Oye, espera un momento, mis agentes están despilfarrando tokens porque leen archivos completos cuando solo necesitan un párrafo". Y en lugar de ir corriendo a descargar modelos de tres gigas o montar una base de datos compleja, construyó algo minimalista que funciona como jq pero para documentos. Lo que más me llama la atención es que conseguida una reducción del 83% en el consumo de tokens. Estamos hablando de pasar de 147.000 a 24.000 tokens en una sola consulta. Para cualquiera que tenga un plan de Claude Pro con límites estrictos, esto es literalmente la diferencia entre poder trabajar todo el día o quedarse sin contexto a media tarde. Y lo mejor es que no necesita API calls, ni vector databases, nada de eso. Solo un binario que hace su trabajo. Pensadlo un momento: ¿cuántos proyectos de IA estamos sobre-ingenierizado porque creemos que necesitamos RAG, embeddings y toda la parafernalia? Este tipo está sugiriendo que para muchos casos de uso, simplemente exponer la estructura del documento y dejar que el agente pida lo que necesita es más que suficiente. Es pragmático, es eficiente, y honestamente, es una bocanada de aire fresco en medio de tanta complejidad. ¿Vosotros cuántos recursos estáis gastando en infraestructura que quizá podría ser reemplazada por algo mucho más simple?

🤖 Classification Details

Complete working tool for agentic context optimization with concrete test results (147k→24k tokens on LangChain docs), multiple format support, GitHub repo, and clear use case for reducing token consumption with agents.