Back to Monday, April 13, 2026
Claude's reaction

💭 Claude's Take

Tool with concrete metrics (token reduction: 92-99%, schema comparison 121 vs 16 tokens), specific commands, feature list, GitHub repo, and detailed comparison vs native MCP and alternative approaches.

mcp2cli: la herramienta que reduce hasta un 99% el consumo de tokens en agentes de IA

🔴 r/ClaudeCode by /u/knowsuchagency
technical tools coding buildable # showcase
View Original Post
Un nuevo proyecto open source promete revolucionar la forma en que los modelos de lenguaje acceden a herramientas externas, resolviendo uno de los problemas más ineficientes de la arquitectura actual de agentes de inteligencia artificial. mcp2cli es una herramienta de línea de comandos que transforma servidores MCP (Model Context Protocol) y especificaciones OpenAPI en interfaces CLI funcionales sin necesidad de generar código ni compilar. El proyecto aborda un problema fundamental: cuando se conectan modelos de lenguaje a herramientas externas, los esquemas JSON completos de cada una se inyectan en el prompt del sistema en cada turno de conversación, independientemente de si el modelo las utiliza o no. Esta ineficiencia tiene consecuencias cuantificables. Seis servidores MCP con 84 herramientas consumirían aproximadamente 15.500 tokens antes de que la conversación incluso comenzase. Con mcp2cli, ese gasto inicial se reduce a apenas 67 tokens, y el descubrimiento de herramientas se realiza bajo demanda. En conversaciones completas, esto se traduce en reducciones de consumo de tokens del 92 al 99 por ciento. La solución funciona con un enfoque elegantemente simple: en lugar de cargar todos los esquemas al inicio, el modelo puede descubrir qué herramientas están disponibles mediante comandos estándar como --list y --help, consultando los detalles específicos solo cuando los necesita realmente. La herramienta es agnóstica con respecto al proveedor, lo que significa que funciona con Claude, GPT, Gemini y modelos locales. Soporta tanto MCP como OpenAPI, incluye autenticación OAuth con caché automático de tokens, y permite gestionar secretos mediante variables de entorno o archivos, evitando que aparezcan en listados de procesos. En comparación con alternativas existentes, mcp2cli presenta ventajas significativas. Frente a la inyección nativa de esquemas MCP, que consume aproximadamente 121 tokens por herramienta, esta solución reduce el consumo a 16 tokens mediante el listado comprimido. Respecto a Tool Search de Anthropic, aunque esa característica es más eficiente en el ecosistema de la empresa (~500 tokens), mcp2cli mantiene la ventaja de la portabilidad cross-modelo y genera salidas más compactas. En contraste con herramientas de generación de código como openapi-generator, mcp2cli elimina completamente el ciclo de regeneración cuando las especificaciones cambian, leyéndolas dinámicamente en tiempo de ejecución. El proyecto responde a una necesidad creciente en el ecosistema de agentes de IA. Conforme estos sistemas se vuelven más complejos y necesitan acceder a múltiples APIs y servicios, la eficiencia en el uso del contexto se convierte en un factor crítico tanto para el coste económico como para la calidad de las respuestas. Un modelo con menos tokens de esquema disponibles tiene más espacio para razonamiento, historial de conversación y comprensión del dominio del problema. La ausencia de generación de código también representa un cambio de paradigma: las herramientas genéricas resultan preferibles a los SDKs tipados cuando el consumidor es un modelo de lenguaje que necesita interfaces discoverables y flexibles, no validación de tipos estricta.

🎙️ Quick Summary

Hola oyentes, esto es interesante porque tocamos un problema que muchos desarrolladores ni siquiera sabían que tenían. Resulta que durante estos últimos años hemos estado desperdiciando recursos de manera brutal: cada vez que conectamos un modelo de lenguaje a herramientas, metemos todos esos esquemas JSON gigantescos una y otra vez, conversación tras conversación. Es como si cada mañana entraras a un supermercado y te obligaran a leer la lista completa de productos antes de poder comprar algo. Pues bien, mcp2cli viene a decir: "¿Y si solo leyeras los que necesitas?" Lo que más me llama la atención es la magnitud del ahorro. Hablamos de reducciones del 92 al 99 por ciento en tokens. Pensadlo un momento: ese es el tipo de eficiencia que cambia el juego económico de estos sistemas. No solo ahorras dinero en inferencia, sino que además liberas contexto real para que el modelo piense mejor. Es como si de repente tuviera más espacio mental. Y además, es agnóstico: funciona con Claude, GPT, Gemini, lo que quieras. Eso es raro de ver en este ecosistema tan fragmentado. Lo que me preocupa un poco es si esto terminará siendo un parche temporal. Creo que a largo plazo, los modelos deberían ser nativamente mejores en esto, pero mientras tanto, herramientas como mcp2cli son exactamente lo que necesitamos. ¿Vosotros estáis construyendo agentes con múltiples herramientas? ¿Habíais notado ese derroche de tokens, o es algo que estaba ahí sin que lo vierais?

🤖 Classification Details

Tool with concrete metrics (token reduction: 92-99%, schema comparison 121 vs 16 tokens), specific commands, feature list, GitHub repo, and detailed comparison vs native MCP and alternative approaches.