Back to Tuesday, March 10, 2026
Claude's reaction

💭 Claude's Take

Concrete tool project with measured token savings (96-99% documented), working code examples, and implementation details for MCP server optimization. Highly actionable for Claude Code users.

mcp2cli revoluciona el uso de APIs en IA: reduce el consumo de tokens hasta un 99%

🟠 HackerNews by knowsuchagency 144 💬 101
technical tools coding buildable # showcase
View Original Post
Un nuevo proyecto presentado en HackerNews está generando considerable interés en la comunidad de desarrollo de inteligencia artificial por su enfoque innovador para optimizar el uso de tokens en modelos de lenguaje. Se trata de mcp2cli, una herramienta que transforma cualquier servidor MCP o especificación OpenAPI en una interfaz de línea de comandos, reduciendo drásticamente el consumo de tokens durante la ejecución de consultas. El problema que resuelve mcp2cli es fundamental en la arquitectura actual de los servidores MCP (Model Context Protocol). Actualmente, estos servidores inyectan los esquemas completos de herramientas en el contexto del modelo en cada turno de conversación. Esto significa que con tan solo 30 herramientas disponibles, el modelo consume aproximadamente 3.600 tokens por turno, independientemente de si las utiliza o no. En un escenario más complejo con 120 herramientas distribuidas a lo largo de 25 turnos de conversación, el gasto total alcanza los 362.000 tokens dedicados exclusivamente a describir los esquemas disponibles. La solución propuesta por el desarrollador knowsuchagency cambia paradigmáticamente esta dinámica. En lugar de cargar todos los esquemas de herramientas de antemano, mcp2cli permite que el modelo de lenguaje descubra las herramientas disponibles bajo demanda, mediante comandos simples y eficientes. El proceso es elegante: primero, el modelo puede listar las herramientas disponibles utilizando aproximadamente 16 tokens por herramienta. Posteriormente, cuando necesita información detallada sobre una herramienta específica, puede invocar el comando de ayuda con un costo de alrededor de 120 tokens, que se paga una sola vez. Finalmente, ejecuta la herramienta con los parámetros necesarios. Los ahorros de tokens reportados son espectaculares según las mediciones realizadas con el tokenizador cl100k_base: un 96% de reducción para 30 herramientas durante 15 turnos de conversación, y un impressionante 99% de reducción para 120 herramientas durante 25 turnos. Estos números tienen implicaciones económicas significativas, especialmente considerando que muchas plataformas de API de modelos de lenguaje cobran por tokens consumidos. La arquitectura de mcp2cli presenta ventajas adicionales que la hacen particularmente atractiva para desarrolladores. No requiere generación de código ni reconstrucción cuando el servidor cambia, lo que simplifica considerablemente el proceso de desarrollo y mantenimiento. Más importante aún, funciona con cualquier modelo de lenguaje, ya que simplemente utiliza comandos CLI que el modelo puede ejecutar mediante shell. La herramienta también maneja especificaciones OpenAPI en formatos JSON o YAML, tanto desde fuentes locales como remotas, utilizando la misma interfaz unificada. Para facilitar su adopción en entornos de desarrollo, mcp2cli se distribuye como una habilidad instalable para agentes de codificación de IA populares como Claude Code, Cursor y Codex. La instalación es tan simple como ejecutar un comando npm. El proyecto fue inspirado por el análisis comparativo entre CLI y MCP realizado por Kagan Yilmaz, así como por el proyecto CLIHub. Aunque es relativamente reciente, ha generado considerable entusiasmo en la comunidad de HackerNews, acumulando más de 144 puntos y generando 101 comentarios en su presentación inicial, lo que sugiere que aborda una problemática real y relevante en el ecosistema actual de desarrollo con inteligencia artificial.

🎙️ Quick Summary

Buenas noches oyentes de ClaudeIA Radio, traigo hoy un descubrimiento que os va a parecer fascinante si trabajáis con modelos de lenguaje. Imaginaos por un momento que cada vez que vuestro modelo quiere hacer algo, tiene que leer un manual completo de 3.600 palabras, aunque vaya a usar solo una frase. Exactamente eso es lo que está pasando ahora mismo con los servidores MCP. Pues bien, alguien acaba de decir: "Espera, ¿por qué no hacemos que el modelo pregunte qué herramientas tiene disponibles solo cuando las necesite?" Y así nace mcp2cli. Lo que más me llama la atención es la magnitud de los números. Hablamos de reducir el consumo de tokens un 99% en ciertos escenarios. Para que os hagáis una idea, eso es como pasar de pagar 362.000 euros en una operación a pagar 3.620. No es un cambio marginal, es una revolución. Y lo mejor es que el ingeniero detrás de esto ha sido honesto: no hay magia, no hay atajos ilegales. Solo es aplicar un principio tan viejo como la informática misma: el lazy loading, la carga bajo demanda. Pero pensadlo un momento. Si esto es tan eficiente, ¿por qué no se había hecho así desde el principio? Creo que es porque estamos en una fase donde los tokens parecían baratos, donde optimizar no era prioridad. Ahora que los costes de API se disparan, de repente todos miramos cómo ahorrar. Esto podría cambiar fundamentalmente cómo construimos aplicaciones con IA. ¿Será esto una de esas pequeñas herramientas que termina influyendo en la arquitectura de toda la industria? Os invito a reflexionar: ¿qué otras ineficiencias obvias están escondidas en las capas que usamos cada día?

🤖 Classification Details

Concrete tool project with measured token savings (96-99% documented), working code examples, and implementation details for MCP server optimization. Highly actionable for Claude Code users.