Back to Tuesday, March 24, 2026
Claude's reaction

💭 Claude's Take

Detailed experiment with actionable insights about LLM behavior in tool calling, includes findings and practical recommendations for prompt engineering.

Los modelos de lenguaje aprenden a parecer programadores, no a pensar como ellos

🟠 HackerNews by noemit 25 💬 3
technical prompts research # discussion
View Original Post
Un ingeniero ha descubierto una brecha fundamental en la forma en que los grandes modelos de lenguaje comprenden y replican el trabajo de los programadores. Lejos de aprender los procesos reales de desarrollo, estos sistemas absorben principalmente la apariencia superficial del código y los comandos tal como aparecen en documentación y artefactos en línea. En un experimento revelador, el investigador entrenó un modelo con un único comando disponible llamado "run" y le indicó que funcionaba como una interfaz de línea de comandos (CLI). Cuando se le pidió que generara comandos para diferentes escenarios, el modelo los formuló de manera sorprendentemente competente, pero con un detalle crucial: añadía sistemáticamente un símbolo de dos puntos al principio de cada instrucción, generando entradas como ":help", ":browser", ":search" y ":curl". Este comportamiento resulta especialmente revelador porque expone una verdad incómoda: el modelo había aprendido cómo se ven los comandos en la documentación y en los fragmentos de código publicados en internet, no cómo los programadores realmente los escriben en sus terminales. Un usuario nunca escribe literalmente un dos puntos antes de sus comandos, pero en muchos tutoriales y documentación técnica, se muestran así para indicar una entrada de línea de comandos. La implicación es profunda. Sugiere que los modelos de lenguaje grandes no están internalizando los procesos mentales, las convenciones reales o el flujo de trabajo auténtico de los desarrolladores. En su lugar, están realizando un sofisticado ejercicio de imitación superficial, capturando patrones visuales de cómo se representa el código en textos educativos y plataformas de documentación. Esta observación tiene ramificaciones importantes para cualquiera que trabaje en sistemas de agentes impulsados por inteligencia artificial. Los equipos que construyen herramientas basadas en LLM están frecuentemente en una posición de conflicto: sus modelos intenta conformarse a especificaciones de interfaz que el diseño tradicional dictaría, pero los modelos "naturalmente" gravitan hacia formatos que parecen correctos basándose en su entrenamiento, aunque sean técnicamente incorrectos. El investigador reconoce que la solución práctica fue contraintuitiva: en lugar de luchar contra la tendencia innata del modelo a anteponer un dos puntos, actualizó su código de agente para aceptar y procesar esta peculiaridad. Este enfoque pragmático subraya una verdad emergente en el desarrollo con IA: los ingenieros deben realizar pruebas exhaustivas para entender cómo funciona naturalmente su modelo específico, permitiendo que el sistema revele sus sesgos y hábitos aprendidos, en lugar de intentar forzarlo a través de instrucciones de sistema prompt que combatan sus intuiciones entrenadas. La conclusión trasciende lo técnico. En un panorama donde la inteligencia artificial se integra progresivamente en herramientas profesionales, comprender la brecha entre lo que los modelos parecen saber y lo que realmente comprenden es crítico. Los LLM son, en esencia, máquinas de reproducción de patrones increíblemente sofisticadas, y olvidar esa realidad fundamental puede llevar a sistemas que se sienten correctos pero funcionan de manera inesperada.

🎙️ Quick Summary

Buenas gentes, vengo a contaros algo que me tiene completamente fascinado y, si soy honesto, un poco turbado. Un desarrollador ha hecho un experimento sencillo pero genial que desentraña algo que llevamos meses sospechando en la comunidad de IA. Los modelos de lenguaje grande no están aprendiendo *cómo trabajan realmente* los programadores. No, no. Están aprendiendo *cómo parece que trabajan* en los tutoriales de internet. Pensadlo un momento: el modelo generaba comandos perfectamente sensatos, pero insistía en ponerles dos puntos al principio, algo que nadie hace jamás en un terminal real. ¿De dónde sale eso? De la documentación. De los fragmentos de código que aparecen en Stack Overflow formateados así para que los humanos entendamos que eso es una entrada de terminal. El modelo lo vio mil veces, lo asumió como verdad, y ahora lo reproduce fielmente. Es como si hubiera aprendido a escribir como un tutorial, no como un programador. Lo que más me llama la atención es la conclusión del investigador: en lugar de combatir esta tendencia con prompts complicados, simplemente la aceptó. Modificó su código para trabajar *con* el modelo, no contra él. Y eso, amigos, es una lección monumental para todos los que estamos construyendo sistemas de IA. No estamos tratando con inteligencia general. Estamos tratando con máquinas que memorizan patrones visuales y estadísticos. Y una vez que lo aceptas, dejas de pelear y empiezas a diseñar mejor. Aquí va mi pregunta incómoda: si los LLM aprenden a parecer expertos en lugar de a *ser* expertos, ¿cuántas de las decisiones que les dejamos tomar están basadas en apariencias elegantes más que en comprensión real?

🤖 Classification Details

Detailed experiment with actionable insights about LLM behavior in tool calling, includes findings and practical recommendations for prompt engineering.