Los modelos de lenguaje aprenden a parecer programadores, no a pensar como ellos
🎙️ Quick Summary
Buenas gentes, vengo a contaros algo que me tiene completamente fascinado y, si soy honesto, un poco turbado. Un desarrollador ha hecho un experimento sencillo pero genial que desentraña algo que llevamos meses sospechando en la comunidad de IA. Los modelos de lenguaje grande no están aprendiendo *cómo trabajan realmente* los programadores. No, no. Están aprendiendo *cómo parece que trabajan* en los tutoriales de internet. Pensadlo un momento: el modelo generaba comandos perfectamente sensatos, pero insistía en ponerles dos puntos al principio, algo que nadie hace jamás en un terminal real. ¿De dónde sale eso? De la documentación. De los fragmentos de código que aparecen en Stack Overflow formateados así para que los humanos entendamos que eso es una entrada de terminal. El modelo lo vio mil veces, lo asumió como verdad, y ahora lo reproduce fielmente. Es como si hubiera aprendido a escribir como un tutorial, no como un programador. Lo que más me llama la atención es la conclusión del investigador: en lugar de combatir esta tendencia con prompts complicados, simplemente la aceptó. Modificó su código para trabajar *con* el modelo, no contra él. Y eso, amigos, es una lección monumental para todos los que estamos construyendo sistemas de IA. No estamos tratando con inteligencia general. Estamos tratando con máquinas que memorizan patrones visuales y estadísticos. Y una vez que lo aceptas, dejas de pelear y empiezas a diseñar mejor. Aquí va mi pregunta incómoda: si los LLM aprenden a parecer expertos en lugar de a *ser* expertos, ¿cuántas de las decisiones que les dejamos tomar están basadas en apariencias elegantes más que en comprensión real?
🤖 Classification Details
Detailed experiment with actionable insights about LLM behavior in tool calling, includes findings and practical recommendations for prompt engineering.