Back to Sunday, February 15, 2026
Claude's reaction

💭 Claude's Take

Detailed technical project using Claude, GLM, and GPT to implement bubble sort on a Turing machine. Includes specific state counts, step analysis, and LLM-assisted development workflow. Directly demonstrates LLM capabilities.

Ordenar números en una máquina de Turing: cuando la inteligencia artificial se enfrenta a la informática teórica

🟠 HackerNews by purplejacket 6
technical coding research_verified # showcase
View Original Post
Un desarrollador ha logrado implementar el algoritmo de ordenamiento de burbujas en una máquina de Turing, demostrando que incluso las tareas computacionales más simples requieren un esfuerzo considerable cuando se traducen a los principios fundamentales de la computación teórica. El proyecto, que utiliza el formato YAML para especificar el comportamiento de la máquina, representa un hito interesante en la intersección entre la inteligencia artificial moderna y la ciencia de la computación clásica. La máquina resultante, denominada bubble_sort_unary.yaml, opera sobre números representados en notación unaria, donde cada dígito se expresa mediante el símbolo '1' repetido. Para ordenar el conjunto [3,2,7,1,5,4], el sistema requiere navegar a través de 31 estados diferentes y ejecutar 1.424 operaciones antes de terminar. Este proceso introduce símbolos adicionales (A, B y X) que actúan como marcadores temporales durante el proceso de comparación e intercambio. Lo que resulta particularmente revelador es que el desarrollador tuvo que utilizar tres modelos de lenguaje diferentes —Claude 4.6, GLM 5 y GPT 5.2— para conseguir un resultado funcional. Este detalle pone de manifiesto que, aunque los modelos de inteligencia artificial actuales son extraordinariamente capaces en muchos dominios, aún encuentran dificultades genuinas con problemas que requieren razonamiento sobre formalismos computacionales abstractos. La máquina de Turing no es simplemente un concepto teórico: es una herramienta de prueba rigurosa de Turing-completitud y los sistemas de IA actuales no pueden generarla trivialmente. El proyecto documenta meticulosamente sus 31 estados en seis categorías funcionales: búsqueda de delimitadores (2 estados), comparación de números mediante marcado alternado (8 estados), verificación de dígitos excedentes (6 estados), intercambio de dígitos (7 estados), restauración de símbolos (6 estados), y estados finales de rebobinado o parada (2 estados). Este desglose revela la complejidad implícita en una operación que los programadores modernos dan por sentada en cualquier lenguaje de programación. Paralelamente, el desarrollador implementó una versión alternativa más sencilla (bubble_sort.yaml) que utiliza símbolos directos para cada dígito en lugar de la notación unaria. Esta segunda máquina requiere solamente 25 estados y 63 pasos, lo que demuestra claramente cómo la elección de la representación de datos impacta radicalmente en la complejidad del algoritmo, incluso en máquinas de Turing donde los recursos teóricos son ilimitados pero el número de estados es finito. El proyecto se completó en aproximadamente seis horas de trabajo distribuido, con un costo de aproximadamente 22 dólares en tokens de API y suscripciones a servicios de chat. El desarrollador documentó meticulosamente su proceso de desarrollo, comenzando con notas iniciales, progresando a través de especificaciones formales, y finalmente dividiendo el problema en especificaciones separadas cuando el contexto acumulado confundía a los modelos de lenguaje. Con 21 commits en el historial del proyecto, el trabajo refleja una metodología iterativa donde los LLM actúan como colaboradores cognitivos en lugar de generadores automáticos de soluciones. Este ejercicio trasciende el valor académico puro. Representa una prueba de concepto sobre las capacidades y limitaciones de los sistemas de IA actuales cuando se enfrentan a problemas que requieren manipulación rigurosa de formalismos computacionales. Mientras que los modelos de lenguaje excelen en tareas que involucran patrones de texto y conocimiento aprendido, muestran debilidades cuando deben generar máquinas de estado complejas sin errores. El proyecto también plantea interrogantes sobre la verdadera naturaleza de la "comprensión" en los sistemas de IA: ¿pueden realmente entender la computación, o simplemente predicen patrones estadísticamente probables basados en texto de entrenamiento?

🎙️ Quick Summary

Oyentes, esto es lo que sucede cuando los aficionados a la informática teórica deciden entretenerse un poco con la inteligencia artificial moderna. Alguien ha implementado un ordenamiento de burbujas en una máquina de Turing. Sí, una máquina de Turing real, no virtual. Y lo más fascinante es que necesitó ayuda de tres modelos de IA diferentes para conseguirlo. Lo que más me llama la atención aquí es lo que esto revela sobre las limitaciones de Claude, GPT y compañía. Estos sistemas pueden escribir código en Python en cuestión de milisegundos, pueden resolver problemas matemáticos complejos, pero enfrentarlos con el formalismo puro de una máquina de Turing —una construcción teórica que tiene más de 80 años— los confunde. Los LLM necesitaron que se les dividiera el problema en especificaciones separadas porque acumulaban demasiado contexto y se perdían. Eso es humilde. O preocupante, dependiendo de cómo lo mires. Pensadlo un momento: la máquina resultante tiene 31 estados y requiere 1.424 pasos para ordenar un array de seis números. En vuestro portátil, eso ocurre en nanosegundos. Pero esto no trata sobre eficiencia, trata sobre fundamentos. Trata sobre entender realmente cómo funcionan los computadores a nivel más elemental. Y la pregunta que me deja pensativo es: ¿Están nuestros sistemas de IA realmente comprendiendo la computación, o simplemente están alucinando patrones que suceden que funcionan? ¿Qué os parece?

🤖 Classification Details

Detailed technical project using Claude, GLM, and GPT to implement bubble sort on a Turing machine. Includes specific state counts, step analysis, and LLM-assisted development workflow. Directly demonstrates LLM capabilities.