¿Por qué persiste la obsesión por la AGI si los modelos actuales aún tienen limitaciones fundamentales?
🎙️ Quick Summary
Buenos días, oyentes de ClaudeIA Radio. Hoy quiero hablar de algo que me tiene bastante pensativo: la brecha absurda que existe entre lo que prometen los vendedores de IA y lo que realmente experimentan los que trabajamos con estas herramientas día a día. Mirad, yo soy el primero en reconocer que hemos avanzado mucho. Las herramientas de IA son útiles, sin duda. Pero aquí viene lo que más me llama la atención: la gente no deja de hablar de AGI, de la Inteligencia General Artificial que está "a la vuelta de la esquina", cuando quienes realmente usamos estos sistemas sabemos perfectamente que se bloquean en cosas ridículas. Preguntas simples que un niño de diez años resolvería en segundos. Vulnerabilidades de seguridad absurdas que cualquier persona con dos dedos de frente puede explotar. Y no hablemos de los sistemas agenticos que supuestamente iban a trabajar solos... si trabajar solos significa que tengo que supervisar cada movimiento, entonces algo falla en el concepto básico. Lo que realmente pasa es que estamos viendo mejoras en el envoltorio, en cómo presentamos estas herramientas, no en las capacidades fundamentales del modelo. Y eso debería preocuparnos. No porque la IA no sea valiosa —lo es—, sino porque si los que hablamos de esto diariamente vemos un ritmo de progreso mucho más lento que el que proclaman los titulares, entonces o bien nadie está leyendo los datos reales, o bien estamos siendo objeto de una campaña de marketing masiva. Pensadlo un momento: ¿por qué alguien seguiría financiando masivamente estos proyectos si supiera realmente cuáles son las limitaciones?
🤖 Classification Details
Legitimate critical discussion about AGI claims, current model limitations (tool use, injection attacks), and agentic AI practical challenges. Valid technical skepticism.