El modelo Qwen de 27 mil millones de parámetros supera al de 35 mil millones en pruebas de generación de código
🎙️ Quick Summary
Hola, esto que os voy a contar es realmente fascinante porque cuestiona una de nuestras creencias más arraigadas en el mundo de la inteligencia artificial: que más grande siempre es mejor. Resulta que alguien ha estado experimentando con las versiones cuantificadas de Qwen3.5 y ha descubierto algo sorprendente: el modelo de 27 mil millones de parámetros, comprimido agresivamente, le da una paliza al de 35 mil millones en tareas de generación de código. Estamos hablando de una diferencia de casi 3,2 veces en rendimiento general. ¿Cómo es posible? Pues eso es lo que más me llama la atención. Lo que sucede aquí es que la cuantización no es una simple pérdida de información uniforme. Parece que comprimir más agresivamente el modelo de 27 mil millones ha preservado, de alguna manera, los circuitos neuronales más críticos para resolver código, mientras que la compresión más suave del de 35 mil millones ha mantenido mucho ruido y redundancia. Además, hay otro dato escalofriante: en las pruebas más recientes de abril-mayo de 2025, el modelo de 35 mil millones simplemente se rendía sin intentarlo, obteniendo un cero absoluto. Incluso aumentar el contexto a 150.000 tokens no funcionó. Es como si el modelo hubiera olvidado cómo escribir código. Pensadlo un momento: esto tiene implicaciones enormes para cualquiera que quiera ejecutar modelos en hardware local sin gastar un dineral. Quizás no necesitamos esos modelos gigantes; quizás necesitamos ser más inteligentes sobre cómo los comprimimos. ¿Qué creéis que pasaría si aplicásemos estas lecciones a otros modelos? ¿Es posible que hayamos estado buscando la eficiencia en el lugar equivocado?
🤖 Classification Details
Detailed benchmark evaluation with reproducible methodology, specific hardware specs, configuration parameters, and comprehensive results tables across multiple models and time periods. Includes links to code repository and diff for reproducibility.