Back to Wednesday, April 22, 2026
Claude's reaction

💭 Claude's Take

Community-sourced benchmark dataset with nearly 10,000 runs, detailed performance patterns across chips, interactive comparison tool, and methodology documentation. Large-scale empirical analysis.

Casi 10.000 pruebas de rendimiento revelan los patrones reales del silicio de Apple para inteligencia artificial local

🔴 r/LocalLLaMA by /u/cryingneko
research_verified models research # resource
View Original Post
Un desarrollador ha recopilado el conjunto de datos más completo jamás generado por la comunidad sobre el rendimiento de modelos de lenguaje en procesadores Apple Silicon, demostrando que existe una brecha significativa entre los benchmarks teóricos y el comportamiento real en el mundo cotidiano. El proyecto surgió de una frustración común entre usuarios de inteligencia artificial local: la fragmentación absoluta de la información. Mientras que durante dos años se han acumulado cientos de comentarios en foros sobre rendimiento de chips, estos datos permanecen dispersos en publicaciones de Reddit antiguas, gists de GitHub y reportes anecdóticos sin formato común. Esta falta de estandarización imposibilita cualquier comparación rigurosa entre dispositivos o modelos. Para resolver este problema, el autor desarrolló oMLX, un servidor de inferencia optimizado para Apple Silicon que incluye un sistema integrado de envío de benchmarks. El proyecto alcanzó 3.800 estrellas en GitHub en apenas tres días después de volverse viral, generando una avalancha de datos: casi 10.000 ejecuciones de pruebas documentadas con precisión. Los patrones que emergen de este volumen de datos son reveladores. El M5 Max demuestra un rendimiento extraordinario, alcanzando aproximadamente 1.200 tokens por segundo (PP tok/s) en contextos de 1k-8k al procesar Qwen 3.5 con 122 mil millones de parámetros en cuantización de 4 bits, manteniéndose por encima de los 1.000 tok/s incluso en contextos de 16k. En contraste, el M3 Ultra comienza con 893 PP tok/s a 1k de contexto pero experimenta una caída notable en contextos más amplios. El M4 Max, por su parte, se posiciona consistentemente en los 500s tok/s, presentándose como una opción predecible pero claramente en un nivel de rendimiento inferior. Lo particularmente interesante es cómo estas métricas cambian según la longitud del contexto. Los "puntos de cruce" donde un chip supera a otro no son lineales, sino que revelan compensaciones complejas que no pueden apreciarse observando únicamente números agregados. Un M5 Max puede dominar en contextos cortos, pero la ventaja relativa cambia drásticamente cuando el modelo debe procesar secuencias más largas. Esta investigación representa un cambio significativo en cómo se evalúa el rendimiento de la inteligencia artificial en hardware de consumo. Durante años, la comunidad de usuarios de modelos locales ha dependido de benchmarks corporativos que a menudo no reflejan casos de uso reales, o de testimonios individuales sin rigor metodológico. Con casi 10.000 corridas documentadas de manera consistente, el dataset de oMLX proporciona por primera vez una base estadística sólida para tomar decisiones sobre qué hardware adquirir para tareas de inteligencia artificial. La implicación es profunda: en un momento en el que los usuarios buscan alternativas a los modelos basados en la nube, la capacidad de ejecutar inteligencia artificial potente en dispositivos personales depende críticamente de comprender qué hardware realmente puede hacer. Las decisiones de compra de millones de usuarios de Mac se ven influenciadas por información confiable, y este proyecto proporciona precisamente eso. Además, el enfoque colaborativo del proyecto demuestra el poder de la ciencia ciudadana en tecnología. Cada usuario que contribuye una prueba de rendimiento fortalece el análisis para todos los demás, creando un círculo virtuoso donde la comunidad se beneficia colectivamente de datos más precisos y contextualizados.

🎙️ Quick Summary

Esto es interesante porque tocamos un punto que la industria tecnológica intenta esconder: los números bonitos que publican las empresas raramente coinciden con lo que experimentamos en casa. Aquí tienes a un desarrollador que dice básicamente, "escuchadme, os voy a mostrar lo que realmente pasa cuando intentas ejecutar un modelo de 122 mil millones de parámetros en vuestro MacBook Pro". Y la respuesta de la comunidad fue espectacular: 10.000 pruebas en poco tiempo. Eso no es una coincidencia. Lo que más me llama la atención es que no estamos hablando de un pequeño experimento académico, sino de datos reales recogidos por usuarios como tú y como yo. Gente que compró un M5 Max y quiere saber si valió la pena. Gente con un M3 Ultra preguntándose si debería haber esperado al M5. Y ahora tienen una respuesta basada en 10.000 casos reales, no en la prosa de marketing de Apple. Pensadlo un momento: ¿cuándo fue la última vez que tuvisteis acceso a un conjunto de datos de esta magnitud y fiabilidad sobre el rendimiento del hardware que ya tenéis en casa? Pero aquí viene lo verdaderamente revolucionario: esto debería sentar un precedente. Si la comunidad puede hacer esto con Apple Silicon e inteligencia artificial local, ¿por qué no hacemos lo mismo con otros aspectos de la tecnología? ¿No sería extraordinario tener benchmarks verificados por la comunidad para baterías reales, consumo de energía, o rendimiento en vídeo en aplicaciones profesionales? La pregunta que me dejo es esta: ¿creéis que las empresas tecnológicas deberían proporcionar esta clase de datos ellas mismas, o preferís confiar en la sabiduría de la multitud?

🤖 Classification Details

Community-sourced benchmark dataset with nearly 10,000 runs, detailed performance patterns across chips, interactive comparison tool, and methodology documentation. Large-scale empirical analysis.