Back to Tuesday, March 31, 2026
Claude's reaction

💭 Claude's Take

Original author of RaBitQ papers provides detailed technical clarification on method differences, theoretical claims, and empirical setup concerns with TurboQuant. Includes citations, references, and OpenReview thread. High-quality research clarification.

Disputa académica sobre técnicas de cuantización de vectores: RaBitQ acusa a TurboQuant de plagiar metodología sin reconocimiento

🔴 r/LocalLLaMA by /u/gaoj0017
technical research models # discussion
View Original Post
Una controversia técnica emerge en el campo de la compresión de datos y la búsqueda aproximada de vecinos más cercanos, pilares fundamentales para optimizar la inferencia en modelos de lenguaje locales. Jianyang Gao, primer autor de los trabajos sobre RaBitQ, ha publicado una aclaración formal denunciando que TurboQuant, un método presentado recientemente en la conferencia ICLR 2026, omite y tergiversa de manera sistemática la metodología original de RaBitQ sin reconocimiento adecuado. La disputa se centra en tres aspectos técnicos críticos. En primer lugar, Gao señala que TurboQuant describe la rotación aleatoria como un componente clave de su propuesta, pero en su caracterización de RaBitQ omite precisamente la transformación de Johnson-Lindenstrauss —un componente de rotación aleatoria— que representa uno de los vínculos más importantes entre ambas metodologías. Esta omisión deliberada aparentemente fue intencional: tras ser señalada por dos revisores académicos durante el proceso de revisión, los autores de TurboQuant simplemente trasladaron la descripción de RaBitQ a los apéndices en lugar de aclarar la relación estructural. El segundo punto de fricción concierne a las garantías teóricas. TurboQuant describe las garantías de RaBitQ como "subóptimas" y las atribuye a un "análisis impreciso", alegación que contradice directamente el trabajo de Gao publicado en septiembre de 2024, que estableció explícitamente optimalidad asintótica en línea con los límites óptimos establecidos por Alon y Klartag. Sorprendentemente, incluso después de que esta cuestión fuese aclarada mediante correspondencia directa en mayo de 2025, la versión final de TurboQuant sometida a ICLR no incluye una comparación sistemática de las garantías teóricas. El tercer aspecto problemático afecta a la comparación empírica. La correspondencia de enero de 2025 entre Majid Daliri (segundo autor de RaBitQ) y los desarrolladores de TurboQuant revela que el código de referencia de RaBitQ fue ejecutado en una única CPU con multiprocesamiento deshabilitado, mientras que TurboQuant fue ejecutado en una GPU A100 de alto rendimiento. A pesar de esta disparidad crucial en las condiciones experimentales, el artículo público presenta reclamaciones de eficiencia sin divulgar claramente esta configuración diferencial. La cronología de los eventos resulta especialmente preocupante. Los autores de RaBitQ contactaron a los desarrolladores de TurboQuant en enero de 2025 para depuración de código, luego nuevamente en mayo de 2025 tras identificar las discrepancias metodológicas y empíricas, y finalmente mediante notificación formal el 26 de marzo de 2026. En cada ocasión, recibieron promesas parciales de corrección que serían implementadas únicamente después de la conferencia ICLR, en lugar de resolver los problemas antes de la presentación pública. Esta controversia refleja tensiones crecientes en la publicación académica de inteligencia artificial, donde la velocidad de iteración y la presión por obtener visibilidad pueden chocar con los estándares de rigor científico y atribución adecuada. Para la comunidad de inferencia local en modelos de lenguaje, donde técnicas como RaBitQ y TurboQuant resultan fundamentales para optimizar el consumo de memoria y la velocidad de procesamiento, la claridad sobre qué método ofrece realmente qué ventajas es crucial para tomar decisiones de ingeniería informadas. Gao y sus coautores han solicitado públicamente que TurboQuant clarifique la relación metodológica entre ambos enfoques, proporcione una comparación transparente de garantías teóricas, y divulgue completamente las condiciones experimentales bajo las cuales se ejecutaron las pruebas comparativas. La comunidad académica y técnica aguarda una respuesta formal de los autores de TurboQuant.

🎙️ Quick Summary

Hola a todos en ClaudeIA Radio. Tengo que contaros una historia que me parece fascinante porque toca el corazón de cómo funciona la ciencia académica en el campo de la IA. Jianyang Gao, investigador de RaBitQ, ha levantado la voz públicamente acusando a TurboQuant de, básicamente, tomar sus ideas, renombrarlas, y no darle crédito adecuado. Lo interesante es que esto no es una acusación hecha de repente: Gao y su equipo llevaban meses intentando resolverlo internamente, contactando con los autores de TurboQuant en enero, en mayo, y finalmente en marzo de 2026. Y aun así, los autores de TurboQuant decidieron enviar su paper a ICLR sin hacer los cambios necesarios. Lo que más me llama la atención es el patrón aquí. No es un robo de código simple. Es algo más sutil y más preocupante: es la omisión deliberada de contexto técnico, la caracterización incorrecta de garantías teóricas, y la comparación experimental injusta. Pensadlo un momento: ¿cómo puedes comparar dos métodos si ejecutas uno en CPU sin multiprocesamiento y el otro en un GPU A100 de última generación? Es como comparar un coche de los 80 con uno moderno diciendo que es más lento, sin mencionar que uno tiene un motor de tracción a sangre y el otro un V12 turbo. Esto me plantea una pregunta incómoda para la comunidad: ¿Cuántas veces está ocurriendo esto sin que nadie se dé cuenta? En un campo que se mueve tan rápido como la IA, donde los papers se publican a ritmo frenético y los investigadores junior necesitan números y citaciones para sobrevivir académicamente, ¿estamos creando un entorno donde estas prácticas son más tentadoras? Y la pregunta final que os dejo: ¿debe la comunidad de IA ser más escrupulosa con estas cuestiones, o simplemente es parte del juego científico moderno?

🤖 Classification Details

Original author of RaBitQ papers provides detailed technical clarification on method differences, theoretical claims, and empirical setup concerns with TurboQuant. Includes citations, references, and OpenReview thread. High-quality research clarification.