大反转!Google TQ新算法是白嫖来的?
- 内容介绍
- 文章标签
- 相关推荐
这是今早看到的图:
image942×1920 175 KB
受害者是RabitQ作者
TQ二作请求RabitQ帮忙调试代码,转头投稿
一是白嫖思路。只提随机旋转(Rabiq的核心理念),只字不提RabitQ。
二是刻意不公平的环境测试 ,显得TQ算法优于RabitQ 数个数量级
(对RabitQ C++改用py,多线程改用单线程,TQ则是使用A100GPU)
三是把RabitQ理论定义为“次优”
多次反馈被无视并借助Google渠道获取千万曝光
评论区相关留言:
image590×202 69.3 KB
image501×222 64.8 KB
完整版:
大家好,我叫高健扬,目前在苏黎世联邦理工学院做博士后,我是 RaBitQ 系列工作的第一作者。
Google Research 于2026年1月被 ICLR 2026 会议接收的论文 ”TurboQuant: Online Vector Quantization with Near-optimal Distortion Rate“ 中,有关已有的 RaBitQ 向量量化算法的描述,理论结果对比,实验对比均存在严重问题(详细情况后文会展开描述)。这些问题在论文投稿至 ICLR 2026 前已被我们通过邮件明确指出,TurboQuant 团队也明确表示已知情,但选择了不予修正。论文随后被 ICLR 2026 会议接收,然后通过 Google 官方渠道大规模推广,在社交媒体浏览量已达到数千万次。
我们此时公开说明,是因为错误的学术叙事一旦广泛传播,纠正的成本会越来越高。
––
背景:RaBitQ 是什么
RaBitQ 系列论文(如下所列)于2024年发表,提出了一种高维向量量化方法,并从理论上证明其达到了理论计算机顶级会议论文(Alon-Klartag, FOCS 2017)给出的渐近最优误差界。
这是今早看到的图:
image942×1920 175 KB
受害者是RabitQ作者
TQ二作请求RabitQ帮忙调试代码,转头投稿
一是白嫖思路。只提随机旋转(Rabiq的核心理念),只字不提RabitQ。
二是刻意不公平的环境测试 ,显得TQ算法优于RabitQ 数个数量级
(对RabitQ C++改用py,多线程改用单线程,TQ则是使用A100GPU)
三是把RabitQ理论定义为“次优”
多次反馈被无视并借助Google渠道获取千万曝光
评论区相关留言:
image590×202 69.3 KB
image501×222 64.8 KB
完整版:
大家好,我叫高健扬,目前在苏黎世联邦理工学院做博士后,我是 RaBitQ 系列工作的第一作者。
Google Research 于2026年1月被 ICLR 2026 会议接收的论文 ”TurboQuant: Online Vector Quantization with Near-optimal Distortion Rate“ 中,有关已有的 RaBitQ 向量量化算法的描述,理论结果对比,实验对比均存在严重问题(详细情况后文会展开描述)。这些问题在论文投稿至 ICLR 2026 前已被我们通过邮件明确指出,TurboQuant 团队也明确表示已知情,但选择了不予修正。论文随后被 ICLR 2026 会议接收,然后通过 Google 官方渠道大规模推广,在社交媒体浏览量已达到数千万次。
我们此时公开说明,是因为错误的学术叙事一旦广泛传播,纠正的成本会越来越高。
––
背景:RaBitQ 是什么
RaBitQ 系列论文(如下所列)于2024年发表,提出了一种高维向量量化方法,并从理论上证明其达到了理论计算机顶级会议论文(Alon-Klartag, FOCS 2017)给出的渐近最优误差界。

