谷歌新出的turboquant被举报学术不端
- 内容介绍
- 文章标签
- 相关推荐
没想到啊谷歌之前在我印象中搞研究真的算顶级的,结果也来这一出还被人发现
IMG_95451170×2532 488 KB
https://zhuanlan.zhihu.com/p/2020969476166808284?share_code=iBaa28njf1en&utm_psn=2021183330276656406
--【壹】--:
不稀奇,林子大了什么鸟都有的
--【贰】--:
所以到底是不是降低了内存占用啊?
--【叁】--:
看了一下原文
- 抄了一部分拒绝不提
- 为了踩RaBitQ一头描述贬低+使用不同环境进行对比,不同到什么程度呢:
- 使用自己翻译的 Python 代码,而非我们开源的 C++ 实现
- 使用单核CPU,关闭多线程并行测试 RaBitQ 算法,但却使用 NVIDIA A100 GPU 测试 TurboQuant 算法
--【肆】--:
谷歌的团队大了去了,你敢信谷歌的一个团队在今年1/2月发的论文上看到用gemini 1.5pro作为base model进行实验吗
--【伍】--: henry99:
印象中搞研究真的算顶级的
实际上谷歌有很多团队,而且谷歌都快被阿三夺舍完了。
--【陆】--:
疑似借鉴 RaBitQ 么。
--【柒】--:
TurboQuant 论文的第二作者 Majid Daliri 主动联系我们,请求帮助调试他自己基于 RaBitQ C++ 代码实现的 Python 版本。
没想到啊谷歌之前在我印象中搞研究真的算顶级的,结果也来这一出还被人发现
IMG_95451170×2532 488 KB
https://zhuanlan.zhihu.com/p/2020969476166808284?share_code=iBaa28njf1en&utm_psn=2021183330276656406
--【壹】--:
不稀奇,林子大了什么鸟都有的
--【贰】--:
所以到底是不是降低了内存占用啊?
--【叁】--:
看了一下原文
- 抄了一部分拒绝不提
- 为了踩RaBitQ一头描述贬低+使用不同环境进行对比,不同到什么程度呢:
- 使用自己翻译的 Python 代码,而非我们开源的 C++ 实现
- 使用单核CPU,关闭多线程并行测试 RaBitQ 算法,但却使用 NVIDIA A100 GPU 测试 TurboQuant 算法
--【肆】--:
谷歌的团队大了去了,你敢信谷歌的一个团队在今年1/2月发的论文上看到用gemini 1.5pro作为base model进行实验吗
--【伍】--: henry99:
印象中搞研究真的算顶级的
实际上谷歌有很多团队,而且谷歌都快被阿三夺舍完了。
--【陆】--:
疑似借鉴 RaBitQ 么。
--【柒】--:
TurboQuant 论文的第二作者 Majid Daliri 主动联系我们,请求帮助调试他自己基于 RaBitQ C++ 代码实现的 Python 版本。

