谷歌TurboQuant论文遭OpenReview投诉,“AI内存缩减”说法受质疑

据消息人士称,谷歌TurboQuant论文因宣称将AI内存压缩6倍而引发不当行为指控,投诉称RaBitQ与TurboQuant的基准测试存在差异。

摘要

谷歌TurboQuant论文在宣称将AI内存使用减少6倍后,正面临不当行为指控。消息人士称,这一进展恰逢存储芯片公司市值蒸发逾900亿美元。RaBitQ作者高健洋表示,谷歌采用了不公平的基准测试方法,将在单核CPU的Python环境中运行的RaBitQ,与在Nvidia A100 GPU上运行的TurboQuant进行比较。据消息人士称,高健洋于3月27日通过ICLR OpenReview及伦理渠道提交了投诉。

术语与概念
  • ICLR OpenReview: 机器学习会议(如ICLR)用于管理投稿、评论和评审讨论的开放式同行评审平台。
  • A100 GPU: Nvidia的A100是一款高性能数据中心图形处理器,广泛用于训练和运行AI模型。
  • AI memory compression: 用于减少存储或运行AI模型所需内存的技术,从而降低硬件和计算需求。