GoogleのTurboQuant論文、AIメモリ削減の主張後にOpenReviewで異議申し立て

情報筋によると、GoogleのTurboQuant論文がAIメモリを6分の1に圧縮できると主張した後、不正行為の疑惑が浮上し、異議申し立てではRaBitQとTurboQuantのテストにおけるベンチマーク条件の違いが指摘された。

要約

GoogleのTurboQuant論文は、AIのメモリ使用量を6分の1に削減したと主張したことを受け、不正行為の疑惑に直面している。情報筋によると、この動きはストレージチップ企業の時価総額が$90 billion超失われた時期と重なった。RaBitQの著者である高建陽氏は、Googleが不公正なベンチマーク手法を用い、単一コアCPU上でPythonで動作するRaBitQと、Nvidia A100 GPU上で動作するTurboQuantを比較したと述べた。情報筋によると、高氏は3月27日にICLR OpenReviewおよび倫理関連チャネルを通じて異議を申し立てた。

用語解説
  • ICLR OpenReview: ICLRのような機械学習会議で、投稿、コメント、査読に関する議論を管理するために使われるオープンなピアレビュー基盤。
  • A100 GPU: NvidiaのA100は、AIモデルの学習と実行に広く用いられている高性能データセンター向けグラフィックスプロセッサである。
  • AI memory compression: AIモデルの保存または実行に必要なメモリを削減し、ハードウェア要件や計算要件を引き下げる技術。