
Nvidiaの最新プロセッサ「Rubin」は288GBのRAMを必要とし、従来モデルや一般的なハイエンドコンピューターと比べてメモリ需要の大幅な拡大を示している。
Nvidiaが新たに発表した人工知能(AI)チップ「Rubin」は288ギガバイトのRAMを必要とし、これはハイエンドパソコンのメモリ容量より約800%、高性能スマートフォンより約2,300%多い。4年前に発売されたH100チップの後継となるRubinモデルは、次世代AIワークロードを支えるためにNvidiaが拡大する計算資源の必要性を浮き彫りにしている。この傾向は、AIの学習や推論プロセスがますますハードウェアの限界に負担をかけ、より大容量のメモリアーキテクチャへの技術革新と投資を促していることを示している。