NVIDIAがエージェントワークロード向けVera Rubin POD 40ラックAIスーパーコンピュータを発表
Iris Coleman 2026/3/16 19:48
NVIDIAは40ラックに1,152基のGPUを搭載したVera Rubin PODを発表し、60エクサフロップスとBlackwellの10倍の推論性能を提供します。
NVIDIAは、これまでで最も野心的なAIインフラストラクチャのスペックを発表しました。Vera Rubin PODは40ラックに1,152基のRubin GPUを搭載し、60エクサフロップスの計算能力と毎秒10ペタバイトの総スケールアップ帯域幅を提供します。生産ユニットは2026年後半に出荷されます。
ここでの数字は驚異的です:1.2京個のトランジスタ、約20,000個のNVIDIAダイ、すべてが単一の一貫したスーパーコンピュータとして機能するように設計されています。NVIDIAは、現在のBlackwellアーキテクチャと比較して、トレーニング性能が4倍、ワットあたりの推論性能が10倍向上し、トークンコストが現在のレベルの10分の1に低下すると主張しています。
5つの専用ラックシステム
PODは5つの異なるラックスケールシステムを組み合わせており、それぞれが現代のAIワークロードの特定のボトルネックをターゲットにしています:
Vera Rubin NVL72は、コア計算エンジンとして機能します。各ラックは、NVLink 6を介して接続された72基のRubin GPUと36基のVera CPUを統合し、GPUあたり3.6 TB/sの帯域幅を提供します。これは、NVIDIAによると、グローバルインターネット全体よりも多い総帯域幅です。このシステムは、4つのAIスケーリング法則すべてをターゲットにしています:事前トレーニング、事後トレーニング、テスト時スケーリング、エージェントスケーリングです。
Groq 3 LPXラックは、レイテンシの問題に取り組みます。SRAMのみのアーキテクチャを使用して、ラックあたり256の言語処理ユニットを備えており、これらはNVL72とペアになって、NVIDIAが主張する35倍のトークンと、Blackwellと比較して1兆パラメータモデルで10倍の収益機会を提供します。
Vera CPUラックは、エージェントテスト用のサンドボックス環境を提供します。単一のラックは22,500以上の同時強化学習環境を維持します。これは、展開前にエージェントAI出力を検証するために重要です。
BlueField-4 STXラックは、CMXコンテキストメモリプラットフォームを通じて、NVIDIAが「AIネイティブストレージ」と呼ぶものを導入します。KVキャッシュを専用の高帯域幅ストレージにオフロードすることで、システムは従来のアプローチと比較して5倍高い毎秒トークン数と5倍優れた電力効率を主張しています。
Spectrum-6 SPXネットワーキングラックは、コパッケージ光学機器を備えた102.4 Tb/sスイッチですべてを結びつけます。
トークン経済の議論
NVIDIAは、特定の市場の現実を中心にこれをフレーム化しています:トークン消費は現在年間10京を超えており、人間-AIからAI-AI相互作用への移行は、その成長を劇的に加速させます。現代のエージェントシステムは、KVキャッシュ要件を拡大しながら、大量の推論トークン量を生成します。これは、このアーキテクチャがターゲットにするボトルネックです。
NVIDIAが引用したサードパーティのSemiAnalysis InferenceMaxベンチマークは、現在のBlackwellシステムがH200と比較して、ワットあたり50倍優れた性能とトークンあたり35倍低いコストをすでに提供していることを示しています。Vera Rubinは、そのリードを拡大することを目指しています。
熱および電力エンジニアリング
第3世代MGXラックアーキテクチャは、以前の世代よりも6倍多いラックレベルのエネルギー貯蔵(GPUあたり400ジュール)を備えたインテリジェント電力平滑化を導入します。これにより、ピーク電流需要が最大25%削減され、大規模なバッテリーパックの必要性がなくなります。
すべてのラックは45°Cの温水入口温度で動作し、多くの気候のデータセンターが周囲空気冷却を使用できるようにします。NVIDIAは、これにより同じ施設の電力予算でラックを10%追加するのに十分な電力が解放されると主張しています。
今後の展望
初期のPOD構成を超えて、NVIDIAは8ラックにわたって576基のGPUにスケーリングするVera Rubin Ultra NVL576と、ラックあたり144基のGPUを備えたNVL1152をターゲットにする次世代Kyberアーキテクチャをプレビューしました。ロードマップは、NVIDIAがマルチラックNVLinkドメインをAIインフラストラクチャの未来と見ていることを示唆しています。より大きなGPUだけでなく、根本的に異なるシステムアーキテクチャです。
AIインフラストラクチャへの投資を計画している企業にとって、メッセージは明確です:AIコンピューティングの経済学は、チップレベルから施設レベルの最適化にシフトしています。現在データセンターを構築している企業は、現世代のシステムと2026年後半のVera Rubinの利用可能性を待つことの間で選択に直面しています。
画像出典: Shutterstock- nvidia
- AIインフラストラクチャ
- vera rubin
- データセンター
- エンタープライズAI



