NVIDIA BlueField-4 STX 儲存架構,為解決 AI 推論的儲存瓶頸。此架構建立專為 KV 快取優化的高速情境記憶儲存層,可顯著提升 GPU 吞吐量與能源效率,加速代理式 AI 發展。NVIDIA BlueField-4 STX 儲存架構,為解決 AI 推論的儲存瓶頸。此架構建立專為 KV 快取優化的高速情境記憶儲存層,可顯著提升 GPU 吞吐量與能源效率,加速代理式 AI 發展。

GTC 2026:NVIDIA 推出 BlueField-4 STX 儲存架構 為代理式 AI 打造情境記憶

2026/03/17 13:26
閱讀時長 11 分鐘
如需對本內容提供反饋或相關疑問,請通過郵箱 [email protected] 聯絡我們。

NVIDIA 在 GTC 2026 大會推出 BlueField-4 STX 儲存架構,建立 G3.5 快取層級以解決代理式 AI 的儲存瓶頸問題,並聯手十大儲存大廠共同開發次世代 AI 基礎設施。
除了公布Vera Rubin平台細節,NVIDIA在GTC 2026大會上更同步推出一項被形容為「輪到儲存空間被重新發明」的關鍵技術——BlueField-4 STX儲存架構。這套全新的模組化參考架構,將為正在崛起的「代理式AI」 (Agentic AI)解決一個最頭痛的問題:當AI代理需要進行多步驟推理、呼叫工具,並且在長時間對話中保持「記憶」時,傳統的儲存系統完全跟不上GPU的運算速度 。

代理式AI的儲存瓶頸:當「記憶」變成效能殺手

隨著AI從單純的問答生成走向能夠自主規劃與執行的「代理」,其背後的工作流程也產生了根本性的變化。現代的AI代理需要跨越多個步驟、工具和對話階段進行協作,這意味著它們必須擁有「長期情境記憶」。不過,傳統資料中心提供的高容量通用儲存,缺乏與GPU即時協作的響應能力。

問題的關鍵,在於大型語言模型運作時產生的「鍵值快取」 (KV cache)。當模型處理長上下文或進行多回合推論時,KV快取會急遽增長,但這類資料既不能長期放在昂貴的GPU高頻寬記憶體 (HBM)內,又不能丟給速度慢的傳統企業級儲存。若將KV快取推到傳統儲存,則會導致GPU長時間閒置等待資料,嚴重拉低推論吞吐量,並且增加整體持有成本。

因此,NVIDIA認為要在海量上下文中進行推理,並持續學習,AI系統需要一種全新類別的儲存架構。而NVIDIA STX架構設計則重新發明儲存堆疊,為AI原生基礎架構提供模組化基礎,讓AI工廠得以維持峰值效能運作。

什麼是BlueField-4 STX?「G3.5」層的誕生

為了解決這個難題,NVIDIA宣布推出BlueField-4 STX,這是一套由BlueField-4 DPU驅動的機架級儲存參考架構。其核心是全新的NVIDIA CMX情境記憶儲存平台,在介於GPU的極速記憶體 (G1)與傳統的慢速儲存 (G4)之間,建立一個名為G3.5的全新儲存層級。

G3.5是一個專為KV快取優化的乙太網路連接快閃記憶體層,具備PB級儲存容量,能作為AI代理的「長期工作記憶」,讓多個代理同時共享不斷演進的對話情境。當GPU需要資料時,CMX平台能透過RDMA高速預先載入情境,避免解碼階段 (decode phase)發生停頓,進而造成AI推論延遲。

根據官方數據,這套新架構能帶來三大效能躍進:

• 5倍token吞吐量:與傳統儲存相比,每秒處理的token數量提升高達5倍。

• 4倍能源效率:相較於傳統高效能儲存的CPU架構,能源效率提升4倍。

• 2倍資料攝取速度:針對企業AI資料的攝取速度提升2倍 。

技術底蘊:Vera Rubin + BlueField-4 + Spectrum-X 的三位一體

STX架構並非憑空而生,而是深度整合NVIDIA最新的硬體產品線。它由Vera Rubin平台加速,採用了專為儲存優化的新款BlueField-4 DPU。這顆晶片結合NVIDIA Vera CPU與NVIDIA ConnectX-9 SuperNIC構成,並且搭配Spectrum-X 乙太網路、NVIDIA DOCA軟體框架及NVIDIA AI Enterprise軟體運作。

具體運作上,BlueField-4 DPU負責管理硬體加速的KV快取放置,消除metadata成本,減少不必要的資料異動,並且確保GPU節點的資料安全隔離存取。而Spectrum-X乙太網路則提供低延遲、高頻寬的RDMA連線,確保KV快取資料存取的一致性。

NVIDIA網路資深副總裁Kevin Deierling將情境記憶比喻為人類的記憶,並且強調:「有效管理情境是擴展多回合、多用戶推論的關鍵。這使得情境記憶的管理方式必須在大規模下徹底改變」。

生態系全面相挺:從儲存大廠到雲端服務商

與其他NVIDIA技術一樣,STX架構的發表伴隨著極其廣泛的產業支持。黃仁勳在主題演講中展示了長長的合作夥伴名單,強調這不僅是NVIDIA的一己之力,而是整個儲存產業的典範轉移。

採用STX架構共同設計次世代AI基礎設施的儲存供應商包括:Cloudian、DDN、Dell、Everpure、Hitachi Vantara、HPE、IBM、MinIO、NetApp、Nutanix、VAST Data、WEKA。而負責製造STX架構系統的硬體合作夥伴則有AIC、Supermicro及廣達 (QCT)。

而在終端用戶方面,目前已有眾多一線AI實驗室與雲端服務商計劃導入STX架構系統作為情境記憶儲存解決方案,包括:CoreWeave、Crusoe、IREN、Lambda、Mistral AI、Nebius、Oracle Cloud Infrastructure (OCI)與Vultr。

上市時程

根據NVIDIA官方資訊,所有基於BlueField-4 STX架構的平台,將於2026年下半年陸續透過合作夥伴供貨。

分析觀點:儲存不再是配角,而是 AI 工廠的「第二顆大腦」

NVIDIA在GTC 2026端出的BlueField-4 STX,其意義遠超一次單純的產品線更新,象徵NVIDIA對於AI基礎設施的思考,已從「如何加速運算」進化到「如何組織資料」。

首先,這是對「代理式AI」基礎設施需求的精準填空。當業界還在熱議AI代理將如何改變工作流程時,NVIDIA已經著手解決其背後最頭痛的工程問題:那些動輒百萬token的對話歷史、工具呼叫記錄、中間推理步驟,究竟要放在哪裡,才能讓GPU在需要時「隨傳隨到」?STX架構給出的答案是:不要在GPU上塞爆它,也不要把它丟到遠方的硬碟裡,而是在機房裡劃出一個全新的「快取層」。

其次,G3.5層的出現,將重新定義資料中心的儲存預算。過去,IT採購儲存設備時,考量的往往是容量、耐用性與備份功能。但在STX架構系統中,儲存設備的KPI變成「每秒能餵給GPU多少token」,以及「每瓦能產出多少推論」,這將迫使傳統儲存大廠必須重新思考產品定位,否則將在這波AI工廠的建置潮中被邊緣化。

再者,生態系的名單透露NVIDIA的「兼容並蓄」策略。從名單上可以看到,除了既有的儲存解決方案業者Dell、HPE、NetApp之外,還包含VAST Data、WEKA這樣的新一代軟體定義儲存獨角獸,以及Cloudian、MinIO等物件儲存業者,顯示NVIDIA無意通吃所有市場,而是希望透過開放架構,讓各家夥伴在統一的BlueField平台上開發差異化解決方案。與其GPU市集的策略如出一轍——建立標準,並且以生態系填滿。

最後,對於正在規劃建置大規模AI服務的企業而言,STX架構系統提供了一個重要的思考方向:當GPU算力軍備競賽逐漸觸及物理極限,下一個效能瓶頸的解藥,可能不在GPU本身,而在於如何讓GPU周遭的「記憶」與「儲存」變得更聰明。

資料來源

  • https://mashdigi.com/nvidia-launches-the-bluefield-4-stx-storage-architecture-partnering-with-ten-major-storage-manufacturers-it-creates-contextual-memory-for-agent-based-ai/
市場機遇
4 圖標
4實時價格 (4)
$0.007606
$0.007606$0.007606
-1.83%
USD
4 (4) 實時價格圖表
免責聲明: 本網站轉載的文章均來源於公開平台,僅供參考。這些文章不代表 MEXC 的觀點或意見。所有版權歸原作者所有。如果您認為任何轉載文章侵犯了第三方權利,請聯絡 [email protected] 以便將其刪除。MEXC 不對轉載文章的及時性、準確性或完整性作出任何陳述或保證,並且不對基於此類內容所採取的任何行動或決定承擔責任。轉載材料僅供參考,不構成任何商業、金融、法律和/或稅務決策的建議、認可或依據。