通過跨 NVIDIA Vera CPU、Rubin GPU、NVLink 6 交換機、ConnectX-9 SuperNIC、BlueField-4 DPU 和 Spectrum-6 以太網交換機的極致協同設計,大幅縮短訓練時間,降低推理 token 生成成本。
新聞摘要:
Rubin 平臺采用軟硬件極致協同設計,將推理 token 成本最多降低至 NVIDIA Blackwell 平臺的十分之一,在 MoE 模型訓練中使用的 GPU 數量僅為 Blackwell 平臺的四分之一。
NVIDIA Spectrum-X 以太網硅光交換機系統可將能效和持續運行時間提高 5 倍。
搭載 NVIDIA BlueField-4 存儲處理器的全新 NVIDIA 推理上下文記憶存儲平臺加速代理式 AI 推理。
微軟旗下搭載 NVIDIA Vera Rubin NVL72 機架級擴展系統的新一代 Fairwater AI 超級工廠,將擴展至搭載數十萬個 NVIDIA Vera Rubin 超級芯片。
CoreWeave 作為率先提供 NVIDIA Rubin 的首批企業之一,將通過 CoreWeave Mission Control 進行管理,兼顧靈活性和高性能。
擴大與紅帽的合作,借助紅帽企業 Linux、紅帽 OpenShift 和紅帽 AI,提供針對 Rubin 平臺優化的完整 AI 堆棧。
CES – 太平洋時間 2026 年 1 月 5 日 –NVIDIA 今日發布NVIDIA Rubin 平臺,開啟了新一代 AI 之旅,該平臺由六款專為打造超凡 AI 超級計算機而設計的全新芯片組成。NVIDIA Rubin 樹立了新的標桿,能以最低的成本構建、部署和安全運行全球最大型、最先進的 AI 系統,以助力加速主流 AI 的采用。
Rubin 平臺對六款芯片——NVIDIA Vera CPU、NVIDIA Rubin GPU、NVIDIA NVLink?6 交換機、NVIDIA ConnectX? -9 SuperNIC、NVIDIA BlueField? -4 DPU和NVIDIA Spectrum? -6 以太網交換機——進行極致協同設計,從而大幅縮短訓練時間并降低推理 token 成本。
NVIDIA 創始人兼首席執行官黃仁勛表示:“訓練和推理的 AI 計算需求不斷激增,Rubin 的問世恰逢其時。憑借我們每年推出一代新 AI 超級計算機的節奏,以及對跨六款新芯片的極致協同設計,Rubin 朝著 AI 的新前沿邁出了關鍵一步。”
Rubin 平臺以 Vera Florence Cooper Rubin 命名,這位具有開創精神的美國天文學家,她的發現改變了人類對宇宙的理解。Rubin 平臺包括NVIDIA Vera Rubin NVL72機架級擴展解決方案和NVIDIA HGX Rubin NVL8系統。
Rubin 平臺引入了五項創新技術,包括新一代 NVIDIA NVLink 互連技術、Transformer 引擎、機密計算和 RAS 引擎以及 NVIDIA Vera CPU。這些突破將以 NVIDIA Blackwell 平臺低至十分之一的 token 成本加速代理式 AI、高級推理和超大規模混合專家(MoE) 模型推理的發展。NVIDIA Rubin 平臺在 MoE 模型訓練中使用的 GPU 數量僅為前代平臺的四分之一,從而可加速 AI 的采用與普及。
廣泛的生態系統支持
預計采用 Rubin 的全球領先 AI 實驗室、云服務提供商、計算機制造商和初創公司包括 Amazon Web Services (AWS)、Anthropic、Black Forest Labs、思科、Cohere、CoreWeave、Cursor、戴爾科技、Google、Harvey、HPE、Lambda、聯想、Meta、微軟、Mistral AI、Nebius、Nscale、OpenAI、OpenEvidence、Oracle Cloud Infrastructure (OCI)、Perplexity、Runway、Supermicro、Thinking Machines Lab 和 xAI。
OpenAI 首席執行官 Sam Altman表示:“智能隨著算力而擴展。當我們增加算力時,模型就會變得更強,就能夠解決更棘手的問題,并對人類產生更大的影響。NVIDIA Rubin 平臺助力我們持續擴展這一進程,讓先進智能惠及所有人。”
Anthropic 聯合創始人兼首席執行官 Dario Amodei表示:“NVIDIA Rubin 平臺的效率提升代表了基礎設施的重大進步,實現了更長的上下文記憶、更好的推理能力和更可靠的輸出。與 NVIDIA 的合作為我們的安全研究和尖端模型賦能。”
Meta 創始人兼首席執行官馬克·扎克伯格表示:”NVIDIA 的 Rubin 平臺有望帶來性能與效率的躍階式提升,滿足為數十億用戶部署先進模型的需求。”
xAI 創始人兼首席執行官埃隆·馬斯克表示:“NVIDIA Rubin 將成為 AI 火箭的引擎。如果你需要大規模訓練和部署尖端模型,這就是基礎設施的不二之選——Rubin 會向世界重申 NVIDIA 是黃金標準。”
微軟董事長兼首席執行官 Satya Nadella表示:“我們正在打造全球最強大的 AI 超級工廠,以極致的性能和效率處理任意工作負載而不受地點限制。隨著 NVIDIA Vera Rubin GPU 的加入,我們將為開發者和企業組織賦能,支持其以煥然一新的方式創作、推理和擴展。”
CoreWeave 聯合創始人兼首席執行官Mike Intrator表示:“我們構建 CoreWeave 的目的就是用我們的定制 AI 平臺為先行者提供卓越性能,在技術演進中為不同工作負載匹配適用的技術。NVIDIA Rubin 平臺在推理、代理式 AI 和大規模推理工作負載方面實現了重大突破,我們期待將其納入我們的平臺。以 CoreWeave Mission Control 作為運營標準,通過與 NVIDIA 深度合作,我們可在高效整合新技術的同時保障生產級規模的穩定運行。”
AWS 首席執行官 Matt Garman表示:“AWS 與 NVIDIA 攜手推動云 AI 創新已 15 年有余。NVIDIA Rubin 平臺登陸 AWS 標志著我們持續致力于提供尖端 AI 基礎設施,為客戶帶來卓越的選項與靈活性。通過融合 NVIDIA 的先進 AI 技術與 AWS 久經驗證的規模、安全性以及全面的 AI 服務,客戶能以更高效率和更低成本構建、訓練及部署要求最嚴苛的 AI 應用,從而加速實現從實驗到任意規模量產的跨越。”
Google 和 Alphabet 首席執行官 Sundar Pichai表示:“我們珍視與 NVIDIA 深厚而持久的合作關系。為滿足客戶對 NVIDIA GPU 的巨大需求,我們正著力在谷歌云上為其硬件打造最優運行環境。我們將持續深化合作,同時用 Rubin 平臺的卓越能力賦能客戶,為其提供突破 AI 邊界所需的規模化性能。”
Oracle 首席執行官 Clay Magouyrk表示:“Oracle Cloud Infrastructure 是專為極致性能打造的超大規模云平臺。通過與 NVIDIA 的合作,我們正致力于拓展客戶利用 AI 構建和擴展業務的疆界。借助由 NVIDIA Vera Rubin 架構驅動的 10 億瓦級 AI 工廠,OCI 為客戶提供推動模型訓練、推理和對現實世界 AI 影響極限所需的基礎設施。”
戴爾科技董事長兼首席執行官Michael Dell表示:“NVIDIA Rubin 平臺代表著 AI 基礎設施的重大飛躍。通過將 Rubin 集成到 Dell AI Factory with NVIDIA,我們正在構建能夠處理海量 token 和多步驟推理的基礎設施,同時提供企業和新型云服務商大規模部署 AI 所需的高性能和彈性。”
HPE 總裁兼首席執行官 Antonio Neri表示:“AI 不僅在重塑工作負載,更是在重構 IT 基礎架構,這要求我們對從網絡到計算的每個基礎設施的層級都進行重新構想。依托 NVIDIA Vera Rubin 平臺,HPE 正在構建新一代安全的 AI 原生基礎設施,將數據轉化為智能,助力企業轉型為真正的 AI 工廠。”
聯想董事長兼首席執行官楊元慶表示:“聯想計劃采用新一代 NVIDIA Rubin 平臺,結合我們的 Neptune 海神液冷解決方案以及我們在全球范圍內的規模、制造效率與服務覆蓋優勢,助力企業構建作為智能加速引擎的 AI 工廠,加速洞察與創新。我們正共同架構 AI 賦能的未來,確保 AI 成為每一家企業組織的標配。”
專為擴展智能而設計
代理式 AI 和推理模型以及先進的視頻生成工作負載正在重新定義計算的極限。多步驟問題解決需要模型具有跨長 token 序列進行處理、推理和采取行動的能力。專為復雜 AI 工作負載需求設計的 Rubin 平臺采用了五項突破性技術,包括:
第六代 NVIDIA NVLink:提供當今大規模 MoE 模型所需的快速、無縫的 GPU 到 GPU 通信。每個 GPU 支持 3.6 TB/s 的帶寬,每個 Vera Rubin NVL72 機架提供 260TB/s 的帶寬,超過整個互聯網的帶寬總量。NVIDIA NVLink 6 交換機內置網絡計算來加速集合運算,以及新功能以增強可維護性和可靠性,可實現更快、更高效的大規模 AI 訓練和推理。
NVIDIA Vera CPU:NVIDIA Vera 專為智能體推理而設計,是面向大規模 AI 工廠的能效最高的 CPU。這款 NVIDIA CPU 采用了 88 顆 NVIDIA 定制 OLYMPUS 核心打造,完全兼容 Armv9.2,并提供超高速 NVLink-C2C 連接能力。Vera 憑借卓越的性能、帶寬和業界領先的能效,為各種現代數據中心工作負載提供支持。
NVIDIA Rubin GPU:搭載具備硬件加速自適應壓縮能力的第三代 Transformer 引擎,Rubin GPU 為 AI 推理提供 50 PFLOPS 的 NVFP4 運算能力。
第三代 NVIDIA 機密計算:Vera Rubin NVL72 是首個提供NVIDIA 機密計算的機架級平臺,能夠在 CPU、GPU 和 NVLink 域之間的各個領域保障數據安全,從而保護全球最大規模的專有模型、訓練和推理工作負載。
第二代 RAS 引擎:Rubin 平臺涵蓋 GPU、CPU 和 NVLink,具有實時運行狀況檢查、容錯機制和主動維護等功能,能更大限度提升系統生產力。機架采用模塊化無線纜托盤設計,裝配和維護速度較 Blackwell 提升 18 倍。
AI 原生存儲與安全軟件定義基礎設施
NVIDIA Rubin 推出NVIDIA 推理上下文記憶存儲平臺,這是一種全新的 AI 原生存儲基礎設施,旨在實現超大規模推理上下文擴展。
該平臺由 NVIDIA BlueField-4 提供支持,可在整個 AI 基礎設施中高效共享和重復使用鍵值 (Key-Value) 緩存數據,提高響應速度和吞吐量,同時實現可預測、節能高效的代理式 AI 擴展。
隨著 AI 工廠越來越多地采用裸金屬和多租戶部署模式,保持強大的基礎設施控制和隔離變得至關重要。
BlueField-4 引入了高級安全可信資源架構 (ASTRA),這是一種系統級信任架構,為 AI 基礎設施構建者提供了一個單一的、可信的控制點,以便在不影響性能的情況下安全地調配、隔離和運行大規模 AI 環境。
隨著 AI 應用向多輪智能體推理的演進,AI 原生企業必須管理和共享跨用戶、會話和服務的大量推理上下文。
不同形式針對不同工作負載
NVIDIA Vera Rubin NVL72 提供了一個統一、安全的系統,集成 72 個 NVIDIA Rubin GPU、36 個 NVIDIA Vera CPU、NVIDIA NVLink 6、NVIDIA ConnectX-9 SuperNIC和NVIDIA BlueField-4 DPU。
NVIDIA 還將推出 NVIDIA HGX Rubin NVL8 平臺,這是一個通過 NVLink 將 8 個 Rubin GPU 互連的服務器主板,為基于 x86 的生成式 AI 平臺提供支持。HGX Rubin NVL8 平臺可加速 AI 和高性能計算工作負載的訓練、推理和科學計算。
NVIDIA DGX SuperPOD? 可作為大規模部署基于 Rubin 的系統的參考架構,它集成了NVIDIA DGX Vera Rubin NVL72或DGX Rubin NVL8 系統、NVIDIA BlueField-4 DPU、NVIDIA ConnectX-9 SuperNIC、NVIDIA InfiniBand 網絡和NVIDIA Mission Control? 軟件。
新一代以太網網絡
先進的以太網網絡和存儲是 AI 基礎設施的重要組成部分,對于確保數據中心全速運行、提高性能和效率以及降低成本至關重要。
NVIDIA Spectrum-6 以太網是用于 AI 網絡的新一代以太網,旨在以更高的效率和更高的可靠性擴展基于 Rubin 的 AI 工廠,其支持 200G SerDes、光電一體化封裝以及 AI 優化的網絡技術。
基于 Spectrum-6 架構構建,Spectrum-X 以太網光電一體封裝硅光交換機系統為 AI 應用提供 10 倍的可靠性和 5 倍的持續運行時間,并實現 5 倍的能效提升,與傳統技術相比,可更大限度地提高每瓦性能。作為Spectrum-X 以太網平臺的一部分,Spectrum-XGS 以太網技術將相距數百公里及以上的多個基礎設施連接在一起,作為單個統一的 AI 環境運行作業。
這些創新共同定義了新一代 NVIDIA Spectrum-X 以太網平臺,為 Rubin 實現極致的工程協同設計,以驅動大規模 AI 工廠,并為未來百萬 GPU 環境鋪平道路。
Rubin 供應情況
NVIDIA Rubin 現已全面量產。
2026 年首批部署基于 Vera Rubin 實例的云提供商包括 AWS、Google Cloud、微軟和 OCI 以及NVIDIA 云合作伙伴CoreWeave、Lambda、Nebius 和 Nscale。
微軟將部署 NVIDIA Vera Rubin NVL72 機架級擴展系統,作為其新一代 AI 數據中心 (包括未來的 Fairwater AI 超級工廠基地) 的一部分。
Rubin 平臺旨在為訓練和推理工作負載提供前所未有的效率和性能,因此它將為微軟旗下的新一代云 AI 能力提供基礎。Microsoft Azure 將推出經過嚴格優化的平臺,助力客戶能夠加速企業、研究和消費應領域的創新。
CoreWeave 將從 2026 年下半年開始,將基于 NVIDIA Rubin 的系統集成至其 AI 云平臺中。CoreWeave 專為多架構并行運行打造,因此客戶能夠將 Rubin 部署至其環境,用于提升訓練、推理和代理式工作負載方面。
CoreWeave 將與 NVIDIA 合作,幫助 AI 先行者利用 Rubin 在推理和 MoE 模型方面的突破,同時通過CoreWeave Mission Control在整個生命周期中繼續提供生產級 AI 所需的性能、運行可靠性和擴展性。
此外,思科、戴爾、HPE、聯想和Supermicro預計將推出基于 Rubin 產品的各種服務器。
Anthropic、Black Forest、Cohere、Cursor、Harvey、Meta、Mistral AI、OpenAI、OpenEvidence、Perplexity、Runway、Thinking Machines Lab 和 xAI 等 AI 實驗室都在尋求借助 NVIDIA Rubin 平臺來訓練更大、功能更強的模型,并以比之前幾代 GPU 更低的延遲和成本來為長上下文、多模態系統提供服務。
基礎設施軟件和存儲合作伙伴 AIC、Canonical、Cloudian、DDN、戴爾、HPE、Hitachi Vantara、IBM、NetApp、Nutanix、Pure Storage、Supermicro、SUSE、VAST Data 和WEKA正在與 NVIDIA 合作,為 Rubin 基礎設施設計新一代平臺。
Rubin 平臺標志著 NVIDIA 第三代機架擴展級架構的問世,目前已有 80 多家 NVIDIA MGX? 生態系統合作伙伴。
為了釋放這種密度優勢,紅帽今日宣布擴大與 NVIDIA 的合作,借助紅帽的混合云系列產品,包括紅帽企業 Linux、紅帽 OpenShift 和紅帽 AI,提供針對 NVIDIA Rubin 平臺優化的完整 AI 堆棧。絕大多數《財富》全球 500 強企業都在使用這些解決方案。
-
NVIDIA
+關注
關注
14文章
5592瀏覽量
109717 -
計算機
+關注
關注
19文章
7806瀏覽量
93189 -
AI
+關注
關注
91文章
39755瀏覽量
301359
原文標題:CES 2026 | NVIDIA 發布 Rubin,開啟新一代 AI 平臺 —— 六款全新芯片,一臺超凡 AI 超級計算機
文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
微軟Azure數據中心國際版全面對接NVIDIA Rubin平臺
英偉達Rubin平臺引入微通道冷板技術,100%全液冷設計
NVIDIA DGX SuperPOD為Rubin平臺橫向擴展提供藍圖
三星電子在CES 2026發布AI生活伴侶愿景
聲智科技FairySleep Z1 AI睡眠耳機亮相CES 2026
中科創達新一代AI座艙域控解決方案亮相CES 2026
KTC與創通聯達合作新一代AI媒體站亮相CES 2026
創通聯達在CES 2026發布雙款核心新品
光庭信息與Epic Games在CES 2026發布3D HMI開發平臺UEA 2.0
NVIDIA在CES 2026發布全新開放模型、數據和工具
NVIDIA在CES 2026上展示未來藍圖
MediaTek在CES 2026推出新一代Wi-Fi 8芯片平臺Filogic 8000系列
Supermicro宣布支持即將推出的NVIDIA Vera Rubin NVL72與HGX Rubin NVL8,并擴大機柜制造產能,提供更佳的液冷AI解決方案
NVIDIA在CES 2026發布新一代Rubin AI平臺
評論