電子發(fā)燒友網(wǎng)報(bào)道(文/梁浩斌)在拉斯維加斯當(dāng)?shù)貢r(shí)間1月5日,英偉達(dá)CEO黃仁勛身穿標(biāo)志性皮衣亮相CES展會(huì)前的英偉達(dá)特別演講會(huì)場。作為2026年的第一場公開活動(dòng),黃仁勛在這場演講中帶來了相當(dāng)多“猛料”,宣布了Blackwell 、Rubin架構(gòu)芯片的最新進(jìn)展,以及首次公開了 Rubin平臺六款芯片,以及詳細(xì)性能參數(shù)。
除了硬件之外,物理AI也被重點(diǎn)提及,黃仁勛在演講中宣布開源分別面向自動(dòng)駕駛和機(jī)器人的兩款VLA模型,加速推動(dòng)自動(dòng)駕駛、機(jī)器人等應(yīng)用的物理AI落地。
Vera Rubin平臺量產(chǎn),推理性能實(shí)現(xiàn) 5 倍飛躍
作為英偉達(dá)下一代GPU架構(gòu),Rubin GPU的量產(chǎn)進(jìn)展一直備受關(guān)注。去年10月,英偉達(dá)在秋季GTC大會(huì)上首次展示了Vera Rubin超級計(jì)算平臺,而這個(gè)平臺不是單一的芯片升級,而是一套涵蓋六大核心芯片的全棧協(xié)同架構(gòu),包括 Vera CPU、Rubin GPU、NVLink 6 交換機(jī)、ConnectX-9 SuperNIC、BlueField-4 DPU 及 Spectrum-6 以太網(wǎng)交換機(jī),從計(jì)算、網(wǎng)絡(luò)到存儲安全實(shí)現(xiàn)全層級革新。
Vera CPU基于定制化 Arm v9.2 架構(gòu)(代號 Olympus)打造,專為超大規(guī)模 AI 場景設(shè)計(jì)。其搭載 88 個(gè)高性能定制核心,支持 NVIDIA Spatial Multi-Threading 技術(shù),可提供 176 個(gè)線程,配合 162MB L3 緩存,在數(shù)據(jù)處理、壓縮及 CI/CD 任務(wù)中性能較前代 Grace CPU 提升 2 倍。該芯片集成 2270 億晶體管,采用 3NP 先進(jìn)制程,配備 1.5TB LPDDR5X 系統(tǒng)內(nèi)存,通過 SOCAMM 技術(shù)實(shí)現(xiàn) 1.2TB/s 的內(nèi)存帶寬,是上一代Grace平臺的 3 倍之多。
在異構(gòu)協(xié)同能力上,Vera CPU搭載1.8TB/s NVLink-C2C一致性內(nèi)存互聯(lián)通道,可與Rubin GPU實(shí)現(xiàn)低延遲數(shù)據(jù)交互,單芯片最多能驅(qū)動(dòng)4顆Rubin GPU高效運(yùn)行。同時(shí),其內(nèi)置機(jī)架級機(jī)密計(jì)算功能,為多租戶 AI 云服務(wù)提供硬件級安全隔離,核心應(yīng)用覆蓋 AI 推理任務(wù)調(diào)度、GPU 數(shù)據(jù)投喂、多節(jié)點(diǎn)協(xié)同管理等關(guān)鍵場景,能效比較前代提升 40%,推理任務(wù)響應(yīng)速度加快 50%。
Rubin GPU 作為平臺的算力核心,集成 3360 億晶體管,采用兩顆 Reticle 尺寸芯片設(shè)計(jì),配備 224 個(gè) SM 單元與第六代 Tensor Core,第三代 Transformer 引擎為其賦予了強(qiáng)大的 AI 處理能力。在性能表現(xiàn)上,該 GPU 在 NVFP4 精度下的推理算力達(dá)到 50 PFLOPS,是上一代 Blackwell GPU 的 5 倍;FP8 精度訓(xùn)練算力達(dá) 17.5 PFLOPS,較前代提升 250%,可輕松支撐萬億參數(shù)大模型與混合專家(MoE)模型的訓(xùn)練推理。
顯存配置方面,Rubin GPU 標(biāo)配 288GB HBM4 顯存,Ultra 版本更支持 1025GB HBM4E 顯存,顯存帶寬高達(dá) 22TB/s,較 Blackwell 的 8TB/s 提升 175%,配合硬件加速自適應(yīng)壓縮技術(shù),可使顯存占用降低 30%。其單 GPU NVLink 帶寬達(dá) 3.6TB/s,支持全對全拓?fù)浠ヂ?lián),能滿足大規(guī)模模型并行計(jì)算需求。在功耗控制上,該 GPU TDP 為 1800W(Ultra 版 3600W),支持 45℃溫水液冷技術(shù),散熱效率提升 60%,單位算力功耗降低 40%,每 PFLOPS 功耗僅 42W,為超大規(guī)模 AI 集群部署提供了能效保障。
NVLink 6 交換機(jī)是 Rubin 平臺機(jī)架內(nèi) GPU 互聯(lián)的核心樞紐,專為低延遲、高帶寬通信設(shè)計(jì),單 GPU 雙向互聯(lián)帶寬達(dá) 3.6TB/s,較前代提升 100%,是 PCIe Gen 6 帶寬的 14 倍以上。在 Vera Rubin NVL72 機(jī)架配置中,該交換機(jī)可實(shí)現(xiàn) 72 顆 GPU 的全對全無阻塞互聯(lián),總帶寬高達(dá) 260TB/s,較前代機(jī)架提升 73%。
ConnectX-9 SuperNIC 作為智能網(wǎng)卡,兼具 InfiniBand 與以太網(wǎng)雙模支持能力,每端口速率達(dá) 800Gb/s,支持 200G PAM4 串并轉(zhuǎn)換,單卡總吞吐量高達(dá) 1.6Tb/s,較前代 ConnectX-8 提升 100%。其兼容 InfiniBand HDR200 與以太網(wǎng) 400G 協(xié)議,支持 RDMA over Converged Ethernet(RoCE v3)技術(shù),RDMA 延遲降低至 0.8μs,較前代減少 20%,為跨節(jié)點(diǎn)數(shù)據(jù)傳輸提供低延遲保障。
ConnectX-9 SuperNIC集成 230 億晶體管,內(nèi)置可編程 IO、基于遙測的擁塞控制、線速加密(AES-256)及網(wǎng)絡(luò)內(nèi)數(shù)據(jù)壓縮等硬件加速功能,新增 AI 任務(wù)優(yōu)先級調(diào)度機(jī)制,擁塞控制效率提升 40%。其與 NVIDIA Spectrum-X 以太網(wǎng)和 Quantum-X800 網(wǎng)絡(luò)平臺無縫集成,能為 Rubin GPU 提供穩(wěn)定高速的網(wǎng)絡(luò)連接,每 Gb/s 功耗僅 0.3W,能效比提升 50%,平均無故障時(shí)間達(dá) 200 萬小時(shí),可滿足 AI 工廠與云平臺超大規(guī)模部署的網(wǎng)絡(luò)需求。
BlueField-4 DPU 整合了計(jì)算、網(wǎng)絡(luò)、存儲三大核心功能,是平臺的安全與存儲中樞,集成 64 核 Grace CPU(Neoverse V2 架構(gòu)),F(xiàn)P8 算力達(dá) 8 TFLOPS,較前代 BlueField-3 提升 500%,網(wǎng)絡(luò)傳輸能力提升 2 倍。其支持 800Gb/s 端口速率,兼容 InfiniBand 與以太網(wǎng)雙模,網(wǎng)絡(luò)延遲降低至 1.5μs,較前代減少 30%,可高效卸載 90% 的存儲與網(wǎng)絡(luò)任務(wù),大幅降低 CPU 負(fù)載。該 DPU 支持 1.5TB LPDDR5X 內(nèi)存,內(nèi)存帶寬達(dá) 250GB/s,較前代提升 233%,兼容 NVMe-oF 與 SATA 協(xié)議,存儲 IOPS 提升 3 倍。
Spectrum-6 以太網(wǎng)交換機(jī)是 Rubin 平臺跨機(jī)架互聯(lián)的核心設(shè)備,采用共封裝光學(xué)(CPO)技術(shù),支持 200G 硅光模塊,單芯片交換容量達(dá) 102.4 Tb/s,較前代提升 100%。其端口密度顯著提升,可支持 128 個(gè) 800Gb/s 端口或 512 個(gè) 200Gb/s 端口,較前代端口密度翻倍,能滿足超大規(guī)模 AI 集群的橫向擴(kuò)展需求。
該交換機(jī)實(shí)現(xiàn)機(jī)架間互聯(lián)帶寬 260 TB/s(NVL72 配置),端到端延遲降低至 2.5μs,較前代減少 30%,有效帶寬利用率達(dá) 95%。其集成 AI 流量調(diào)度引擎與動(dòng)態(tài)負(fù)載均衡功能,可使 AI 任務(wù)網(wǎng)絡(luò)抖動(dòng)降低 40%,應(yīng)用程序運(yùn)行效率提高 5 倍。
六款核心芯片的協(xié)同設(shè)計(jì)構(gòu)成了 Rubin 平臺的核心競爭力,從計(jì)算、網(wǎng)絡(luò)到存儲的全棧優(yōu)化,不僅將 AI 推理 Token 成本降低 10 倍,更使 MoE 模型訓(xùn)練所需 GPU 數(shù)量減少 75%,為代理式 AI、物理 AI 的規(guī)模化落地奠定了堅(jiān)實(shí)基礎(chǔ)。
黃仁勛強(qiáng)調(diào),Vera Rubin 的設(shè)計(jì)初衷是應(yīng)對 AI 計(jì)算量“每年 10 倍增長”的核心挑戰(zhàn):“摩爾定律已無法跟上模型規(guī)模擴(kuò)張速度,唯有通過全棧協(xié)同設(shè)計(jì),重構(gòu)每一層基礎(chǔ)設(shè)施,才能讓 AI‘多想一會(huì)兒’變得經(jīng)濟(jì)可行。” 據(jù)透露,全部六款Vera Rubin平臺芯片均已從制造合作伙伴處取回并進(jìn)行測試,而該平臺產(chǎn)品將在2026年下半年,在微軟 Azure、CoreWeave 、AWS等云服務(wù)商率先部署。
黃仁勛:AI重心從“生成”到“推理+物理AI”,機(jī)器人的ChatGPT時(shí)刻已至
演講中,黃仁勛明確指出 AI 產(chǎn)業(yè)正經(jīng)歷兩大關(guān)鍵轉(zhuǎn)型:一是從“生成式 AI”轉(zhuǎn)向“代理式AI(Agentic AI)”,模型具備自主推理、規(guī)劃任務(wù)、使用工具的能力;二是從 “數(shù)字 A”走向“物理AI”,讓 AI 理解重力、慣性等自然法則,實(shí)現(xiàn)與現(xiàn)實(shí)世界的交互。
“AI發(fā)展的下一站就是進(jìn)入物理世界,英偉達(dá)為此已經(jīng)進(jìn)行了8年的工作”。而在這次演講中,英偉達(dá)發(fā)布了多款開源模型,涵蓋不同領(lǐng)域。
其中面向自動(dòng)駕駛,英偉達(dá)發(fā)布全球首個(gè)開源視覺-語言-行動(dòng)(VLA)推理模型 Alpamayo,打破傳統(tǒng)自動(dòng)駕駛系統(tǒng)被動(dòng)響應(yīng)的局限。該模型具備鏈?zhǔn)酵评砟芰Γ衫斫鈴?fù)雜場景中的因果關(guān)系,如突發(fā)路況下的避險(xiǎn)邏輯,并解釋決策過程,搭配AlpaSim高保真仿真框架及 1700 小時(shí)開源駕駛數(shù)據(jù)集,形成從訓(xùn)練到驗(yàn)證的完整閉環(huán)。
同時(shí),黃仁勛宣布首款搭載英偉達(dá)全棧自動(dòng)駕駛技術(shù)的梅賽德斯-奔馳 CLA 車型,將于 2026 年第一季度在美國上路,標(biāo)志著推理型AI正式從實(shí)驗(yàn)室走向消費(fèi)級出行場景。
另外還有專注邏輯推理與任務(wù)執(zhí)行的Agent模型Nemotron、理解物理規(guī)律和環(huán)境交互的Cosmos物理AI模型、用于生物醫(yī)藥研發(fā)和醫(yī)療影像的Clara。
英偉達(dá)認(rèn)為,機(jī)器人是物理AI的最大應(yīng)用場景,而針對機(jī)器人領(lǐng)域,英偉達(dá)推出了兩大關(guān)鍵技術(shù):開源基礎(chǔ)模型GR00T N1和物理引擎Newton。
GR00T N1是面向人形機(jī)器人的VLA模型,支持全身控制與多步驟協(xié)作,可通過模仿學(xué)習(xí)或強(qiáng)化學(xué)習(xí)掌握物體抓取、環(huán)境導(dǎo)航等技能。物理引擎 Newton是英偉達(dá)聯(lián)合DeepMind、迪士尼研究院研發(fā),支持剛性/軟體模擬、觸覺反饋訓(xùn)練,能以超實(shí)時(shí)速度生成海量合成數(shù)據(jù),解決機(jī)器人“訓(xùn)練數(shù)據(jù)稀缺”難題。
黃仁勛表示,機(jī)器人的 ChatGPT 時(shí)刻已至,通過 Omniverse 仿真平臺與 Cosmos物理模型,開發(fā)者可快速訓(xùn)練適配工業(yè)、家庭等多場景的機(jī)器人系統(tǒng)。
除此之外,黃仁勛也在演講中多次強(qiáng)調(diào)生態(tài)開放的重要性,認(rèn)為開源模型是AI普及的核心驅(qū)動(dòng)力,他特別提及到中國開源模型 DeepSeek R1 的突破:“它讓行業(yè)意識到,開放創(chuàng)新能激活全球力量,盡管開源模型仍落后前沿閉源模型約 6 個(gè)月,但差距正不斷縮小。”
未來五年AI產(chǎn)業(yè)預(yù)判:機(jī)器人成最大產(chǎn)業(yè);推理算力、上下文管理能力成關(guān)鍵
在演講最后,黃仁勛對AI產(chǎn)業(yè)未來五年的趨勢做出了三大預(yù)判:
一是編程軟件將全面讓位于訓(xùn)練軟件,CPU 主導(dǎo)的通用計(jì)算轉(zhuǎn)向 GPU 加速計(jì)算,全球價(jià)值 10 萬億美元的傳統(tǒng)計(jì)算基礎(chǔ)設(shè)施將完成 AI 現(xiàn)代化改造;
二是隨著 AI 從 “一次性問答” 轉(zhuǎn)向 “長期協(xié)作智能體”,未來推理算力、上下文管理能力將成為企業(yè)競爭關(guān)鍵,Vera Rubin 這類全棧平臺將成為行業(yè)標(biāo)配;
三是機(jī)器人產(chǎn)業(yè)的爆發(fā),到2030年,全球勞動(dòng)力缺口將達(dá) 5000 萬,人形機(jī)器人、工業(yè)機(jī)器人需求將爆發(fā),成為比云計(jì)算更大的產(chǎn)業(yè),而物理 AI 與仿真技術(shù)將是核心驅(qū)動(dòng)力。
除了硬件之外,物理AI也被重點(diǎn)提及,黃仁勛在演講中宣布開源分別面向自動(dòng)駕駛和機(jī)器人的兩款VLA模型,加速推動(dòng)自動(dòng)駕駛、機(jī)器人等應(yīng)用的物理AI落地。
Vera Rubin平臺量產(chǎn),推理性能實(shí)現(xiàn) 5 倍飛躍
作為英偉達(dá)下一代GPU架構(gòu),Rubin GPU的量產(chǎn)進(jìn)展一直備受關(guān)注。去年10月,英偉達(dá)在秋季GTC大會(huì)上首次展示了Vera Rubin超級計(jì)算平臺,而這個(gè)平臺不是單一的芯片升級,而是一套涵蓋六大核心芯片的全棧協(xié)同架構(gòu),包括 Vera CPU、Rubin GPU、NVLink 6 交換機(jī)、ConnectX-9 SuperNIC、BlueField-4 DPU 及 Spectrum-6 以太網(wǎng)交換機(jī),從計(jì)算、網(wǎng)絡(luò)到存儲安全實(shí)現(xiàn)全層級革新。
Vera CPU基于定制化 Arm v9.2 架構(gòu)(代號 Olympus)打造,專為超大規(guī)模 AI 場景設(shè)計(jì)。其搭載 88 個(gè)高性能定制核心,支持 NVIDIA Spatial Multi-Threading 技術(shù),可提供 176 個(gè)線程,配合 162MB L3 緩存,在數(shù)據(jù)處理、壓縮及 CI/CD 任務(wù)中性能較前代 Grace CPU 提升 2 倍。該芯片集成 2270 億晶體管,采用 3NP 先進(jìn)制程,配備 1.5TB LPDDR5X 系統(tǒng)內(nèi)存,通過 SOCAMM 技術(shù)實(shí)現(xiàn) 1.2TB/s 的內(nèi)存帶寬,是上一代Grace平臺的 3 倍之多。
在異構(gòu)協(xié)同能力上,Vera CPU搭載1.8TB/s NVLink-C2C一致性內(nèi)存互聯(lián)通道,可與Rubin GPU實(shí)現(xiàn)低延遲數(shù)據(jù)交互,單芯片最多能驅(qū)動(dòng)4顆Rubin GPU高效運(yùn)行。同時(shí),其內(nèi)置機(jī)架級機(jī)密計(jì)算功能,為多租戶 AI 云服務(wù)提供硬件級安全隔離,核心應(yīng)用覆蓋 AI 推理任務(wù)調(diào)度、GPU 數(shù)據(jù)投喂、多節(jié)點(diǎn)協(xié)同管理等關(guān)鍵場景,能效比較前代提升 40%,推理任務(wù)響應(yīng)速度加快 50%。
Rubin GPU 作為平臺的算力核心,集成 3360 億晶體管,采用兩顆 Reticle 尺寸芯片設(shè)計(jì),配備 224 個(gè) SM 單元與第六代 Tensor Core,第三代 Transformer 引擎為其賦予了強(qiáng)大的 AI 處理能力。在性能表現(xiàn)上,該 GPU 在 NVFP4 精度下的推理算力達(dá)到 50 PFLOPS,是上一代 Blackwell GPU 的 5 倍;FP8 精度訓(xùn)練算力達(dá) 17.5 PFLOPS,較前代提升 250%,可輕松支撐萬億參數(shù)大模型與混合專家(MoE)模型的訓(xùn)練推理。
顯存配置方面,Rubin GPU 標(biāo)配 288GB HBM4 顯存,Ultra 版本更支持 1025GB HBM4E 顯存,顯存帶寬高達(dá) 22TB/s,較 Blackwell 的 8TB/s 提升 175%,配合硬件加速自適應(yīng)壓縮技術(shù),可使顯存占用降低 30%。其單 GPU NVLink 帶寬達(dá) 3.6TB/s,支持全對全拓?fù)浠ヂ?lián),能滿足大規(guī)模模型并行計(jì)算需求。在功耗控制上,該 GPU TDP 為 1800W(Ultra 版 3600W),支持 45℃溫水液冷技術(shù),散熱效率提升 60%,單位算力功耗降低 40%,每 PFLOPS 功耗僅 42W,為超大規(guī)模 AI 集群部署提供了能效保障。
NVLink 6 交換機(jī)是 Rubin 平臺機(jī)架內(nèi) GPU 互聯(lián)的核心樞紐,專為低延遲、高帶寬通信設(shè)計(jì),單 GPU 雙向互聯(lián)帶寬達(dá) 3.6TB/s,較前代提升 100%,是 PCIe Gen 6 帶寬的 14 倍以上。在 Vera Rubin NVL72 機(jī)架配置中,該交換機(jī)可實(shí)現(xiàn) 72 顆 GPU 的全對全無阻塞互聯(lián),總帶寬高達(dá) 260TB/s,較前代機(jī)架提升 73%。
ConnectX-9 SuperNIC 作為智能網(wǎng)卡,兼具 InfiniBand 與以太網(wǎng)雙模支持能力,每端口速率達(dá) 800Gb/s,支持 200G PAM4 串并轉(zhuǎn)換,單卡總吞吐量高達(dá) 1.6Tb/s,較前代 ConnectX-8 提升 100%。其兼容 InfiniBand HDR200 與以太網(wǎng) 400G 協(xié)議,支持 RDMA over Converged Ethernet(RoCE v3)技術(shù),RDMA 延遲降低至 0.8μs,較前代減少 20%,為跨節(jié)點(diǎn)數(shù)據(jù)傳輸提供低延遲保障。
ConnectX-9 SuperNIC集成 230 億晶體管,內(nèi)置可編程 IO、基于遙測的擁塞控制、線速加密(AES-256)及網(wǎng)絡(luò)內(nèi)數(shù)據(jù)壓縮等硬件加速功能,新增 AI 任務(wù)優(yōu)先級調(diào)度機(jī)制,擁塞控制效率提升 40%。其與 NVIDIA Spectrum-X 以太網(wǎng)和 Quantum-X800 網(wǎng)絡(luò)平臺無縫集成,能為 Rubin GPU 提供穩(wěn)定高速的網(wǎng)絡(luò)連接,每 Gb/s 功耗僅 0.3W,能效比提升 50%,平均無故障時(shí)間達(dá) 200 萬小時(shí),可滿足 AI 工廠與云平臺超大規(guī)模部署的網(wǎng)絡(luò)需求。
BlueField-4 DPU 整合了計(jì)算、網(wǎng)絡(luò)、存儲三大核心功能,是平臺的安全與存儲中樞,集成 64 核 Grace CPU(Neoverse V2 架構(gòu)),F(xiàn)P8 算力達(dá) 8 TFLOPS,較前代 BlueField-3 提升 500%,網(wǎng)絡(luò)傳輸能力提升 2 倍。其支持 800Gb/s 端口速率,兼容 InfiniBand 與以太網(wǎng)雙模,網(wǎng)絡(luò)延遲降低至 1.5μs,較前代減少 30%,可高效卸載 90% 的存儲與網(wǎng)絡(luò)任務(wù),大幅降低 CPU 負(fù)載。該 DPU 支持 1.5TB LPDDR5X 內(nèi)存,內(nèi)存帶寬達(dá) 250GB/s,較前代提升 233%,兼容 NVMe-oF 與 SATA 協(xié)議,存儲 IOPS 提升 3 倍。
Spectrum-6 以太網(wǎng)交換機(jī)是 Rubin 平臺跨機(jī)架互聯(lián)的核心設(shè)備,采用共封裝光學(xué)(CPO)技術(shù),支持 200G 硅光模塊,單芯片交換容量達(dá) 102.4 Tb/s,較前代提升 100%。其端口密度顯著提升,可支持 128 個(gè) 800Gb/s 端口或 512 個(gè) 200Gb/s 端口,較前代端口密度翻倍,能滿足超大規(guī)模 AI 集群的橫向擴(kuò)展需求。
該交換機(jī)實(shí)現(xiàn)機(jī)架間互聯(lián)帶寬 260 TB/s(NVL72 配置),端到端延遲降低至 2.5μs,較前代減少 30%,有效帶寬利用率達(dá) 95%。其集成 AI 流量調(diào)度引擎與動(dòng)態(tài)負(fù)載均衡功能,可使 AI 任務(wù)網(wǎng)絡(luò)抖動(dòng)降低 40%,應(yīng)用程序運(yùn)行效率提高 5 倍。
六款核心芯片的協(xié)同設(shè)計(jì)構(gòu)成了 Rubin 平臺的核心競爭力,從計(jì)算、網(wǎng)絡(luò)到存儲的全棧優(yōu)化,不僅將 AI 推理 Token 成本降低 10 倍,更使 MoE 模型訓(xùn)練所需 GPU 數(shù)量減少 75%,為代理式 AI、物理 AI 的規(guī)模化落地奠定了堅(jiān)實(shí)基礎(chǔ)。
黃仁勛強(qiáng)調(diào),Vera Rubin 的設(shè)計(jì)初衷是應(yīng)對 AI 計(jì)算量“每年 10 倍增長”的核心挑戰(zhàn):“摩爾定律已無法跟上模型規(guī)模擴(kuò)張速度,唯有通過全棧協(xié)同設(shè)計(jì),重構(gòu)每一層基礎(chǔ)設(shè)施,才能讓 AI‘多想一會(huì)兒’變得經(jīng)濟(jì)可行。” 據(jù)透露,全部六款Vera Rubin平臺芯片均已從制造合作伙伴處取回并進(jìn)行測試,而該平臺產(chǎn)品將在2026年下半年,在微軟 Azure、CoreWeave 、AWS等云服務(wù)商率先部署。
黃仁勛:AI重心從“生成”到“推理+物理AI”,機(jī)器人的ChatGPT時(shí)刻已至
演講中,黃仁勛明確指出 AI 產(chǎn)業(yè)正經(jīng)歷兩大關(guān)鍵轉(zhuǎn)型:一是從“生成式 AI”轉(zhuǎn)向“代理式AI(Agentic AI)”,模型具備自主推理、規(guī)劃任務(wù)、使用工具的能力;二是從 “數(shù)字 A”走向“物理AI”,讓 AI 理解重力、慣性等自然法則,實(shí)現(xiàn)與現(xiàn)實(shí)世界的交互。
“AI發(fā)展的下一站就是進(jìn)入物理世界,英偉達(dá)為此已經(jīng)進(jìn)行了8年的工作”。而在這次演講中,英偉達(dá)發(fā)布了多款開源模型,涵蓋不同領(lǐng)域。
其中面向自動(dòng)駕駛,英偉達(dá)發(fā)布全球首個(gè)開源視覺-語言-行動(dòng)(VLA)推理模型 Alpamayo,打破傳統(tǒng)自動(dòng)駕駛系統(tǒng)被動(dòng)響應(yīng)的局限。該模型具備鏈?zhǔn)酵评砟芰Γ衫斫鈴?fù)雜場景中的因果關(guān)系,如突發(fā)路況下的避險(xiǎn)邏輯,并解釋決策過程,搭配AlpaSim高保真仿真框架及 1700 小時(shí)開源駕駛數(shù)據(jù)集,形成從訓(xùn)練到驗(yàn)證的完整閉環(huán)。
同時(shí),黃仁勛宣布首款搭載英偉達(dá)全棧自動(dòng)駕駛技術(shù)的梅賽德斯-奔馳 CLA 車型,將于 2026 年第一季度在美國上路,標(biāo)志著推理型AI正式從實(shí)驗(yàn)室走向消費(fèi)級出行場景。
另外還有專注邏輯推理與任務(wù)執(zhí)行的Agent模型Nemotron、理解物理規(guī)律和環(huán)境交互的Cosmos物理AI模型、用于生物醫(yī)藥研發(fā)和醫(yī)療影像的Clara。
英偉達(dá)認(rèn)為,機(jī)器人是物理AI的最大應(yīng)用場景,而針對機(jī)器人領(lǐng)域,英偉達(dá)推出了兩大關(guān)鍵技術(shù):開源基礎(chǔ)模型GR00T N1和物理引擎Newton。
GR00T N1是面向人形機(jī)器人的VLA模型,支持全身控制與多步驟協(xié)作,可通過模仿學(xué)習(xí)或強(qiáng)化學(xué)習(xí)掌握物體抓取、環(huán)境導(dǎo)航等技能。物理引擎 Newton是英偉達(dá)聯(lián)合DeepMind、迪士尼研究院研發(fā),支持剛性/軟體模擬、觸覺反饋訓(xùn)練,能以超實(shí)時(shí)速度生成海量合成數(shù)據(jù),解決機(jī)器人“訓(xùn)練數(shù)據(jù)稀缺”難題。
黃仁勛表示,機(jī)器人的 ChatGPT 時(shí)刻已至,通過 Omniverse 仿真平臺與 Cosmos物理模型,開發(fā)者可快速訓(xùn)練適配工業(yè)、家庭等多場景的機(jī)器人系統(tǒng)。
除此之外,黃仁勛也在演講中多次強(qiáng)調(diào)生態(tài)開放的重要性,認(rèn)為開源模型是AI普及的核心驅(qū)動(dòng)力,他特別提及到中國開源模型 DeepSeek R1 的突破:“它讓行業(yè)意識到,開放創(chuàng)新能激活全球力量,盡管開源模型仍落后前沿閉源模型約 6 個(gè)月,但差距正不斷縮小。”
未來五年AI產(chǎn)業(yè)預(yù)判:機(jī)器人成最大產(chǎn)業(yè);推理算力、上下文管理能力成關(guān)鍵
在演講最后,黃仁勛對AI產(chǎn)業(yè)未來五年的趨勢做出了三大預(yù)判:
一是編程軟件將全面讓位于訓(xùn)練軟件,CPU 主導(dǎo)的通用計(jì)算轉(zhuǎn)向 GPU 加速計(jì)算,全球價(jià)值 10 萬億美元的傳統(tǒng)計(jì)算基礎(chǔ)設(shè)施將完成 AI 現(xiàn)代化改造;
二是隨著 AI 從 “一次性問答” 轉(zhuǎn)向 “長期協(xié)作智能體”,未來推理算力、上下文管理能力將成為企業(yè)競爭關(guān)鍵,Vera Rubin 這類全棧平臺將成為行業(yè)標(biāo)配;
三是機(jī)器人產(chǎn)業(yè)的爆發(fā),到2030年,全球勞動(dòng)力缺口將達(dá) 5000 萬,人形機(jī)器人、工業(yè)機(jī)器人需求將爆發(fā),成為比云計(jì)算更大的產(chǎn)業(yè),而物理 AI 與仿真技術(shù)將是核心驅(qū)動(dòng)力。
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。
舉報(bào)投訴
-
黃仁勛
+關(guān)注
關(guān)注
9文章
122瀏覽量
58674
發(fā)布評論請先 登錄
相關(guān)推薦
熱點(diǎn)推薦
揭曉英偉達(dá)最強(qiáng)芯片!Blackwell Ultra、Rubin芯片亮相,新機(jī)器人壓軸
電子發(fā)燒友網(wǎng)報(bào)道(文/莫婷婷)北京時(shí)間3月19日晚間,NVIDIA 創(chuàng)始人兼首席執(zhí)行官黃仁勛在2025年GTC開發(fā)者大會(huì)上發(fā)表了主題演講,介
今日看點(diǎn)|黃仁勛:物理AI的ChatGPT時(shí)刻已然到來;波士頓動(dòng)力發(fā)布Atlas人形機(jī)器人量產(chǎn)版本
推動(dòng)安全可靠的推理型輔助駕駛汽車開發(fā)。 ? NVIDIA 創(chuàng)始人兼首席執(zhí)行官黃仁勛表示:“物理AI的Ch
黃仁勛:未來十年很多汽車是自動(dòng)駕駛 英偉達(dá)發(fā)布Alpamayo汽車大模型平臺
在當(dāng)?shù)貢r(shí)間1月5日黃仁勛在CES 2026上發(fā)表主題演講,黃仁勛的新年首場演講中重點(diǎn)提及自動(dòng)駕駛
黃仁勛新年第一場演講提了DeepSeek 黃仁勛:機(jī)器人領(lǐng)域迎來ChatGPT時(shí)刻
我們來看看英偉達(dá)首席執(zhí)行官黃仁勛在CES 2026上發(fā)表的主題演講。 黃仁
NVIDIA CEO黃仁勛暢談AI時(shí)代最新藍(lán)圖
在主題演講中,NVIDIA 創(chuàng)始人兼首席執(zhí)行官黃仁勛勾勒出了 AI 時(shí)代的最新藍(lán)圖。從大規(guī)模 GPU 部署和量子技術(shù)突破,到 AI 工廠、
看點(diǎn):蘋果將與比亞迪合作進(jìn)軍機(jī)器人市場 黃仁勛稱英偉達(dá)中國份額從95%降至0
;包括帶屏HomePod和電動(dòng)桌面機(jī)器人,預(yù)計(jì)2026至2027年推出。 黃仁勛稱英偉達(dá)中國份額從95%降至0 據(jù)外媒在10月17日報(bào)道,英
英偉達(dá)發(fā)布機(jī)器人 “新大腦”,黃仁勛:人形機(jī)器人三年普及
完成如 “烤面包” 這樣的復(fù)雜任務(wù)。結(jié)合 Omniverse 仿真平臺,訓(xùn)練效率提高了10倍,大大縮短了機(jī)器人學(xué)習(xí)和適應(yīng)現(xiàn)實(shí)環(huán)境的時(shí)間。 英偉達(dá)創(chuàng)始人兼首席執(zhí)行官
央視專訪英偉達(dá)創(chuàng)始人黃仁勛 黃仁勛:總感覺公司快倒閉了
》欄目播出了對英偉達(dá)公司創(chuàng)始人兼首席執(zhí)行官黃仁勛的采訪。在央視采訪中,黃
NVIDIA CEO 黃仁勛在美國和中國推廣 AI
NVIDIA 將恢復(fù) H20 在中國的銷售, 并宣布推出面向中國市場的全新且完全兼容的 GPU。 ? ? 本月,NVIDIA 創(chuàng)始人兼首席執(zhí)行官黃仁
發(fā)表于 07-15 10:50
?1567次閱讀
NVIDIA CEO黃仁勛展望AI基礎(chǔ)設(shè)施產(chǎn)業(yè)
NVIDIA CEO 黃仁勛在 COMPUTEX 的主題演講中,描繪了 AI 未來的宏偉愿景,同時(shí)展示了新平臺與新合作。
黃仁勛:人工智能將提高全球GDP 黃仁勛談中國AI市場未來規(guī)模可達(dá)500億美元
黃仁勛的一舉一動(dòng)都牽動(dòng)著很多人的關(guān)注,比較英偉達(dá)在AI領(lǐng)域的號召力還是有目共睹的;我們來看看英偉達(dá)CEO黃仁
曝黃仁勛會(huì)見DeepSeek創(chuàng)始人梁文鋒
的創(chuàng)始人梁文鋒,雙方就如何為中國設(shè)計(jì)下一代芯片進(jìn)行討論,以滿足客戶需求以及中美雙方的監(jiān)管要求。 同時(shí)我們還看到央視新聞的報(bào)道,中國貿(mào)促會(huì)會(huì)長任鴻斌4月17日在北京與英偉達(dá)公司首席執(zhí)行官黃仁
黃仁勛時(shí)隔3個(gè)月再次到訪北京 黃仁勛:中國是英偉達(dá)非常重要的市場
今天 (4月17日)英偉達(dá)公司首席執(zhí)行官黃仁勛應(yīng)中國貿(mào)促會(huì)的邀請抵達(dá)北京。這是黃仁
機(jī)器人Blue亮相 搭載英偉達(dá)最新GR00T N1人形機(jī)器人通用基礎(chǔ)模型
GR00T N1以及新的數(shù)據(jù)生成和機(jī)器人學(xué)習(xí)框架,我們將共同開啟AI時(shí)代的新邊疆。” 黃仁勛還強(qiáng)調(diào)其泛化能力和多任務(wù)執(zhí)行潛力?。 機(jī)器人B
黃仁勛GTC2025演講:人工智能的終極形態(tài)物理AI將徹底改變世界
產(chǎn)品的計(jì)劃出貨時(shí)間,以及英偉達(dá)在人形機(jī)器人領(lǐng)域的最新進(jìn)展。圖源:英偉達(dá)官方視頻,下同演講期間,黃仁勛再次提到AI技術(shù)的進(jìn)化路徑,從Perception感知AI到Ge
Rubin平臺官宣量產(chǎn)!黃仁勛:機(jī)器人的ChatGPT時(shí)刻已至
評論