電子發燒友網報道(文/梁浩斌)在拉斯維加斯當地時間1月5日,英偉達CEO黃仁勛身穿標志性皮衣亮相CES展會前的英偉達特別演講會場。作為2026年的第一場公開活動,黃仁勛在這場演講中帶來了相當多“猛料”,宣布了Blackwell 、Rubin架構芯片的最新進展,以及首次公開了 Rubin平臺六款芯片,以及詳細性能參數。
除了硬件之外,物理AI也被重點提及,黃仁勛在演講中宣布開源分別面向自動駕駛和機器人的兩款VLA模型,加速推動自動駕駛、機器人等應用的物理AI落地。
Vera Rubin平臺量產,推理性能實現 5 倍飛躍
作為英偉達下一代GPU架構,Rubin GPU的量產進展一直備受關注。去年10月,英偉達在秋季GTC大會上首次展示了Vera Rubin超級計算平臺,而這個平臺不是單一的芯片升級,而是一套涵蓋六大核心芯片的全棧協同架構,包括 Vera CPU、Rubin GPU、NVLink 6 交換機、ConnectX-9 SuperNIC、BlueField-4 DPU 及 Spectrum-6 以太網交換機,從計算、網絡到存儲安全實現全層級革新。
Vera CPU基于定制化 Arm v9.2 架構(代號 Olympus)打造,專為超大規模 AI 場景設計。其搭載 88 個高性能定制核心,支持 NVIDIA Spatial Multi-Threading 技術,可提供 176 個線程,配合 162MB L3 緩存,在數據處理、壓縮及 CI/CD 任務中性能較前代 Grace CPU 提升 2 倍。該芯片集成 2270 億晶體管,采用 3NP 先進制程,配備 1.5TB LPDDR5X 系統內存,通過 SOCAMM 技術實現 1.2TB/s 的內存帶寬,是上一代Grace平臺的 3 倍之多。
在異構協同能力上,Vera CPU搭載1.8TB/s NVLink-C2C一致性內存互聯通道,可與Rubin GPU實現低延遲數據交互,單芯片最多能驅動4顆Rubin GPU高效運行。同時,其內置機架級機密計算功能,為多租戶 AI 云服務提供硬件級安全隔離,核心應用覆蓋 AI 推理任務調度、GPU 數據投喂、多節點協同管理等關鍵場景,能效比較前代提升 40%,推理任務響應速度加快 50%。
Rubin GPU 作為平臺的算力核心,集成 3360 億晶體管,采用兩顆 Reticle 尺寸芯片設計,配備 224 個 SM 單元與第六代 Tensor Core,第三代 Transformer 引擎為其賦予了強大的 AI 處理能力。在性能表現上,該 GPU 在 NVFP4 精度下的推理算力達到 50 PFLOPS,是上一代 Blackwell GPU 的 5 倍;FP8 精度訓練算力達 17.5 PFLOPS,較前代提升 250%,可輕松支撐萬億參數大模型與混合專家(MoE)模型的訓練推理。
顯存配置方面,Rubin GPU 標配 288GB HBM4 顯存,Ultra 版本更支持 1025GB HBM4E 顯存,顯存帶寬高達 22TB/s,較 Blackwell 的 8TB/s 提升 175%,配合硬件加速自適應壓縮技術,可使顯存占用降低 30%。其單 GPU NVLink 帶寬達 3.6TB/s,支持全對全拓撲互聯,能滿足大規模模型并行計算需求。在功耗控制上,該 GPU TDP 為 1800W(Ultra 版 3600W),支持 45℃溫水液冷技術,散熱效率提升 60%,單位算力功耗降低 40%,每 PFLOPS 功耗僅 42W,為超大規模 AI 集群部署提供了能效保障。
NVLink 6 交換機是 Rubin 平臺機架內 GPU 互聯的核心樞紐,專為低延遲、高帶寬通信設計,單 GPU 雙向互聯帶寬達 3.6TB/s,較前代提升 100%,是 PCIe Gen 6 帶寬的 14 倍以上。在 Vera Rubin NVL72 機架配置中,該交換機可實現 72 顆 GPU 的全對全無阻塞互聯,總帶寬高達 260TB/s,較前代機架提升 73%。
ConnectX-9 SuperNIC 作為智能網卡,兼具 InfiniBand 與以太網雙模支持能力,每端口速率達 800Gb/s,支持 200G PAM4 串并轉換,單卡總吞吐量高達 1.6Tb/s,較前代 ConnectX-8 提升 100%。其兼容 InfiniBand HDR200 與以太網 400G 協議,支持 RDMA over Converged Ethernet(RoCE v3)技術,RDMA 延遲降低至 0.8μs,較前代減少 20%,為跨節點數據傳輸提供低延遲保障。
ConnectX-9 SuperNIC集成 230 億晶體管,內置可編程 IO、基于遙測的擁塞控制、線速加密(AES-256)及網絡內數據壓縮等硬件加速功能,新增 AI 任務優先級調度機制,擁塞控制效率提升 40%。其與 NVIDIA Spectrum-X 以太網和 Quantum-X800 網絡平臺無縫集成,能為 Rubin GPU 提供穩定高速的網絡連接,每 Gb/s 功耗僅 0.3W,能效比提升 50%,平均無故障時間達 200 萬小時,可滿足 AI 工廠與云平臺超大規模部署的網絡需求。
BlueField-4 DPU 整合了計算、網絡、存儲三大核心功能,是平臺的安全與存儲中樞,集成 64 核 Grace CPU(Neoverse V2 架構),FP8 算力達 8 TFLOPS,較前代 BlueField-3 提升 500%,網絡傳輸能力提升 2 倍。其支持 800Gb/s 端口速率,兼容 InfiniBand 與以太網雙模,網絡延遲降低至 1.5μs,較前代減少 30%,可高效卸載 90% 的存儲與網絡任務,大幅降低 CPU 負載。該 DPU 支持 1.5TB LPDDR5X 內存,內存帶寬達 250GB/s,較前代提升 233%,兼容 NVMe-oF 與 SATA 協議,存儲 IOPS 提升 3 倍。
Spectrum-6 以太網交換機是 Rubin 平臺跨機架互聯的核心設備,采用共封裝光學(CPO)技術,支持 200G 硅光模塊,單芯片交換容量達 102.4 Tb/s,較前代提升 100%。其端口密度顯著提升,可支持 128 個 800Gb/s 端口或 512 個 200Gb/s 端口,較前代端口密度翻倍,能滿足超大規模 AI 集群的橫向擴展需求。
該交換機實現機架間互聯帶寬 260 TB/s(NVL72 配置),端到端延遲降低至 2.5μs,較前代減少 30%,有效帶寬利用率達 95%。其集成 AI 流量調度引擎與動態負載均衡功能,可使 AI 任務網絡抖動降低 40%,應用程序運行效率提高 5 倍。
六款核心芯片的協同設計構成了 Rubin 平臺的核心競爭力,從計算、網絡到存儲的全棧優化,不僅將 AI 推理 Token 成本降低 10 倍,更使 MoE 模型訓練所需 GPU 數量減少 75%,為代理式 AI、物理 AI 的規模化落地奠定了堅實基礎。
黃仁勛強調,Vera Rubin 的設計初衷是應對 AI 計算量“每年 10 倍增長”的核心挑戰:“摩爾定律已無法跟上模型規模擴張速度,唯有通過全棧協同設計,重構每一層基礎設施,才能讓 AI‘多想一會兒’變得經濟可行。” 據透露,全部六款Vera Rubin平臺芯片均已從制造合作伙伴處取回并進行測試,而該平臺產品將在2026年下半年,在微軟 Azure、CoreWeave 、AWS等云服務商率先部署。
黃仁勛:AI重心從“生成”到“推理+物理AI”,機器人的ChatGPT時刻已至
演講中,黃仁勛明確指出 AI 產業正經歷兩大關鍵轉型:一是從“生成式 AI”轉向“代理式AI(Agentic AI)”,模型具備自主推理、規劃任務、使用工具的能力;二是從 “數字 A”走向“物理AI”,讓 AI 理解重力、慣性等自然法則,實現與現實世界的交互。
“AI發展的下一站就是進入物理世界,英偉達為此已經進行了8年的工作”。而在這次演講中,英偉達發布了多款開源模型,涵蓋不同領域。
其中面向自動駕駛,英偉達發布全球首個開源視覺-語言-行動(VLA)推理模型 Alpamayo,打破傳統自動駕駛系統被動響應的局限。該模型具備鏈式推理能力,可理解復雜場景中的因果關系,如突發路況下的避險邏輯,并解釋決策過程,搭配AlpaSim高保真仿真框架及 1700 小時開源駕駛數據集,形成從訓練到驗證的完整閉環。
同時,黃仁勛宣布首款搭載英偉達全棧自動駕駛技術的梅賽德斯-奔馳 CLA 車型,將于 2026 年第一季度在美國上路,標志著推理型AI正式從實驗室走向消費級出行場景。
另外還有專注邏輯推理與任務執行的Agent模型Nemotron、理解物理規律和環境交互的Cosmos物理AI模型、用于生物醫藥研發和醫療影像的Clara。
英偉達認為,機器人是物理AI的最大應用場景,而針對機器人領域,英偉達推出了兩大關鍵技術:開源基礎模型GR00T N1和物理引擎Newton。
GR00T N1是面向人形機器人的VLA模型,支持全身控制與多步驟協作,可通過模仿學習或強化學習掌握物體抓取、環境導航等技能。物理引擎 Newton是英偉達聯合DeepMind、迪士尼研究院研發,支持剛性/軟體模擬、觸覺反饋訓練,能以超實時速度生成海量合成數據,解決機器人“訓練數據稀缺”難題。
黃仁勛表示,機器人的 ChatGPT 時刻已至,通過 Omniverse 仿真平臺與 Cosmos物理模型,開發者可快速訓練適配工業、家庭等多場景的機器人系統。
除此之外,黃仁勛也在演講中多次強調生態開放的重要性,認為開源模型是AI普及的核心驅動力,他特別提及到中國開源模型 DeepSeek R1 的突破:“它讓行業意識到,開放創新能激活全球力量,盡管開源模型仍落后前沿閉源模型約 6 個月,但差距正不斷縮小。”
未來五年AI產業預判:機器人成最大產業;推理算力、上下文管理能力成關鍵
在演講最后,黃仁勛對AI產業未來五年的趨勢做出了三大預判:
一是編程軟件將全面讓位于訓練軟件,CPU 主導的通用計算轉向 GPU 加速計算,全球價值 10 萬億美元的傳統計算基礎設施將完成 AI 現代化改造;
二是隨著 AI 從 “一次性問答” 轉向 “長期協作智能體”,未來推理算力、上下文管理能力將成為企業競爭關鍵,Vera Rubin 這類全棧平臺將成為行業標配;
三是機器人產業的爆發,到2030年,全球勞動力缺口將達 5000 萬,人形機器人、工業機器人需求將爆發,成為比云計算更大的產業,而物理 AI 與仿真技術將是核心驅動力。
除了硬件之外,物理AI也被重點提及,黃仁勛在演講中宣布開源分別面向自動駕駛和機器人的兩款VLA模型,加速推動自動駕駛、機器人等應用的物理AI落地。
Vera Rubin平臺量產,推理性能實現 5 倍飛躍
作為英偉達下一代GPU架構,Rubin GPU的量產進展一直備受關注。去年10月,英偉達在秋季GTC大會上首次展示了Vera Rubin超級計算平臺,而這個平臺不是單一的芯片升級,而是一套涵蓋六大核心芯片的全棧協同架構,包括 Vera CPU、Rubin GPU、NVLink 6 交換機、ConnectX-9 SuperNIC、BlueField-4 DPU 及 Spectrum-6 以太網交換機,從計算、網絡到存儲安全實現全層級革新。
Vera CPU基于定制化 Arm v9.2 架構(代號 Olympus)打造,專為超大規模 AI 場景設計。其搭載 88 個高性能定制核心,支持 NVIDIA Spatial Multi-Threading 技術,可提供 176 個線程,配合 162MB L3 緩存,在數據處理、壓縮及 CI/CD 任務中性能較前代 Grace CPU 提升 2 倍。該芯片集成 2270 億晶體管,采用 3NP 先進制程,配備 1.5TB LPDDR5X 系統內存,通過 SOCAMM 技術實現 1.2TB/s 的內存帶寬,是上一代Grace平臺的 3 倍之多。
在異構協同能力上,Vera CPU搭載1.8TB/s NVLink-C2C一致性內存互聯通道,可與Rubin GPU實現低延遲數據交互,單芯片最多能驅動4顆Rubin GPU高效運行。同時,其內置機架級機密計算功能,為多租戶 AI 云服務提供硬件級安全隔離,核心應用覆蓋 AI 推理任務調度、GPU 數據投喂、多節點協同管理等關鍵場景,能效比較前代提升 40%,推理任務響應速度加快 50%。
Rubin GPU 作為平臺的算力核心,集成 3360 億晶體管,采用兩顆 Reticle 尺寸芯片設計,配備 224 個 SM 單元與第六代 Tensor Core,第三代 Transformer 引擎為其賦予了強大的 AI 處理能力。在性能表現上,該 GPU 在 NVFP4 精度下的推理算力達到 50 PFLOPS,是上一代 Blackwell GPU 的 5 倍;FP8 精度訓練算力達 17.5 PFLOPS,較前代提升 250%,可輕松支撐萬億參數大模型與混合專家(MoE)模型的訓練推理。
顯存配置方面,Rubin GPU 標配 288GB HBM4 顯存,Ultra 版本更支持 1025GB HBM4E 顯存,顯存帶寬高達 22TB/s,較 Blackwell 的 8TB/s 提升 175%,配合硬件加速自適應壓縮技術,可使顯存占用降低 30%。其單 GPU NVLink 帶寬達 3.6TB/s,支持全對全拓撲互聯,能滿足大規模模型并行計算需求。在功耗控制上,該 GPU TDP 為 1800W(Ultra 版 3600W),支持 45℃溫水液冷技術,散熱效率提升 60%,單位算力功耗降低 40%,每 PFLOPS 功耗僅 42W,為超大規模 AI 集群部署提供了能效保障。
NVLink 6 交換機是 Rubin 平臺機架內 GPU 互聯的核心樞紐,專為低延遲、高帶寬通信設計,單 GPU 雙向互聯帶寬達 3.6TB/s,較前代提升 100%,是 PCIe Gen 6 帶寬的 14 倍以上。在 Vera Rubin NVL72 機架配置中,該交換機可實現 72 顆 GPU 的全對全無阻塞互聯,總帶寬高達 260TB/s,較前代機架提升 73%。
ConnectX-9 SuperNIC 作為智能網卡,兼具 InfiniBand 與以太網雙模支持能力,每端口速率達 800Gb/s,支持 200G PAM4 串并轉換,單卡總吞吐量高達 1.6Tb/s,較前代 ConnectX-8 提升 100%。其兼容 InfiniBand HDR200 與以太網 400G 協議,支持 RDMA over Converged Ethernet(RoCE v3)技術,RDMA 延遲降低至 0.8μs,較前代減少 20%,為跨節點數據傳輸提供低延遲保障。
ConnectX-9 SuperNIC集成 230 億晶體管,內置可編程 IO、基于遙測的擁塞控制、線速加密(AES-256)及網絡內數據壓縮等硬件加速功能,新增 AI 任務優先級調度機制,擁塞控制效率提升 40%。其與 NVIDIA Spectrum-X 以太網和 Quantum-X800 網絡平臺無縫集成,能為 Rubin GPU 提供穩定高速的網絡連接,每 Gb/s 功耗僅 0.3W,能效比提升 50%,平均無故障時間達 200 萬小時,可滿足 AI 工廠與云平臺超大規模部署的網絡需求。
BlueField-4 DPU 整合了計算、網絡、存儲三大核心功能,是平臺的安全與存儲中樞,集成 64 核 Grace CPU(Neoverse V2 架構),FP8 算力達 8 TFLOPS,較前代 BlueField-3 提升 500%,網絡傳輸能力提升 2 倍。其支持 800Gb/s 端口速率,兼容 InfiniBand 與以太網雙模,網絡延遲降低至 1.5μs,較前代減少 30%,可高效卸載 90% 的存儲與網絡任務,大幅降低 CPU 負載。該 DPU 支持 1.5TB LPDDR5X 內存,內存帶寬達 250GB/s,較前代提升 233%,兼容 NVMe-oF 與 SATA 協議,存儲 IOPS 提升 3 倍。
Spectrum-6 以太網交換機是 Rubin 平臺跨機架互聯的核心設備,采用共封裝光學(CPO)技術,支持 200G 硅光模塊,單芯片交換容量達 102.4 Tb/s,較前代提升 100%。其端口密度顯著提升,可支持 128 個 800Gb/s 端口或 512 個 200Gb/s 端口,較前代端口密度翻倍,能滿足超大規模 AI 集群的橫向擴展需求。
該交換機實現機架間互聯帶寬 260 TB/s(NVL72 配置),端到端延遲降低至 2.5μs,較前代減少 30%,有效帶寬利用率達 95%。其集成 AI 流量調度引擎與動態負載均衡功能,可使 AI 任務網絡抖動降低 40%,應用程序運行效率提高 5 倍。
六款核心芯片的協同設計構成了 Rubin 平臺的核心競爭力,從計算、網絡到存儲的全棧優化,不僅將 AI 推理 Token 成本降低 10 倍,更使 MoE 模型訓練所需 GPU 數量減少 75%,為代理式 AI、物理 AI 的規模化落地奠定了堅實基礎。
黃仁勛強調,Vera Rubin 的設計初衷是應對 AI 計算量“每年 10 倍增長”的核心挑戰:“摩爾定律已無法跟上模型規模擴張速度,唯有通過全棧協同設計,重構每一層基礎設施,才能讓 AI‘多想一會兒’變得經濟可行。” 據透露,全部六款Vera Rubin平臺芯片均已從制造合作伙伴處取回并進行測試,而該平臺產品將在2026年下半年,在微軟 Azure、CoreWeave 、AWS等云服務商率先部署。
黃仁勛:AI重心從“生成”到“推理+物理AI”,機器人的ChatGPT時刻已至
演講中,黃仁勛明確指出 AI 產業正經歷兩大關鍵轉型:一是從“生成式 AI”轉向“代理式AI(Agentic AI)”,模型具備自主推理、規劃任務、使用工具的能力;二是從 “數字 A”走向“物理AI”,讓 AI 理解重力、慣性等自然法則,實現與現實世界的交互。
“AI發展的下一站就是進入物理世界,英偉達為此已經進行了8年的工作”。而在這次演講中,英偉達發布了多款開源模型,涵蓋不同領域。
其中面向自動駕駛,英偉達發布全球首個開源視覺-語言-行動(VLA)推理模型 Alpamayo,打破傳統自動駕駛系統被動響應的局限。該模型具備鏈式推理能力,可理解復雜場景中的因果關系,如突發路況下的避險邏輯,并解釋決策過程,搭配AlpaSim高保真仿真框架及 1700 小時開源駕駛數據集,形成從訓練到驗證的完整閉環。
同時,黃仁勛宣布首款搭載英偉達全棧自動駕駛技術的梅賽德斯-奔馳 CLA 車型,將于 2026 年第一季度在美國上路,標志著推理型AI正式從實驗室走向消費級出行場景。
另外還有專注邏輯推理與任務執行的Agent模型Nemotron、理解物理規律和環境交互的Cosmos物理AI模型、用于生物醫藥研發和醫療影像的Clara。
英偉達認為,機器人是物理AI的最大應用場景,而針對機器人領域,英偉達推出了兩大關鍵技術:開源基礎模型GR00T N1和物理引擎Newton。
GR00T N1是面向人形機器人的VLA模型,支持全身控制與多步驟協作,可通過模仿學習或強化學習掌握物體抓取、環境導航等技能。物理引擎 Newton是英偉達聯合DeepMind、迪士尼研究院研發,支持剛性/軟體模擬、觸覺反饋訓練,能以超實時速度生成海量合成數據,解決機器人“訓練數據稀缺”難題。
黃仁勛表示,機器人的 ChatGPT 時刻已至,通過 Omniverse 仿真平臺與 Cosmos物理模型,開發者可快速訓練適配工業、家庭等多場景的機器人系統。
除此之外,黃仁勛也在演講中多次強調生態開放的重要性,認為開源模型是AI普及的核心驅動力,他特別提及到中國開源模型 DeepSeek R1 的突破:“它讓行業意識到,開放創新能激活全球力量,盡管開源模型仍落后前沿閉源模型約 6 個月,但差距正不斷縮小。”
未來五年AI產業預判:機器人成最大產業;推理算力、上下文管理能力成關鍵
在演講最后,黃仁勛對AI產業未來五年的趨勢做出了三大預判:
一是編程軟件將全面讓位于訓練軟件,CPU 主導的通用計算轉向 GPU 加速計算,全球價值 10 萬億美元的傳統計算基礎設施將完成 AI 現代化改造;
二是隨著 AI 從 “一次性問答” 轉向 “長期協作智能體”,未來推理算力、上下文管理能力將成為企業競爭關鍵,Vera Rubin 這類全棧平臺將成為行業標配;
三是機器人產業的爆發,到2030年,全球勞動力缺口將達 5000 萬,人形機器人、工業機器人需求將爆發,成為比云計算更大的產業,而物理 AI 與仿真技術將是核心驅動力。
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。
舉報投訴
-
黃仁勛
+關注
關注
9文章
124瀏覽量
58786
發布評論請先 登錄
相關推薦
熱點推薦
黃仁勛中國行的背后,AI芯片暗戰與英偉達生存博弈
電子發燒友網報道(文/黃山明)4月17日,英偉達創始人黃仁勛再次來到了中國,這也并非是他今年第一次來中國。早在1月下旬,黃
NVIDIA CEO黃仁勛在GTC大會上匯聚AI開放模型先鋒
Mistral、Perplexity、Cursor、Thinking Machines Lab 等公司的首席執行官與黃仁勛一起登上舞臺,共同勾勒了開放前沿時代的未來。
一文讀懂:黃仁勛重點布局的“物理AI”(Physic AI)
這段時間,物理AI這個詞被黃仁勛反復提及,也迅速成為AI圈的新熱詞。但說實話,很多討論都停留在表層,要么把它等同于更聰明的機器人,要么泛泛而談歸為AI進入現實世界。真正的問題其實是:物
今日看點|黃仁勛:物理AI的ChatGPT時刻已然到來;波士頓動力發布Atlas人形機器人量產版本
推動安全可靠的推理型輔助駕駛汽車開發。 ? NVIDIA 創始人兼首席執行官黃仁勛表示:“物理AI的Ch
黃仁勛:未來十年很多汽車是自動駕駛 英偉達發布Alpamayo汽車大模型平臺
在當地時間1月5日黃仁勛在CES 2026上發表主題演講,黃仁勛的新年首場演講中重點提及自動駕駛
黃仁勛新年第一場演講提了DeepSeek 黃仁勛:機器人領域迎來ChatGPT時刻
我們來看看英偉達首席執行官黃仁勛在CES 2026上發表的主題演講。 黃仁
NVIDIA CEO黃仁勛暢談AI時代最新藍圖
在主題演講中,NVIDIA 創始人兼首席執行官黃仁勛勾勒出了 AI 時代的最新藍圖。從大規模 GPU 部署和量子技術突破,到 AI 工廠、
看點:蘋果將與比亞迪合作進軍機器人市場 黃仁勛稱英偉達中國份額從95%降至0
;包括帶屏HomePod和電動桌面機器人,預計2026至2027年推出。 黃仁勛稱英偉達中國份額從95%降至0 據外媒在10月17日報道,英
英偉達發布機器人 “新大腦”,黃仁勛:人形機器人三年普及
完成如 “烤面包” 這樣的復雜任務。結合 Omniverse 仿真平臺,訓練效率提高了10倍,大大縮短了機器人學習和適應現實環境的時間。 英偉達創始人兼首席執行官
NVIDIA CEO 黃仁勛在美國和中國推廣 AI
NVIDIA 將恢復 H20 在中國的銷售, 并宣布推出面向中國市場的全新且完全兼容的 GPU。 ? ? 本月,NVIDIA 創始人兼首席執行官黃仁
發表于 07-15 10:50
?1588次閱讀
NVIDIA CEO黃仁勛展望AI基礎設施產業
NVIDIA CEO 黃仁勛在 COMPUTEX 的主題演講中,描繪了 AI 未來的宏偉愿景,同時展示了新平臺與新合作。
黃仁勛:人工智能將提高全球GDP 黃仁勛談中國AI市場未來規模可達500億美元
黃仁勛的一舉一動都牽動著很多人的關注,比較英偉達在AI領域的號召力還是有目共睹的;我們來看看英偉達CEO黃仁
曝黃仁勛會見DeepSeek創始人梁文鋒
的創始人梁文鋒,雙方就如何為中國設計下一代芯片進行討論,以滿足客戶需求以及中美雙方的監管要求。 同時我們還看到央視新聞的報道,中國貿促會會長任鴻斌4月17日在北京與英偉達公司首席執行官黃仁
Rubin平臺官宣量產!黃仁勛:機器人的ChatGPT時刻已至
評論