国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

堪稱史上最強推理芯片!英偉達發布 Rubin CPX,實現50倍ROI

唔知啊 ? 來源:電子發燒友網 ? 作者:梁浩斌 ? 2025-09-11 08:25 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發燒友網報道(文/梁浩斌)近日,英偉達AI infra峰會上發布了專為大規模上下文推理設計的全新GPU系列Rubin CPX,性能堪稱炸裂!

英偉達創始人兼CEO黃仁勛表示,“正如 RTX 革新了圖形技術與物理 AI,Rubin CPX 則是首款專為大規模上下文 AI 設計的 CUDA GPU—— 在該場景下,模型可一次性基于數百萬個token進行推理。”

作為基于Rubin架構的一款AI芯片,Rubin CPX采用了成本效益極高的單芯片設計,集成強大的NVFP4計算資源,其GPU專為AI推理任務優化,可以實現極高的性能和能效比。按照英偉達的說法,Rubin CPX平臺可實現 30 至 50 倍的投資回報率(ROI),這意味著1億美元的資本性支出(CAPEX)投入,能帶來高達50億美元的收入,又呼應了老黃此前的名言“買得越多賺得越多”,這不是新一代“印鈔機”嗎?

那么Rubin CPX是怎么實現高效AI推理的?

為什么需要Rubin CPX?

要理解Rubin CPX的作用,首先要知道分布式推理的架構原理。

AI推理過程包含兩個截然不同的階段:上下文階段與生成階段,這兩個階段對AI基礎設施的需求存在本質差異。其中,上下文階段受計算能力限制,需要通過高吞吐量處理來接收并分析大量輸入數據,進而生成首個token輸出結果。

與之不同的是,生成階段受內存帶寬限制,需依賴高速內存傳輸及NVLink等高速互聯方案,以維持逐推理單元(token-by-token)的輸出性能。
wKgZPGjCF4eACLVlAALDbq26KqU125.png
為了提高計算效率,英偉達通過分布式推理可以實現這兩個階段的獨立處理,從而對計算和內存資源進行針對性優化。這一架構變革能夠提升吞吐量、降低延遲,并提高整體資源利用率。

具體來說,分布式推理的流程是,文檔 / 數據庫 / 視頻等數據輸入至上下文處理器;其輸出會傳輸至鍵值緩存(KV 緩存),供 GPU B 生成節點讀取以生成結果。GPU A 針對長上下文處理進行了優化,而 GPU B 則在上下文階段與生成階段均能實現出色的總擁有成本表現。

然而,分布式架構也帶來了新的復雜性層級,需要在低延遲 KV 緩存傳輸、大語言模型感知路由(LLM-aware Routing)及高效內存管理之間實現精準協同。英偉達 Dynamo可作為這些組件的編排層,其功能在最新的 MLPerf 推理基準測試結果中發揮了關鍵作用。

而分布式推理要發揮出其優勢,在上下文處理階段的效率提升尤為重要。Rubin CPX GPU就是專為解決這個階段的計算效率的一種解決方案,目標是為高價值長上下文推理工作負載提供高吞吐量性能,同時可無縫集成至分布式基礎設施中。

Vera Rubin NVL144 CPX平臺:GB300 NVL72的7.5倍性能

Rubin CPX 具備30 petaFLOPs的NVFP4計算能力、128 GB的GDDR7內存、硬件級別的視頻解碼/編碼支持,以及三倍于NVIDIA GB300的注意力機制加速性能。

比如處理視頻時,AI模型每處理1小時的內容可能需要多達100 萬個token,這突破了傳統 GPU的計算極限。Rubin CPX在單芯片中集成了視頻解碼器與編碼器,以及長上下文推理處理功能,從而在視頻搜索、高質量生成式視頻等長時長應用場景中,實現了前所未有的性能。

同時,英偉達也推出了一套集成Rubin CPX 、NVIDIA Vera CPU、Rubin GPU的完整高性能分布式服務解決方案——NVIDIA Vera Rubin NVL144 CPX。
wKgZPGjCF4-AP-1FAAWI2Pk6d8c213.png?
Vera Rubin NVL144 CPX 圖源:英偉達

NVIDIA Vera Rubin NVL144 CPX機架集成144個Rubin CPX GPU、144個Rubin GPU 以及36個 Vera CPU,能夠實現8 exaFLOPs的NVFP4計算性能,是GB300 NVL72的7.5倍,同時還提供100 TB的高速內存和高達1.7 PB/s的內存帶寬。

Vera Rubin NVL144 CPX采用了NVIDIA Quantum-X800 InfiniBand或Spectrum-X以太網技術,與NVIDIA ConnectX-9 SuperNIC配合使用,并由Dynamo平臺進行管理。英偉達表示,在規模化應用中,該平臺能夠實現30至50倍的投資回報。
wKgZO2jCF5eAXD_aAAdPDNw4qLo783.png
值得一提的是,對于已經訂購Vera Rubin NVL144系統的用戶,英偉達也提供專用的Rubin CPX 計算托盤,可以在現有的Vera Rubin NVL144系統上拓展推理能力。

根據此前英偉達的上市時間表,Rubin架構GPU預計在2026年正式上市,預計在今年9月交付客戶測試。而同為Rubin架構的Rubin CPX GPU,英偉達預計會在2026年下半年上市,Vera Rubin NVL144 CPX則預計在2026年底上市。

近日英偉達宣布,年度技術大會GTC2026將會在2026年3月16日至19日舉行,預計在大會上將正式推出Rubin GPU和Vera CPU兩大產品。

寫在最后

Rubin CPX的推出,可以說是AI推理側的一顆“重磅炸彈”。正如黃仁勛提到的“Rubin CPX 是 AI 推理領域的 RTX”,AI算力硬件正在通過細分場景的優化,實現革命性的效率提升。同時借助Rubin CPX,英偉達開拓了算力硬件的新形式,占領長上下文推理領域的“無人區”。在視頻、代碼生成等用到巨量Token的領域,未來Rubin CPX可能會占據極為有利的生態位,繼續筑牢英偉達在AI基建市場的護城河。
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • gpu
    gpu
    +關注

    關注

    28

    文章

    5194

    瀏覽量

    135422
  • 英偉達
    +關注

    關注

    23

    文章

    4086

    瀏覽量

    99164
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    中國AI芯片市場:華為將占半壁江山,英偉跌落,這家第二

    2026年華為將占據中國AI芯片市場50%的份額,成為該領域的絕對領導者。 ? 目前,英偉(NVIDIA)以39%的市場份額位居中國AI芯片
    的頭像 發表于 12-07 11:04 ?9356次閱讀
    中國AI<b class='flag-5'>芯片</b>市場:華為將占半壁江山,<b class='flag-5'>英偉</b><b class='flag-5'>達</b>跌落,這家第二

    高通挑戰英偉發布768GB內存AI推理芯片,“出征”AI數據中心

    億美元的數據中心市場中搶占一席之地。 ? 就在10月28日,高通面向數據中心連發兩款AI芯片,AI200 和 AI250 芯片,打造下一代 AI 推理優化解決方案。這一舉措不僅標志著高通在AI基礎設施領域的拓展,也被業內視為其對
    的頭像 發表于 10-29 09:14 ?6451次閱讀
    高通挑戰<b class='flag-5'>英偉</b><b class='flag-5'>達</b>!<b class='flag-5'>發布</b>768GB內存AI<b class='flag-5'>推理</b><b class='flag-5'>芯片</b>,“出征”AI數據中心

    揭曉英偉最強芯片!Blackwell Ultra、Rubin芯片亮相,新機器人壓軸

    電子發燒友網報道(文/莫婷婷)北京時間3月19日晚間,NVIDIA 創始人兼首席執行官黃仁勛在2025年GTC開發者大會上發表了主題演講,介紹了英偉在AI、機器人、加速計算等領域的最新進展,包括
    的頭像 發表于 03-19 09:05 ?3716次閱讀
    揭曉<b class='flag-5'>英偉</b><b class='flag-5'>達</b><b class='flag-5'>最強</b><b class='flag-5'>芯片</b>!Blackwell Ultra、<b class='flag-5'>Rubin</b><b class='flag-5'>芯片</b>亮相,新機器人壓軸

    英偉電話會看Agentic AI推理與FPGA價值

    2026年2月,英偉發布2026財年Q4財報:營收681億美元,同比增長73%,數據中心業務增長75%——預期中的超預期。更值得關注的,是電話會中反復出現的幾個關鍵詞:Agentic AI、
    的頭像 發表于 03-04 17:07 ?1016次閱讀
    從<b class='flag-5'>英偉</b><b class='flag-5'>達</b>電話會看Agentic AI<b class='flag-5'>推理</b>與FPGA價值

    英偉微通道液冷板技術全解析:原理、工藝、優勢與產業適配

    隨著AI算力的爆發式增長,英偉Rubin架構GPU等高端芯片的單芯片功耗已逼近2.2kW(2026年最新實測數據),局部熱點熱流密度最高可
    的頭像 發表于 02-14 08:19 ?425次閱讀
    <b class='flag-5'>英偉</b><b class='flag-5'>達</b>微通道液冷板技術全解析:原理、工藝、優勢與產業適配

    英偉Rubin GPU采用鉆石銅散熱,解決芯片散熱難題

    散熱難題帶來了新的曙光。 ? 隨著AI大模型、云計算的迭代提速,芯片算力與功耗同步飆升。英偉新一代Vera Rubin GPU堪稱“算力巨
    的頭像 發表于 02-05 13:46 ?1410次閱讀

    英偉Rubin平臺引入微通道冷板技術,100%全液冷設計

    電子發燒友網報道(文/李彎彎)英偉在近期舉辦的 CES 2026 展會上,正式推出了其全新的 Vera Rubin 計算平臺。作為繼 Blackwell 架構之后的又一力作,Rubin
    的頭像 發表于 01-19 07:15 ?7679次閱讀

    邁向吉瓦級AI工廠的能源變革:英偉Rubin平臺電源架構解析

    轉變。英偉(NVIDIA)推出的Rubin平臺,作為Blackwell架構的繼任者,不僅是算力密度的又一次飛躍,更是對數據中心能源基礎設施的一次極限挑戰。
    的頭像 發表于 01-15 17:42 ?768次閱讀
    邁向吉瓦級AI工廠的能源變革:<b class='flag-5'>英偉</b><b class='flag-5'>達</b><b class='flag-5'>Rubin</b>平臺電源架構解析

    英偉重磅出手!AI 推理存儲全面覺醒

    電子發燒友網報道(文/黃晶晶)近日,有消息稱,英偉將以大約200億美元收購人工智能芯片初創公司Groq,這將是英偉迄今為止規模最大的一筆
    的頭像 發表于 12-26 08:44 ?1.1w次閱讀
    <b class='flag-5'>英偉</b><b class='flag-5'>達</b>重磅出手!AI <b class='flag-5'>推理</b>存儲全面覺醒

    英偉下一代Rubin芯片已流片

    繼8月底英偉透露Rubin架構芯片計劃明年量產后,當地時間9月8日的高盛技術會議上,英偉又談
    的頭像 發表于 09-12 17:15 ?1626次閱讀

    較GB300提升6.5英偉發布最強推理芯片系統

    行業芯事行業資訊
    電子發燒友網官方
    發布于 :2025年09月10日 16:21:41

    英偉自研HBM基礎裸片

    電子發燒友網綜合報道,據臺媒消息,傳聞英偉已開始開發自己的HBM基礎裸片,預計英偉的自研HBM基礎裸片采用3nm工藝制造,計劃在2027年下半年進行小批量試產。并且這一時間點大致對
    的頭像 發表于 08-21 08:16 ?2792次閱讀

    英偉GTC25亮點:NVIDIA Blackwell Ultra 開啟 AI 推理新時代

    英偉GTC25亮點:NVIDIA Blackwell Ultra 開啟 AI 推理新時代
    的頭像 發表于 03-20 15:35 ?1547次閱讀

    新思科技攜手英偉加速芯片設計,提升芯片電子設計自動化效率

    解決方案在英偉 GPU和英偉 CUDA-X庫上所實現的加速 基于英偉
    發表于 03-19 17:59 ?492次閱讀