電子發燒友網報道(文/李彎彎)全球算力基建敘事生變,正從GPU時代邁向連接為王的通信時代。算力Scaling-law邊際效益放緩,芯片間連接通信成系統算力釋放的核心瓶頸,光互聯逐漸替代銅連接,成為構建高性能AI網絡的關鍵。
近期阿里、騰訊均推出NPO(近封裝光學)重大成果,其中阿里云全光Scale-up網絡架構UPN512通過光互連直接連接xPU與交換機,采用單層CLOS拓撲實現512顆xPU的全互聯,該方案徹底消除機柜內高速銅纜,顯著降低布線復雜度、散熱負擔、供電需求及運維成本,功耗降低50%,成本下降30%。
近封裝光學NPO技術優勢
首先我們來看看什么是NPO及其優勢。中國移動云能力中心此前發布過一份《云智算光互連發展報告》,該報告介紹,NPO的核心思想是,將光引擎非常靠近電芯片放置,但并不像CPO那樣與電芯片共封裝在同一基板或中介層上。它通常將光引擎安裝在同一基板上,通過極短的高性能電氣鏈路與電芯片相連,形成一個高度集成的系統,如下圖所示。
NPO將光引擎與電芯片物理分離,避免了電芯片的高溫熱量直接沖擊光器件,散熱設計更簡單、高效。由于電芯片本身是巨大的熱源,工作時溫度很高,而激光器等光器件對溫度極其敏感,所以,光引擎與電芯片共封裝會導致波長漂移和性能下降。同時,由于光引擎未與電芯片共封裝,NPO在可維護性層面具有優勢,如果光引擎失效,只需更換光引擎子模塊即可,避免了大量的維護成本。
相比激進的CPO技術,NPO技術是一種更務實、風險更低的路徑。并且,NPO與傳統光模塊相比,其性能遠超傳統光模塊,其主要優勢包括以下幾點:
lNPO的光引擎擁有更大的可布置面積和更靈活的走線方案,可以方便地使用LGA封裝,且有利于光引擎散熱;
lNPO不影響電芯片原有設計,只對PCB或基板做差異設計即可滿 足不同需求;
lNPO與電芯片解耦,能夠避免形成電芯片壟斷問題;
lNPO可單獨測試 TP1 的電信號質量,可歸一化設備的驅動與固件,可測試性更好。
產業界正在形成共識,未來光互聯由Scale-up、Scale-out、Scale-across等多元網絡連接場景共同驅動,各技術路線長期共存、并行發展。
Scale-Up 即垂直擴展,通過向單個節點添加更多硬件提升處理能力。在 AI 大模型訓練里,它借助高速互聯技術將單個節點多塊 GPU 緊密相連,形成有超大共享顯存池的“超級節點”,讓單個模型能在統一顯存空間高效訓練,無需跨節點通信,是解決“內存墻”瓶頸的關鍵。
Scale-Out 是水平擴展,通過增加節點組成集群提升整體處理能力。當單個“超級節點”算力不夠時,將成百上千個節點用高速網絡連接成龐大計算集群,讓模型訓練任務可并行分布在眾多 GPU 上。
Scale-Across(跨區域擴展)是應對超大規模 AI 計算需求提出的“第三大支柱”范式。隨著 AI 模型對算力需求爆炸式增長,單個數據中心在電力、散熱、空間上接近極限,Scale-Across 便是將不同城市、國家甚至大洲的多個數據中心用高速網絡連接,形成協同工作的“超級巨型工廠”。
隨著AI大模型向千億、萬億參數規模突破,訓練與推理場景的高并發數據傳輸需求呈指數級增長,Scaleup網絡作為支撐算力高效釋放的核心基礎設施,規模也在迅速擴大。目前,Scale out層面可插拔光模塊仍是首選,Scale up層面作為新興光模塊市場,技術高速迭代,NPO、CPO 等方案同步演進。
全球首款3.2T NPO模塊成功點亮
2025年10月,阿里云正式發布UPN512全光Scale-up架構白皮書,提出基于單層以太網光互連的全新設計,旨在打造“大規模、高性能、高可靠、低成本、易擴展”的xPU互聯系統。
UPN512通過光互連直接連接xPU與交換機,采用單層CLOS拓撲實現512顆xPU全互聯,還為擴展至1K +節點預留架構空間。此方案消除機柜內高速銅纜,大幅降低布線復雜度、散熱負擔、供電需求及運維成本。
NPO是UPN512架構的核心使能技術。它將光電引擎靠近主芯片部署,采用線性直驅技術,省去傳統DSP芯片,實現功耗降低50%以上、成本下降30%、端到端時延與銅互連相當,且供應鏈更安全可控。與LPO相比,NPO帶寬密度更高,對主芯片SerDes性能要求更低;和CPO相比,NPO采用標準LGA連接器,保持光模塊開放解耦特性,更易被用戶采納。
阿里云從3.2T NPO切入研發,基于OIF標準封裝,在22.5mm×35.1mm尺寸內實現3.2Tb/s傳輸帶寬。通過標準LGA連接器,光引擎與主芯片物理和電氣解耦,延續開放生態。該模塊支持硅光與VCSEL兩種技術路線,適配不同場景。
近日,阿里云宣布全球首款基于OIF標準封裝的3.2T NPO模塊成功點亮,標志著全光Scale-up進入工程落地新階段。該模塊基于兩顆16通道收發一體硅光芯片,搭配線性直驅Driver/TIA芯片,采用2D封裝工藝,具備快速量產潛力。其關鍵性能指標優異:發送端光眼圖性能好,符合IEEE 802.3bs DR4標準,可與傳統帶DSP的DR4光模塊無縫互通;接收端在1E - 6誤碼率下,所有通道靈敏度優于 - 5dBm;典型功耗約20W,低于同帶寬DSP方案。
阿里云將3.2T NPO技術率先應用于新一代國產四芯片交換機。該設備單機集成4顆25.6T國產交換芯片,總交換容量達102.4T,可平滑演進至409.6T平臺。目前,該交換機已完成整機上電與核心功能驗證,進入長期可靠性測試階段。
寫在最后
在算力需求持續增長的當下,全球算力基建正經歷深刻變革。算力中心多元網絡連接場景驅動光互連技術發展。從目前的情況來看,可插拔光模塊在未來幾年仍是需求主力;NPO/CPO 在柜內全光連接領域加速滲透,CPO進展超預期。此前市場對NPO較少關注,隨著近期阿里云、騰訊在NPO方面的動作和進展,其技術優勢想必會更多的被業界關注。整體來看,光互連行業市場空間將持續擴大。
近期阿里、騰訊均推出NPO(近封裝光學)重大成果,其中阿里云全光Scale-up網絡架構UPN512通過光互連直接連接xPU與交換機,采用單層CLOS拓撲實現512顆xPU的全互聯,該方案徹底消除機柜內高速銅纜,顯著降低布線復雜度、散熱負擔、供電需求及運維成本,功耗降低50%,成本下降30%。
近封裝光學NPO技術優勢
首先我們來看看什么是NPO及其優勢。中國移動云能力中心此前發布過一份《云智算光互連發展報告》,該報告介紹,NPO的核心思想是,將光引擎非常靠近電芯片放置,但并不像CPO那樣與電芯片共封裝在同一基板或中介層上。它通常將光引擎安裝在同一基板上,通過極短的高性能電氣鏈路與電芯片相連,形成一個高度集成的系統,如下圖所示。

NPO將光引擎與電芯片物理分離,避免了電芯片的高溫熱量直接沖擊光器件,散熱設計更簡單、高效。由于電芯片本身是巨大的熱源,工作時溫度很高,而激光器等光器件對溫度極其敏感,所以,光引擎與電芯片共封裝會導致波長漂移和性能下降。同時,由于光引擎未與電芯片共封裝,NPO在可維護性層面具有優勢,如果光引擎失效,只需更換光引擎子模塊即可,避免了大量的維護成本。
相比激進的CPO技術,NPO技術是一種更務實、風險更低的路徑。并且,NPO與傳統光模塊相比,其性能遠超傳統光模塊,其主要優勢包括以下幾點:
lNPO的光引擎擁有更大的可布置面積和更靈活的走線方案,可以方便地使用LGA封裝,且有利于光引擎散熱;
lNPO不影響電芯片原有設計,只對PCB或基板做差異設計即可滿 足不同需求;
lNPO與電芯片解耦,能夠避免形成電芯片壟斷問題;
lNPO可單獨測試 TP1 的電信號質量,可歸一化設備的驅動與固件,可測試性更好。
產業界正在形成共識,未來光互聯由Scale-up、Scale-out、Scale-across等多元網絡連接場景共同驅動,各技術路線長期共存、并行發展。
Scale-Up 即垂直擴展,通過向單個節點添加更多硬件提升處理能力。在 AI 大模型訓練里,它借助高速互聯技術將單個節點多塊 GPU 緊密相連,形成有超大共享顯存池的“超級節點”,讓單個模型能在統一顯存空間高效訓練,無需跨節點通信,是解決“內存墻”瓶頸的關鍵。
Scale-Out 是水平擴展,通過增加節點組成集群提升整體處理能力。當單個“超級節點”算力不夠時,將成百上千個節點用高速網絡連接成龐大計算集群,讓模型訓練任務可并行分布在眾多 GPU 上。

Scale-Across(跨區域擴展)是應對超大規模 AI 計算需求提出的“第三大支柱”范式。隨著 AI 模型對算力需求爆炸式增長,單個數據中心在電力、散熱、空間上接近極限,Scale-Across 便是將不同城市、國家甚至大洲的多個數據中心用高速網絡連接,形成協同工作的“超級巨型工廠”。
隨著AI大模型向千億、萬億參數規模突破,訓練與推理場景的高并發數據傳輸需求呈指數級增長,Scaleup網絡作為支撐算力高效釋放的核心基礎設施,規模也在迅速擴大。目前,Scale out層面可插拔光模塊仍是首選,Scale up層面作為新興光模塊市場,技術高速迭代,NPO、CPO 等方案同步演進。
全球首款3.2T NPO模塊成功點亮
2025年10月,阿里云正式發布UPN512全光Scale-up架構白皮書,提出基于單層以太網光互連的全新設計,旨在打造“大規模、高性能、高可靠、低成本、易擴展”的xPU互聯系統。
UPN512通過光互連直接連接xPU與交換機,采用單層CLOS拓撲實現512顆xPU全互聯,還為擴展至1K +節點預留架構空間。此方案消除機柜內高速銅纜,大幅降低布線復雜度、散熱負擔、供電需求及運維成本。
NPO是UPN512架構的核心使能技術。它將光電引擎靠近主芯片部署,采用線性直驅技術,省去傳統DSP芯片,實現功耗降低50%以上、成本下降30%、端到端時延與銅互連相當,且供應鏈更安全可控。與LPO相比,NPO帶寬密度更高,對主芯片SerDes性能要求更低;和CPO相比,NPO采用標準LGA連接器,保持光模塊開放解耦特性,更易被用戶采納。
阿里云從3.2T NPO切入研發,基于OIF標準封裝,在22.5mm×35.1mm尺寸內實現3.2Tb/s傳輸帶寬。通過標準LGA連接器,光引擎與主芯片物理和電氣解耦,延續開放生態。該模塊支持硅光與VCSEL兩種技術路線,適配不同場景。
近日,阿里云宣布全球首款基于OIF標準封裝的3.2T NPO模塊成功點亮,標志著全光Scale-up進入工程落地新階段。該模塊基于兩顆16通道收發一體硅光芯片,搭配線性直驅Driver/TIA芯片,采用2D封裝工藝,具備快速量產潛力。其關鍵性能指標優異:發送端光眼圖性能好,符合IEEE 802.3bs DR4標準,可與傳統帶DSP的DR4光模塊無縫互通;接收端在1E - 6誤碼率下,所有通道靈敏度優于 - 5dBm;典型功耗約20W,低于同帶寬DSP方案。
阿里云將3.2T NPO技術率先應用于新一代國產四芯片交換機。該設備單機集成4顆25.6T國產交換芯片,總交換容量達102.4T,可平滑演進至409.6T平臺。目前,該交換機已完成整機上電與核心功能驗證,進入長期可靠性測試階段。
寫在最后
在算力需求持續增長的當下,全球算力基建正經歷深刻變革。算力中心多元網絡連接場景驅動光互連技術發展。從目前的情況來看,可插拔光模塊在未來幾年仍是需求主力;NPO/CPO 在柜內全光連接領域加速滲透,CPO進展超預期。此前市場對NPO較少關注,隨著近期阿里云、騰訊在NPO方面的動作和進展,其技術優勢想必會更多的被業界關注。整體來看,光互連行業市場空間將持續擴大。
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。
舉報投訴
-
阿里云
+關注
關注
3文章
1038瀏覽量
45688 -
AI算力
+關注
關注
1文章
143瀏覽量
9856
發布評論請先 登錄
相關推薦
熱點推薦
時延小于1毫秒,工信部發布全光算力網絡重磅利好政策
信號傳輸物理瓶頸限制,存在時延高、帶寬不足、擴展性差等問題,難以支撐未來百萬卡級智算集群的規模化部署。在此形勢下,光通信技術憑借超低時延、超大帶寬和協議透明性等優勢,成為突破算
如何突破AI存儲墻?深度解析ONFI 6.0高速接口與Chiplet解耦架構
1. 行業核心痛點:AI“存儲墻”危機在大模型訓練與推理場景中,算力演進速度遠超存儲帶寬,計算與存儲之間的性能鴻溝(存儲墻)已成為限制系統能效的關鍵瓶頸。? Scale-up需求:單節
發表于 01-29 17:32
400G QSFP-DD SR4 光模塊:構筑 AI 智算網絡的高速光互聯核心
在數字化轉型與 AI 算力需求爆發的疊加驅動下,400G QSFP-DD SR4 光模塊憑借短距高效傳輸特性與全場景適配能力,已成為數據中心、云
睿海光電800G光模塊助力全球AI基建升級
在全球數字化轉型加速的背景下,超高速光模塊作為數據中心與AI算力網絡的核心部件,正經歷從400G向800G、1.6T的迭代浪潮。在這一賽道中,深圳市睿海光電科技有限公司(以下簡稱“睿海
發表于 08-13 19:05
睿海光電領航AI光模塊:超快交付與全場景兼容賦能智算時代——以創新實力助力全球客戶構建高效算力底座
一、AI算力革命催生光模塊新需求,睿海光電以技術優勢搶占制高點
人工智能、超大規模數據中心和云計算的高速發展,對光模塊的傳輸效率、兼容性及交付周期提出更高要求。作為全球
發表于 08-13 19:03
加速AI未來,睿海光電800G OSFP光模塊重構數據中心互聯標準
在人工智能算力需求呈指數級增長的2025年,數據傳輸效率已成為制約AI發展的關鍵瓶頸。作為全球AI光
發表于 08-13 16:38
AI原生架構升級:RAKsmart服務器在超大規模模型訓練中的算力突破
近年來,隨著千億級參數模型的崛起,AI訓練對算力的需求呈現指數級增長。傳統服務器架構在應對分布式訓練、高并發計算和顯存優化等場景時逐漸顯露瓶頸
RAKsmart智能算力架構:異構計算+低時延網絡驅動企業AI訓練范式升級
在AI大模型參數量突破萬億、多模態應用爆發的今天,企業AI訓練正面臨算力效率與成本的雙重挑戰。RAKsmart推出的智能
華為助力中國移動全面升級“九州”算力互聯網
在中國移動云智算大會期間,以“智算啟新,安全筑基“為主題的智算基礎設施及安全峰會成功舉辦。會上,中國移動聯合華為等重磅發布了《“九州”算
廣和通亮相阿里云AI創造力大展
4月9日-12日,2025 AI“巨”場· 中國AI創造力大展在北京首創·郎園Station盛大啟幕。作為阿里云的重要合作伙伴,廣和通攜融合
阿里云全光互聯架構,突破AI算力瓶頸
評論