電子發燒友網報道(文/莫婷婷)隨著生成式AI應用的爆發式增長,數據中心對高效、低成本、低功耗AI推理能力的需求急劇上升。高通憑借其在移動計算和通信領域的技術積累,正試圖通過差異化戰略,在價值數千億美元的數據中心市場中搶占一席之地。
就在10月28日,高通面向數據中心連發兩款AI芯片,AI200 和 AI250 芯片,打造下一代 AI 推理優化解決方案。這一舉措不僅標志著高通在AI基礎設施領域的拓展,也被業內視為其對英偉達在AI數據中心市場發起挑戰的關鍵一步。

支持768 GB LPDDR,高通AI芯片性能、架構與能效全面突破
此次發布的AI200和AI250基于高通的Hexagon神經處理單元(NPU)技術,并針對大型語言模型(LLM)、多模態模型(LMM)及實時AI推理任務進行了深度優化,可實現快速數據中心生成式 AI 推理,預計分別將于2026年和2027年上市。
高通介紹,AI200 是機架級AI推理解決方案,主打高內存帶寬與低總擁有成本(TCO),旨在為大型語言和多模態模型(LLM、LMM)、推理和其他 AI 工作負載提供較低的TCO和優化的性能。
該芯片單卡支持高達768GB的LPDDR內存,遠超當前市場上主流競品。作為對比,英偉達H100 GPU單卡最大顯存為80GB HBM3,GB300每個GPU配備288GB HBM3e內存,不到AI200的一半;AMD MI300X也僅提供192GB HBM3內存。這意味著在處理超大規模模型時,AI200無需頻繁進行數據交換或模型切分,顯著提升了推理效率。
另一個值得關注的數據是,相較于HBM,LPDDR在制造成本上帶來的優勢。目前來看HBM的生產成本大約是LPDDR的2-3倍,這使得AI200能夠在保持高性能的同時,大幅降低單位算力的成本支出,適合需要長期運行、高吞吐量的云服務提供商和企業客戶。
在AI200是對現有市場精準打擊的同時,高通AI250則是一次顛覆性的技術創新。
AI250 引入了基于近內存計算的創新內存架構,這一設計提供超過 10 倍的有效內存帶寬和更低的功耗,對于AI推理這類高度依賴數據流動的任務而言,這意味著更低的延遲和更高的能效比。此外,AI250支持分解式AI推理,實現更靈活的資源調度與利用率優化,同時滿足客戶的性能和成本要求。
基于AI200 和 AI250 芯片的機架解決方案均具有直接液體冷卻以提高熱效率、用于縱向擴展的 PCIe、用于橫向擴展的以太網,支持160kW機架級功耗管理,滿足現代數據中心對可擴展性與熱管理的嚴苛要求。此外,二者均支持機密計算,確保敏感AI工作負載在執行過程中的數據安全。
高通在官方通告中,特別指出兩款產品都支持較低的總體擁有成本(TCO)。TCO指的是在設備采購、運維等整個生命周期需要投入的成本,已經成為客戶決策的關鍵指標之一,直面初創企業或新興市場等對預算敏感型客戶群體。
此外,AI數據中心產業對綠色AI和可持續算力的需求。在TCO中,電力成本占一半左右,已成為云服務商的支出大項。而高通強調“每瓦每美元”的性能指標,正好直擊產業痛點。
“借助高通 AI200 和 AI250,我們正在重新定義機架級 AI 推理的可能性。這些創新的新型人工智能基礎設施解決方案使客戶能夠以前所未有的總體擁有成本部署生成式人工智能,同時保持現代數據中心所需的靈活性和安全性”,高通技術公司邊緣解決方案和數據中心技術規劃高級副總裁兼總經理 Durga Malladi表示。
高通的戰略升級:以AI推理為核心向數據中心擴張
長期以來,高通被視為“智能手機芯片之王”,驍龍系列處理器幾乎定義了安卓旗艦手機的標準。然而,隨著智能手機市場趨于飽和,高通開始加速多元化布局,先后進入PC、汽車、工業等領域,就在今年2月,高通正式推出“躍龍”品牌,面向工業場景。如今,AI數據中心成為其下一個戰略高地。
從高通的通告中可以看到,面向AI數據中心,高通已經有著清晰的技術路線圖與商業化落地計劃。
高通已明確宣布,將每年推進一次數據中心AI芯片路線圖更新,持續迭代性能與能效。AI200計劃于2026年上市,AI250將于2027年量產,形成穩定的產品節奏。
在商業化進展方面,今年5月,高通宣布與沙特阿拉伯的Humain公司合作,為其新建的區域性AI數據中心提供AI推理芯片,該項目預計將部署最多可使用200兆瓦電力的系統,相當于一座中等城市全年數據中心的用電總量,能夠支撐數十萬臺服務器的AI運算能力。此次合作成為高通在國家級AI基建項目中獲得大規模訂單,具有象征意義。
在開發者生態方面,為了打破生態的壁壘,高通在軟件層面也下足功夫。高通表示AI200和AI250配備了完整的高通AI軟件棧,兼容主流AI框架,并支持一鍵式模型部署。開發者無需重寫代碼即可將已訓練好的模型遷移至高通平臺,極大降低了采用門檻專為無摩擦采用和快速創新而設計。
高通AI芯片的發布,被視為其正式向英偉達所在的AI數據中心領域的統治地位發起挑戰的標志性開端。英偉達憑借其強大的CUDA生態、領先的GPU架構,且在AI訓練領域的先發優勢,在數據中心市場占據了超過90%的絕對主導地位,已成為全球主流云服務商和AI企業構建大模型訓練平臺的“標配”。
而生成式AI從訓練階段大規模轉向部署和推理應用,云天勵飛副總裁羅憶預計,國產大模型推理算力需求將在2026年超越訓練需求。因此AI推理芯片正逐漸成為AI領域的關鍵,這為后來者提供了錯位競爭的戰略窗口,而高通正是抓住了這一關鍵轉折點。
與英偉達以通用GPU為核心、兼顧訓練與推理的路線不同,高通選擇了專注AI推理賽道的差異化戰略,并非在英偉達最擅長的訓練戰場上正面硬剛,而是精準切入更具規模潛力的推理環節,基于高通在高吞吐、低延遲等技術的優勢,通過專用架構、能效優化和成本控制,構建起一條競爭路徑。
未來,在AI數據中心這片充滿機遇與挑戰的市場中,高通會有哪些表現,AI200與AI250芯片能否在2026年如期量產并順利導入主流企業中,又能否在軟件生態上贏得開發者的廣泛支持,都將成為關鍵。
發布評論請先 登錄
堪稱史上最強推理芯片!英偉達發布 Rubin CPX,實現50倍ROI
AI推理需求井噴!英偉達Q1營收大漲,H20禁售難擋增長步伐

高通挑戰英偉達,發布768GB內存AI推理芯片,“出征”AI數據中心
評論