伦伦影院久久影视,天天操天天干天天射,ririsao久久精品一区 ,一本大道香蕉大久在红桃,999久久久免费精品国产色夜,色悠悠久久综合88,亚洲国产精品久久无套麻豆,亚洲香蕉毛片久久网站,一本一道久久综合狠狠老

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

高通挑戰英偉達,發布768GB內存AI推理芯片,“出征”AI數據中心

Monika觀察 ? 來源:電子發燒友網 ? 作者:莫婷婷 ? 2025-10-29 10:36 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發燒友網報道(文/莫婷婷)隨著生成式AI應用的爆發式增長,數據中心對高效、低成本、低功耗AI推理能力的需求急劇上升。高通憑借其在移動計算和通信領域的技術積累,正試圖通過差異化戰略,在價值數千億美元的數據中心市場中搶占一席之地。

就在10月28日,高通面向數據中心連發兩款AI芯片,AI200 和 AI250 芯片,打造下一代 AI 推理優化解決方案。這一舉措不僅標志著高通在AI基礎設施領域的拓展,也被業內視為其對英偉達在AI數據中心市場發起挑戰的關鍵一步。

支持768 GB LPDDR,高通AI芯片性能、架構與能效全面突破

此次發布的AI200和AI250基于高通的Hexagon神經處理單元(NPU)技術,并針對大型語言模型(LLM)、多模態模型(LMM)及實時AI推理任務進行了深度優化,可實現快速數據中心生成式 AI 推理,預計分別將于2026年和2027年上市。

高通介紹,AI200 是機架級AI推理解決方案,主打高內存帶寬與低總擁有成本(TCO),旨在為大型語言和多模態模型(LLM、LMM)、推理和其他 AI 工作負載提供較低的TCO和優化的性能。

該芯片單卡支持高達768GB的LPDDR內存,遠超當前市場上主流競品。作為對比,英偉達H100 GPU單卡最大顯存為80GB HBM3,GB300每個GPU配備288GB HBM3e內存,不到AI200的一半;AMD MI300X也僅提供192GB HBM3內存。這意味著在處理超大規模模型時,AI200無需頻繁進行數據交換或模型切分,顯著提升了推理效率。

另一個值得關注的數據是,相較于HBM,LPDDR在制造成本上帶來的優勢。目前來看HBM的生產成本大約是LPDDR的2-3倍,這使得AI200能夠在保持高性能的同時,大幅降低單位算力的成本支出,適合需要長期運行、高吞吐量的云服務提供商和企業客戶。

在AI200是對現有市場精準打擊的同時,高通AI250則是一次顛覆性的技術創新。

AI250 引入了基于近內存計算的創新內存架構,這一設計提供超過 10 倍的有效內存帶寬和更低的功耗,對于AI推理這類高度依賴數據流動的任務而言,這意味著更低的延遲和更高的能效比。此外,AI250支持分解式AI推理,實現更靈活的資源調度與利用率優化,同時滿足客戶的性能和成本要求。

基于AI200 和 AI250 芯片的機架解決方案均具有直接液體冷卻以提高熱效率、用于縱向擴展的 PCIe、用于橫向擴展的以太網,支持160kW機架級功耗管理,滿足現代數據中心對可擴展性與熱管理的嚴苛要求。此外,二者均支持機密計算,確保敏感AI工作負載在執行過程中的數據安全。

高通在官方通告中,特別指出兩款產品都支持較低的總體擁有成本(TCO)。TCO指的是在設備采購、運維等整個生命周期需要投入的成本,已經成為客戶決策的關鍵指標之一,直面初創企業或新興市場等對預算敏感型客戶群體。

此外,AI數據中心產業對綠色AI和可持續算力的需求。在TCO中,電力成本占一半左右,已成為云服務商的支出大項。而高通強調“每瓦每美元”的性能指標,正好直擊產業痛點。

“借助高通 AI200 和 AI250,我們正在重新定義機架級 AI 推理的可能性。這些創新的新型人工智能基礎設施解決方案使客戶能夠以前所未有的總體擁有成本部署生成式人工智能,同時保持現代數據中心所需的靈活性和安全性”,高通技術公司邊緣解決方案和數據中心技術規劃高級副總裁兼總經理 Durga Malladi表示。

高通的戰略升級:以AI推理為核心向數據中心擴張

長期以來,高通被視為“智能手機芯片之王”,驍龍系列處理器幾乎定義了安卓旗艦手機的標準。然而,隨著智能手機市場趨于飽和,高通開始加速多元化布局,先后進入PC、汽車、工業等領域,就在今年2月,高通正式推出“躍龍”品牌,面向工業場景。如今,AI數據中心成為其下一個戰略高地。

從高通的通告中可以看到,面向AI數據中心,高通已經有著清晰的技術路線圖與商業化落地計劃。

高通已明確宣布,將每年推進一次數據中心AI芯片路線圖更新,持續迭代性能與能效。AI200計劃于2026年上市,AI250將于2027年量產,形成穩定的產品節奏。

在商業化進展方面,今年5月,高通宣布與沙特阿拉伯的Humain公司合作,為其新建的區域性AI數據中心提供AI推理芯片,該項目預計將部署最多可使用200兆瓦電力的系統,相當于一座中等城市全年數據中心的用電總量,能夠支撐數十萬臺服務器的AI運算能力。此次合作成為高通在國家級AI基建項目中獲得大規模訂單,具有象征意義。

開發者生態方面,為了打破生態的壁壘,高通在軟件層面也下足功夫。高通表示AI200和AI250配備了完整的高通AI軟件棧,兼容主流AI框架,并支持一鍵式模型部署。開發者無需重寫代碼即可將已訓練好的模型遷移至高通平臺,極大降低了采用門檻專為無摩擦采用和快速創新而設計。

高通AI芯片的發布,被視為其正式向英偉達所在的AI數據中心領域的統治地位發起挑戰的標志性開端。英偉達憑借其強大的CUDA生態、領先的GPU架構,且在AI訓練領域的先發優勢,在數據中心市場占據了超過90%的絕對主導地位,已成為全球主流云服務商和AI企業構建大模型訓練平臺的“標配”。

而生成式AI從訓練階段大規模轉向部署和推理應用,云天勵飛副總裁羅憶預計,國產大模型推理算力需求將在2026年超越訓練需求。因此AI推理芯片正逐漸成為AI領域的關鍵,這為后來者提供了錯位競爭的戰略窗口,而高通正是抓住了這一關鍵轉折點。

與英偉達以通用GPU為核心、兼顧訓練與推理的路線不同,高通選擇了專注AI推理賽道的差異化戰略,并非在英偉達最擅長的訓練戰場上正面硬剛,而是精準切入更具規模潛力的推理環節,基于高通在高吞吐、低延遲等技術的優勢,通過專用架構、能效優化和成本控制,構建起一條競爭路徑。

未來,在AI數據中心這片充滿機遇與挑戰的市場中,高通會有哪些表現,AI200與AI250芯片能否在2026年如期量產并順利導入主流企業中,又能否在軟件生態上贏得開發者的廣泛支持,都將成為關鍵。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    數據中心缺電,英偉又有新動作!

    電子發燒友網報道(文/李彎彎)近日,英偉宣布將舉辦一場私人峰會,邀請聚焦數據中心電力問題的初創公司參會,共同應對可能阻礙人工智能發展的電力難題。當下,大模型訓練與推理對算力的需求呈指
    的頭像 發表于 12-14 00:06 ?1.3w次閱讀
    <b class='flag-5'>數據中心</b>缺電,<b class='flag-5'>英偉</b><b class='flag-5'>達</b>又有新動作!

    挑戰英偉發布768GB內存AI推理芯片,“出征AI數據中心

    億美元的數據中心市場中搶占一席之地。 ? 就在10月28日,通面向數據中心連發兩款AI芯片AI
    的頭像 發表于 10-29 09:14 ?6590次閱讀
    <b class='flag-5'>高</b>通<b class='flag-5'>挑戰</b><b class='flag-5'>英偉</b><b class='flag-5'>達</b>!<b class='flag-5'>發布</b><b class='flag-5'>768GB</b><b class='flag-5'>內存</b><b class='flag-5'>AI</b><b class='flag-5'>推理</b><b class='flag-5'>芯片</b>,“<b class='flag-5'>出征</b>”<b class='flag-5'>AI</b><b class='flag-5'>數據中心</b>

    堪稱史上最強推理芯片英偉發布 Rubin CPX,實現50倍ROI

    電子發燒友網報道(文/梁浩斌)近日,英偉AI infra峰會上發布了專為大規模上下文推理設計的全新GPU系列Rubin CPX,性能堪稱
    的頭像 發表于 09-11 08:25 ?1.1w次閱讀
    堪稱史上最強<b class='flag-5'>推理</b><b class='flag-5'>芯片</b>!<b class='flag-5'>英偉</b><b class='flag-5'>達</b><b class='flag-5'>發布</b> Rubin CPX,實現50倍ROI

    邊緣AI算力臨界點:深度解析176TOPS香橙派AI Station的產業價值

    ” 。 隨著DeepSeek、LLaMA等開源模型的輕量化演進,以及具身智能、工業質檢對實時性的嚴苛要求,AI計算正在從云數據中心擴散到離數據源頭最近的物理世界。在這一背景下,AI M
    發表于 03-10 14:19

    英偉電話會看Agentic AI推理與FPGA價值

    2026年2月,英偉發布2026財年Q4財報:營收681億美元,同比增長73%,數據中心業務增長75%——預期中的超預期。更值得關注的,是電話會中反復出現的幾個關鍵詞:Agentic
    的頭像 發表于 03-04 17:07 ?1169次閱讀
    從<b class='flag-5'>英偉</b><b class='flag-5'>達</b>電話會看Agentic <b class='flag-5'>AI</b><b class='flag-5'>推理</b>與FPGA價值

    AI數據中心,正在將光纖產業帶入新的時代

    電子發燒友網報道(文/梁浩斌)數據中心的投資仍有非常大的預期,今年年初,英偉管多次釋放樂觀信號,表示英偉
    的頭像 發表于 02-11 09:35 ?1.1w次閱讀

    LPDDR5X在AI數據中心多能打?10.7Gbps速率、互連快7倍、推理吞吐5倍、延遲低80%!

    作者:黃晶晶 ? LPDDR5X具有帶寬、低功耗、高容量密度等特性,可用于AI推理等對能效和成本有嚴苛要求的場景。科技大廠例如英偉
    的頭像 發表于 01-27 09:35 ?6208次閱讀
    LPDDR5X在<b class='flag-5'>AI</b><b class='flag-5'>數據中心</b>多能打?10.7Gbps速率、互連快7倍、<b class='flag-5'>推理</b>吞吐<b class='flag-5'>高</b>5倍、延遲低80%!

    邁向吉瓦級AI工廠的能源變革:英偉Rubin平臺電源架構解析

    轉變。英偉(NVIDIA)推出的Rubin平臺,作為Blackwell架構的繼任者,不僅是算力密度的又一次飛躍,更是對數據中心能源基礎設施的一次極限挑戰
    的頭像 發表于 01-15 17:42 ?879次閱讀
    邁向吉瓦級<b class='flag-5'>AI</b>工廠的能源變革:<b class='flag-5'>英偉</b><b class='flag-5'>達</b>Rubin平臺電源架構解析

    英偉重磅出手!AI 推理存儲全面覺醒

    電子發燒友網報道(文/黃晶晶)近日,有消息稱,英偉將以大約200億美元收購人工智能芯片初創公司Groq,這將是英偉迄今為止規模最大的一筆
    的頭像 發表于 12-26 08:44 ?1.2w次閱讀
    <b class='flag-5'>英偉</b><b class='flag-5'>達</b>重磅出手!<b class='flag-5'>AI</b> <b class='flag-5'>推理</b>存儲全面覺醒

    黃仁勛:英偉AI芯片訂單排到2026年 英偉上季營收加速增長62%再超預期

    AI芯片總龍頭英偉的財報終于帶來了驚喜;英偉公司發布
    的頭像 發表于 11-20 11:36 ?1338次閱讀

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片到AGI芯片

    建立的基礎: ①算力支柱②數據支柱③計算支柱 1)算力 與AI算力有關的因素: ①晶體管數量②晶體管速度③芯片架構④芯片面積⑤制造工藝⑥芯片
    發表于 09-18 15:31

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片的需求和挑戰

    景嘉微電子、海光信息技術、上海復旦微電子、上海壁仞科技、上海燧原科技、上海天數智芯半導體、墨芯人工智能、沐曦集成電路等。 在介紹完這些云端數據中心AI芯片之后,還為我們介紹了邊緣AI
    發表于 09-12 16:07

    睿海光電以高效交付與廣泛兼容助力AI數據中心800G光模塊升級

    提供“數據高速通道”。 低延遲與可靠:通過信號完整性設計與超低功耗控制,減少數據中心能耗的同時,保障大規模AI訓練的穩定性。 前瞻布局:1.6T光模塊研發已啟動,為下一代1.6T
    發表于 08-13 19:01

    安森美攜手英偉推動下一代AI數據中心發展

    安森美(onsemi,美國納斯達克股票代號:ON)宣布與英偉(NVIDIA)合作,共同推動向800V直流(VDC)供電架構轉型。這一變革性解決方案將推動下一代人工智能(AI數據中心
    的頭像 發表于 08-06 17:27 ?1589次閱讀

    繼HBM之后,英偉帶火又一AI內存模組!顛覆AI服務器與PC

    Attached Memory Module,即小型化壓縮附加內存模組,是英偉主導開發的一種新型內存模塊,是適用于數據中心
    的頭像 發表于 07-27 07:50 ?4912次閱讀