国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

高通挑戰英偉達,發布768GB內存AI推理芯片,“出征”AI數據中心

Monika觀察 ? 來源:電子發燒友網 ? 作者:莫婷婷 ? 2025-10-29 10:36 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發燒友網報道(文/莫婷婷)隨著生成式AI應用的爆發式增長,數據中心對高效、低成本、低功耗AI推理能力的需求急劇上升。高通憑借其在移動計算和通信領域的技術積累,正試圖通過差異化戰略,在價值數千億美元的數據中心市場中搶占一席之地。

就在10月28日,高通面向數據中心連發兩款AI芯片,AI200 和 AI250 芯片,打造下一代 AI 推理優化解決方案。這一舉措不僅標志著高通在AI基礎設施領域的拓展,也被業內視為其對英偉達在AI數據中心市場發起挑戰的關鍵一步。

支持768 GB LPDDR,高通AI芯片性能、架構與能效全面突破

此次發布的AI200和AI250基于高通的Hexagon神經處理單元(NPU)技術,并針對大型語言模型(LLM)、多模態模型(LMM)及實時AI推理任務進行了深度優化,可實現快速數據中心生成式 AI 推理,預計分別將于2026年和2027年上市。

高通介紹,AI200 是機架級AI推理解決方案,主打高內存帶寬與低總擁有成本(TCO),旨在為大型語言和多模態模型(LLM、LMM)、推理和其他 AI 工作負載提供較低的TCO和優化的性能。

該芯片單卡支持高達768GB的LPDDR內存,遠超當前市場上主流競品。作為對比,英偉達H100 GPU單卡最大顯存為80GB HBM3,GB300每個GPU配備288GB HBM3e內存,不到AI200的一半;AMD MI300X也僅提供192GB HBM3內存。這意味著在處理超大規模模型時,AI200無需頻繁進行數據交換或模型切分,顯著提升了推理效率。

另一個值得關注的數據是,相較于HBM,LPDDR在制造成本上帶來的優勢。目前來看HBM的生產成本大約是LPDDR的2-3倍,這使得AI200能夠在保持高性能的同時,大幅降低單位算力的成本支出,適合需要長期運行、高吞吐量的云服務提供商和企業客戶。

在AI200是對現有市場精準打擊的同時,高通AI250則是一次顛覆性的技術創新。

AI250 引入了基于近內存計算的創新內存架構,這一設計提供超過 10 倍的有效內存帶寬和更低的功耗,對于AI推理這類高度依賴數據流動的任務而言,這意味著更低的延遲和更高的能效比。此外,AI250支持分解式AI推理,實現更靈活的資源調度與利用率優化,同時滿足客戶的性能和成本要求。

基于AI200 和 AI250 芯片的機架解決方案均具有直接液體冷卻以提高熱效率、用于縱向擴展的 PCIe、用于橫向擴展的以太網,支持160kW機架級功耗管理,滿足現代數據中心對可擴展性與熱管理的嚴苛要求。此外,二者均支持機密計算,確保敏感AI工作負載在執行過程中的數據安全。

高通在官方通告中,特別指出兩款產品都支持較低的總體擁有成本(TCO)。TCO指的是在設備采購、運維等整個生命周期需要投入的成本,已經成為客戶決策的關鍵指標之一,直面初創企業或新興市場等對預算敏感型客戶群體。

此外,AI數據中心產業對綠色AI和可持續算力的需求。在TCO中,電力成本占一半左右,已成為云服務商的支出大項。而高通強調“每瓦每美元”的性能指標,正好直擊產業痛點。

“借助高通 AI200 和 AI250,我們正在重新定義機架級 AI 推理的可能性。這些創新的新型人工智能基礎設施解決方案使客戶能夠以前所未有的總體擁有成本部署生成式人工智能,同時保持現代數據中心所需的靈活性和安全性”,高通技術公司邊緣解決方案和數據中心技術規劃高級副總裁兼總經理 Durga Malladi表示。

高通的戰略升級:以AI推理為核心向數據中心擴張

長期以來,高通被視為“智能手機芯片之王”,驍龍系列處理器幾乎定義了安卓旗艦手機的標準。然而,隨著智能手機市場趨于飽和,高通開始加速多元化布局,先后進入PC、汽車、工業等領域,就在今年2月,高通正式推出“躍龍”品牌,面向工業場景。如今,AI數據中心成為其下一個戰略高地。

從高通的通告中可以看到,面向AI數據中心,高通已經有著清晰的技術路線圖與商業化落地計劃。

高通已明確宣布,將每年推進一次數據中心AI芯片路線圖更新,持續迭代性能與能效。AI200計劃于2026年上市,AI250將于2027年量產,形成穩定的產品節奏。

在商業化進展方面,今年5月,高通宣布與沙特阿拉伯的Humain公司合作,為其新建的區域性AI數據中心提供AI推理芯片,該項目預計將部署最多可使用200兆瓦電力的系統,相當于一座中等城市全年數據中心的用電總量,能夠支撐數十萬臺服務器的AI運算能力。此次合作成為高通在國家級AI基建項目中獲得大規模訂單,具有象征意義。

開發者生態方面,為了打破生態的壁壘,高通在軟件層面也下足功夫。高通表示AI200和AI250配備了完整的高通AI軟件棧,兼容主流AI框架,并支持一鍵式模型部署。開發者無需重寫代碼即可將已訓練好的模型遷移至高通平臺,極大降低了采用門檻專為無摩擦采用和快速創新而設計。

高通AI芯片的發布,被視為其正式向英偉達所在的AI數據中心領域的統治地位發起挑戰的標志性開端。英偉達憑借其強大的CUDA生態、領先的GPU架構,且在AI訓練領域的先發優勢,在數據中心市場占據了超過90%的絕對主導地位,已成為全球主流云服務商和AI企業構建大模型訓練平臺的“標配”。

而生成式AI從訓練階段大規模轉向部署和推理應用,云天勵飛副總裁羅憶預計,國產大模型推理算力需求將在2026年超越訓練需求。因此AI推理芯片正逐漸成為AI領域的關鍵,這為后來者提供了錯位競爭的戰略窗口,而高通正是抓住了這一關鍵轉折點。

與英偉達以通用GPU為核心、兼顧訓練與推理的路線不同,高通選擇了專注AI推理賽道的差異化戰略,并非在英偉達最擅長的訓練戰場上正面硬剛,而是精準切入更具規模潛力的推理環節,基于高通在高吞吐、低延遲等技術的優勢,通過專用架構、能效優化和成本控制,構建起一條競爭路徑。

未來,在AI數據中心這片充滿機遇與挑戰的市場中,高通會有哪些表現,AI200與AI250芯片能否在2026年如期量產并順利導入主流企業中,又能否在軟件生態上贏得開發者的廣泛支持,都將成為關鍵。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    挑戰英偉發布768GB內存AI推理芯片,“出征AI數據中心

    億美元的數據中心市場中搶占一席之地。 ? 就在10月28日,通面向數據中心連發兩款AI芯片AI
    的頭像 發表于 10-29 09:14 ?5906次閱讀
    <b class='flag-5'>高</b>通<b class='flag-5'>挑戰</b><b class='flag-5'>英偉</b><b class='flag-5'>達</b>!<b class='flag-5'>發布</b><b class='flag-5'>768GB</b><b class='flag-5'>內存</b><b class='flag-5'>AI</b><b class='flag-5'>推理</b><b class='flag-5'>芯片</b>,“<b class='flag-5'>出征</b>”<b class='flag-5'>AI</b><b class='flag-5'>數據中心</b>

    堪稱史上最強推理芯片英偉發布 Rubin CPX,實現50倍ROI

    電子發燒友網報道(文/梁浩斌)近日,英偉AI infra峰會上發布了專為大規模上下文推理設計的全新GPU系列Rubin CPX,性能堪稱
    的頭像 發表于 09-11 08:25 ?9521次閱讀
    堪稱史上最強<b class='flag-5'>推理</b><b class='flag-5'>芯片</b>!<b class='flag-5'>英偉</b><b class='flag-5'>達</b><b class='flag-5'>發布</b> Rubin CPX,實現50倍ROI

    AI推理需求井噴!英偉Q1營收大漲,H20禁售難擋增長步伐

    報告,在全球加大AI基礎設施的浪潮下,英偉第一季度總體營收達到440.6億美元,較去年同期增長69%,高于市場預期的431億美元;凈利潤187.75億美元,同比去年增長26%。業績公布后,
    的頭像 發表于 05-31 01:13 ?7842次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>推理</b>需求井噴!<b class='flag-5'>英偉</b><b class='flag-5'>達</b>Q1營收大漲,H20禁售難擋增長步伐

    黃仁勛:英偉AI芯片訂單排到2026年 英偉上季營收加速增長62%再超預期

    AI芯片總龍頭英偉的財報終于帶來了驚喜;英偉公司發布
    的頭像 發表于 11-20 11:36 ?460次閱讀

    鑫澈導熱與屏蔽方案助力AI數據中心高效散熱

    隨著AI數據中心持續擴張,功率密度AI芯片帶來過量熱負荷與電磁干擾問題,散熱與電磁屏蔽已成為影響系統穩定與能效的核心
    的頭像 發表于 10-11 09:34 ?315次閱讀

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片到AGI芯片

    建立的基礎: ①算力支柱②數據支柱③計算支柱 1)算力 與AI算力有關的因素: ①晶體管數量②晶體管速度③芯片架構④芯片面積⑤制造工藝⑥芯片
    發表于 09-18 15:31

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片的需求和挑戰

    景嘉微電子、海光信息技術、上海復旦微電子、上海壁仞科技、上海燧原科技、上海天數智芯半導體、墨芯人工智能、沐曦集成電路等。 在介紹完這些云端數據中心AI芯片之后,還為我們介紹了邊緣AI
    發表于 09-12 16:07

    睿海光電以高效交付與廣泛兼容助力AI數據中心800G光模塊升級

    提供“數據高速通道”。 低延遲與可靠:通過信號完整性設計與超低功耗控制,減少數據中心能耗的同時,保障大規模AI訓練的穩定性。 前瞻布局:1.6T光模塊研發已啟動,為下一代1.6T
    發表于 08-13 19:01

    華為面向拉美地區發布全新星河AI數據中心網絡方案

    在華為數據通信創新峰會2025拉美站期間,以“星河AI數據中心網絡,賦AI時代新動能”為主題的分論壇上,華為面向拉美地區發布全新升級的星河
    的頭像 發表于 08-11 10:42 ?1793次閱讀

    安森美攜手英偉推動下一代AI數據中心發展

    安森美(onsemi,美國納斯達克股票代號:ON)宣布與英偉(NVIDIA)合作,共同推動向800V直流(VDC)供電架構轉型。這一變革性解決方案將推動下一代人工智能(AI數據中心
    的頭像 發表于 08-06 17:27 ?1097次閱讀

    繼HBM之后,英偉帶火又一AI內存模組!顛覆AI服務器與PC

    Attached Memory Module,即小型化壓縮附加內存模組,是英偉主導開發的一種新型內存模塊,是適用于數據中心
    的頭像 發表于 07-27 07:50 ?4228次閱讀

    適用于數據中心AI時代的800G網絡

    數據中心依賴數千甚至上萬個GPU集群進行高性能計算,對帶寬、延遲和數據交換效率提出極高要求。 AI云:以生成式AI為核心的云平臺,為多租戶環境提供
    發表于 03-25 17:35

    Cadence顛覆AI數據中心設計

    日前舉辦的英偉 GTC 2025 開發者大會匯聚了眾多行業精英,共同探討人工智能的未來。而人工智能正在重塑全球數據中心的格局。據預測,未來將有 1 萬億美元用于 AI 驅動的
    的頭像 發表于 03-21 15:43 ?805次閱讀

    英偉GTC25亮點:NVIDIA Blackwell Ultra 開啟 AI 推理新時代

    英偉GTC25亮點:NVIDIA Blackwell Ultra 開啟 AI 推理新時代
    的頭像 發表于 03-20 15:35 ?1178次閱讀

    英偉加速認證三星AI內存芯片

    近日,英偉公司正在積極推進對三星AI內存芯片的認證工作。據英偉
    的頭像 發表于 11-25 14:34 ?942次閱讀