国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

數據中心AI芯片上升趨勢能夠持續多久呢?

SDNLAB ? 來源:SDNLAB ? 2024-01-24 16:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

2024年很有可能成為AI芯片的元年。

有預測稱,今年AI芯片可能會迎來強勁甚至迅猛的增長。然而,一個令人關注的問題是,這種上升趨勢能夠持續多久呢?

2023年底,AMD大膽地宣稱,到2027年,數據中心AI芯片的總潛在市場(TAM)將達到4000億美元,復合年增長率(CAGR)超過70%。這一預測引起了不同的反應,但也從側面說明了大型語言模型(LLM)作為處理生成式人工智能(GenAI)應用核心的驅動力。

作為圖形處理單元(GPU)市場的領導者,英偉達的成功證明了這些芯片的潛在市場規模。英偉達過去一年的股價上漲了217%,在過去三年增長了140%。

在最新的11月財報中,英偉達公布的營收為181.2億美元,其中數據中心營收為145.1億美元。整體銷售額同比增長206%,而數據中心銷售額同期增長了279%。所有這些都證實了數據中心芯片的銷售正經歷急劇上升的趨勢。然而,關鍵問題是,這個增長趨勢是否能夠達到4000 億美元的高度。

英偉達在數據中心AI GPU市場至少占據80%的份額,未來三年預計將迎來巨大增長。然而,要實現高達4000億美元的市場規模,英偉達的表現需要比目前更出色,同時其他廠商也需要超出預期。

競爭者不甘示弱

AMD

AMD 認為其將在未來三年內實現大幅增長。2023 年 12 月,AMD發布了MI300 系列芯片,旨在在推理方面超越英偉達的GPU。同時發布的另一款產品AMD Instinct MI300A加速處理單元(APU),將CPU和GPU核心與內存集成在一個平臺中。

MI300X 專為云提供商和企業設計,專為生成式 AI 應用而打造,MI300X GPU 擁有超過 1500 億個晶體管,以 2.4 倍的內存超越了英偉達的 H100。峰值內存帶寬達到 5.3 TB/s ,是H100 3.3 TB/s 的 1.6 倍。

wKgaomWwyh2AanXtAAFoeSiXcEU384.jpg

AMD Instinct MI300A APU 配備 128GB HBM3 內存。據稱,與之前的 M250X 處理器相比,MI300A 在 HPC 和 AI 工作負載上的每瓦性能提高了 1.9 倍。

AMD 總裁兼首席執行官蘇姿豐 (Lisa Su) 在去年 10 月的公司第三季度電話會議上表示:“隨著 2024 年的到來,我們預計收入將持續增長,而且主要來源將是AI。”“在AI領域,我們的客戶覆蓋面很廣,包括從超大規模企業到原始設備制造商、企業客戶以及一些新的人工智能初創企業。從工作負載的角度來看,我們希望 MI300 能夠同時處理訓練和推理工作負載。”

英特爾

英特爾上個月推出了AI芯片 Gaudi3 以及第五代 Xeon 處理器,作為進一步進軍數據中心AI市場的一部分。

英特爾表示,Gaudi3 是專為深度學習和創建大規模生成人工智能模型而設計的下一代人工智能加速器,將與英偉達的 H100 和 AMD 的 MI300X 展開競爭。

英特爾聲稱Xeon 是唯一內置 AI 加速的主流數據中心處理器,全新第五代 Xeon 在多達 200 億個參數的模型上提供高達 42% 的推理和微調能力。它也是唯一一款具有一致且不斷改進的 MLPerf 訓練和推理基準測試結果的 CPU。

Xeon的內置人工智能加速器,加上優化的軟件和增強的遙測功能,可以為通信服務提供商、內容交付網絡和包括零售、醫療保健和制造在內的廣泛垂直市場實現更易于管理、更高效的高要求網絡和邊緣工作負載部署。

云廠商各顯神通

AWS、谷歌等云廠商一直在為自己的大型數據中心打造定制芯片。一方面是不想過度依賴英偉達,另外針對自身需求定制芯片也有助于提高性能和降低成本。

AWS

亞馬遜的AI芯片Trainium和Inferentia專為訓練和運行大型人工智能模型而設計。

AWS Trainium2是 AWS 專門為超過 1000 億個參數模型的深度學習訓練打造的第二代機器學習 (ML) 加速器。AWS CEO Adam Selipsky 表示,近期推出的Trainium2的速度是其前身的4倍,能源效率是其之前的2倍。Tranium2 將在 AWS 云中由 16 個芯片組成的集群中的 EC Trn2 實例中使用,在 AWS 的 EC2 UltraCluster 產品中可擴展到多達 10萬個芯片。AWS表示,10萬個 Trainium 芯片可提供 65 exaflops 的計算能力,相當于每個芯片可提供 650 teraflops 的計算能力。

AWS Inferentia2 加速器與第一代相比在性能和功能方面實現了重大飛躍。Inferentia2 的吞吐量提高了 4 倍,延遲低至 1/10。

wKgZomWwyh2AAQ50AATwyIe9CyQ876.jpg

AWS Inferentia2 支持多種數據類型,包括 FP32、TF32、BF16、FP16 和 UINT8,還支持新的可配置 FP8 (cFP8) 數據類型,因為它減少了模型的內存占用和 I/O 要求。AWS Inferentia2 具有嵌入式通用數字信號處理器 (DSP),可實現動態執行,因此無需在主機上展開或執行控制流運算符。AWS Inferentia2 還支持動態輸入形狀,這對于輸入張量大小未知的模型(例如處理文本的模型)至關重要。AWS Inferentia2 支持用 C++ 編寫的自定義運算符。

谷歌

2023 年 12 月,谷歌發布最新的Cloud TPU v5p,并號稱是迄今最強大的TPU。每個 TPU v5p Pod由 8,960 個芯片組成,采用 3D 環面拓撲,互連速度達 4,800 Gbps。與 TPU v4 相比,TPU v5p 的FLOPS 提高了 2 倍以上,高帶寬內存 (HBM) 提高了 3 倍以上。

TPU v5p 專為性能、靈活性和規模而設計,訓練大型 LLM 模型的速度比上一代 TPU v4 快 2.8 倍。此外,借助第二代SparseCores,TPU v5p訓練嵌入密集模型的速度比 TPU v4 2快 1.9 倍。

wKgZomWwyh2AKBWwAAEk7HCtivA186.jpg

除了性能改進之外,TPU v5p 在每個 pod 的總可用 FLOP 方面的可擴展性也比 TPU v4 高 4 倍。與 TPU v4 相比,每秒浮點運算次數 (FLOPS) 加倍,并且單個 Pod 中的芯片數量加倍,可顯著提高訓練速度的相對性能。

wKgaomWwyh2AJzznAAVYDmdWezI186.jpg

微軟

2023 年 11 月,微軟推出了AI芯片Azure Maia 100。Maia 100 是 Maia AI 加速器系列中的首款產品。

Maia 采用 5 nm臺積電工藝制造,擁有 1050 億個晶體管,比 AMD MI300X AI GPU的 1530 億個晶體管少約 30% 。微軟表示,“Maia 支持我們首次實現低于 8 位數據類型(MX 數據類型),以便共同設計硬件和軟件,這有助于我們支持更快的模型訓練和推理時間。”

Maia 100 目前正在 GPT 3.5 Turbo 上進行測試,該模型也為 ChatGPT、Bing AI 工作負載和 GitHub Copilot 提供支持。微軟正處于部署的早期階段,還不愿意發布確切的 Maia 規范或性能基準。

總的來說,從AMD 4000億美元市場的預測中至少可以得出三個結論:首先,數據中心仍是短期內AI芯片的焦點;其次,數據中心 AI芯片領域正急劇上升,盡管上升的幅度仍然是一個問題;第三, 英偉達將繼續在該領域占據主導地位,但包括 AMD 在內的其他供應商正努力削弱其地位。





審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 處理器
    +關注

    關注

    68

    文章

    20253

    瀏覽量

    252225
  • gpu
    gpu
    +關注

    關注

    28

    文章

    5194

    瀏覽量

    135433
  • 晶體管
    +關注

    關注

    78

    文章

    10395

    瀏覽量

    147730
  • HPC
    HPC
    +關注

    關注

    0

    文章

    346

    瀏覽量

    24974
  • AI芯片
    +關注

    關注

    17

    文章

    2126

    瀏覽量

    36771

原文標題:數據中心AI芯片市場有多大?

文章出處:【微信號:SDNLAB,微信公眾號:SDNLAB】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    高通挑戰英偉達,發布768GB內存AI推理芯片,“出征”AI數據中心

    電子發燒友網報道(文/莫婷婷)隨著生成式AI應用的爆發式增長,數據中心對高效、低成本、低功耗AI推理能力的需求急劇上升。高通憑借其在移動計算和通信領域的技術積累,正試圖通過差異化戰略,
    的頭像 發表于 10-29 10:36 ?3639次閱讀
    高通挑戰英偉達,發布768GB內存<b class='flag-5'>AI</b>推理<b class='flag-5'>芯片</b>,“出征”<b class='flag-5'>AI</b><b class='flag-5'>數據中心</b>

    高通挑戰英偉達!發布768GB內存AI推理芯片,“出征”AI數據中心

    電子發燒友網報道(文/莫婷婷)隨著生成式AI應用的爆發式增長,數據中心對高效、低成本、低功耗AI推理能力的需求急劇上升。高通憑借其在移動計算和通信領域的技術積累,正試圖通過差異化戰略,
    的頭像 發表于 10-29 09:14 ?6452次閱讀
    高通挑戰英偉達!發布768GB內存<b class='flag-5'>AI</b>推理<b class='flag-5'>芯片</b>,“出征”<b class='flag-5'>AI</b><b class='flag-5'>數據中心</b>

    AOC光纖跳線在數據中心的應用與發展趨勢

    的要求。AOC光纖跳線憑借其獨特的優勢,在數據中心得到了廣泛的應用,并呈現出良好的發展趨勢。 AOC光纖跳線在數據中心的應用優勢 高速數據傳輸:數據
    的頭像 發表于 02-25 09:57 ?85次閱讀

    國產數據中心AI芯片企業一覽

    電子發燒友網報道(文/李彎彎)在全球科技競爭日益激烈的背景下,數據中心AI芯片已成為各國科技企業爭奪的戰略高地。隨著嚴格的芯片出口管制政策實施,國產
    的頭像 發表于 02-09 09:07 ?5046次閱讀

    1分鐘帶你了解數據中心供電架構 #電子元器件 #數據中心 #供電架構

    數據中心
    沛城芯動力
    發布于 :2026年02月03日 15:39:04

    鑫澈導熱與屏蔽方案助力AI數據中心高效散熱

    隨著AI數據中心持續擴張,高功率密度AI芯片帶來過量熱負荷與電磁干擾問題,散熱與電磁屏蔽已成為影響系統穩定與能效的核心挑戰。
    的頭像 發表于 10-11 09:34 ?632次閱讀

    AI數據中心供電系統的發展現狀和未來趨勢

    AI數據中心作為數字時代的核心基礎設施,承擔著海量數據的存儲、處理和傳輸任務,而供電系統是其穩定運行的“生命線”。隨著云計算、大數據、人工智能等技術的快速發展,
    的頭像 發表于 09-24 17:07 ?3736次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>數據中心</b>供電系統的發展現狀和未來<b class='flag-5'>趨勢</b>

    睿海光電以高效交付與廣泛兼容助力AI數據中心800G光模塊升級

    引領AI時代網絡變革:睿海光電的核心競爭力 在AI時代,數據中心正經歷從傳統架構向AI工廠與AI云的轉型。
    發表于 08-13 19:01

    加速AI未來,睿海光電800G OSFP光模塊重構數據中心互聯標準

    定義數據中心互聯的新范式。 一、技術實力:800G OSFP光模塊的卓越性能表現 睿海光電800G OSFP光模塊系列采用行業領先的PAM4調制技術,具備以下核心優勢: 超高速率 :單模傳輸速率達
    發表于 08-13 16:38

    中型數據中心中的差分晶體振蕩器應用與匹配方案

    中型數據中心的定義與特點 中型數據中心通常服務于中大型企業、科研機構或地方行業節點,具備50至200個機柜,部署多臺服務器、交換設備、存儲系統與光通信鏈路等,強調高帶寬、低延遲與高可用性。關鍵設備
    發表于 07-01 16:33

    數據中心冷卻技術的發展趨勢

    預計到2025年,全球發電量將達到26,787TWh,其中數據中心和加密貨幣將消耗約536TWh,約占全球總發電量的2%[1],[2]。按照目前的趨勢數據中心的電力消耗到2030年很可能達到甚至超過1,000TWh,接近全球總
    的頭像 發表于 05-15 13:38 ?1116次閱讀

    適用于數據中心AI時代的800G網絡

    隨著人工智能(AI)技術的迅猛發展,數據中心面臨著前所未有的計算和網絡壓力。從大語言模型(LLM)訓練到生成式AI應用,海量數據處理需求推動了網絡帶寬的快速增長。在此背景下,800G網
    發表于 03-25 17:35

    華為全新升級星河AI數據中心網絡

    在華為中國合作伙伴大會2025期間,以 “星河AI數據中心網絡,賦AI時代新動能”為主題的數據中心網絡分論壇圓滿落幕。本次論壇匯聚了來自全國的300多位客戶和伙伴,共同探討
    的頭像 發表于 03-24 14:46 ?1087次閱讀

    優化800G數據中心:高速線纜、有源光纜和光纖跳線解決方案

    高速線纜支持熱插拔功能,具有低功耗和小彎曲半徑,便于靈活布線,可實現高穩定性、低成本、節省空間和高散熱等優勢,非常適合數據中心布線需求。這些高速線纜能夠與交換機、路由器和服務器無縫集成,確保網絡
    發表于 03-24 14:20

    Cadence顛覆AI數據中心設計

    日前舉辦的英偉達 GTC 2025 開發者大會匯聚了眾多行業精英,共同探討人工智能的未來。而人工智能正在重塑全球數據中心的格局。據預測,未來將有 1 萬億美元用于 AI 驅動的數據中心升級。然而
    的頭像 發表于 03-21 15:43 ?1151次閱讀