国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

瘋搶!HBM成為AI新瓶頸!

傳感器技術 ? 來源:半導體風向標 ? 2023-07-12 14:34 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

英偉達之后,全球科技巨頭實際上正在通過向 SK 海力士索取第五代高帶寬內存 (HBM) HBM3E 樣品來進行預訂。

半導體業內人士7月3日報道稱,全球各大科技巨頭已陸續向SK海力士索取HBM3E樣品。該名單包括 AMD、微軟和亞馬遜

樣品請求是下訂單之前的強制性流程,旨在證明其 GPU、其他半導體芯片或云系統以及內存半導體之間的兼容性。這表明產品的良率足夠穩定,可以進行量產,標志著交付前的最后階段。HBM3E是當前頂級第四代HBM3的下一代產品。SK海力士是目前全球唯一一家量產HBM3芯片的公司。

SK海力士正忙于處理來自客戶的大量HBM3E樣品請求。英偉達首先要求提供樣品,這次的出貨量幾乎是千鈞一發。這些索取樣品的客戶公司可能會在今年年底收到樣品。全球領先的GPU公司Nvidia此前曾向SK海力士供應HBM3,并已索取HBM3E樣品。各大科技公司都在熱切地等待 SK 海力士的樣品。

隨著HBM3E需求的爆炸性增長,產量顯著增加。SK 海力士決定使用最新的尖端 10 納米級第五代 (1b) 技術大幅提高明年的產量。大部分增量將由 HBM3E 填充。這表明SK海力士正在以HBM為首要業務戰略,全力克服半導體低迷。據悉,SK海力士約40%的營業利潤來自HBM。

所有向 SK 海力士索取 HBM3E 樣品的公司都是人工智能行業的主要參與者。AMD 與 Nvidia 一起引領 GPU 市場。GPU 對于處理大量數據至關重要,是 ChatGPT 等生成型人工智能的大腦。為此,諸如 HBM 之類的高性能、大容量存儲器至關重要。瓜分GPU市場的Nvidia和AMD都已向SK海力士伸出了援手。

AMD最近發布了其下一代GPU MI300X,并表示將從SK海力士和三星電子獲得HBM3供應。此次,似乎是向SK海力士索取了HBM3E樣品,以確定第五代HBM的供應商。MI300X配備的HBM是Nvidia去年底推出的最新旗艦GPU H100的2.4倍。

亞馬遜和微軟是云服務領域的兩大巨頭。他們的市場份額加起來超過了50%。作為生存策略,云服務公司優先引入生成式AI技術,并大幅增加投資。亞馬遜旗下運營的全球第一云服務提供商(CSP)亞馬遜網絡服務近期投資1億美元建立人工智能創新中心。與此同時,微軟的Azure云服務正在擴大與ChatGPT開發商OpenAI的合作關系。

市場研究公司TrendForce表示:“亞馬遜網絡服務和谷歌等主要云服務公司正在開發自己的專用集成電路ASIC)和配備Nvidia GPU的AI服務器,是當前HBM激增的推動力要求。”

DRAM 4月的指標性產品DDR4 8Gb為例,批發價為每個1.48美元左右,環比下跌1%;4Gb產品價格為每個1.1美元左右,環比下跌8%。

在DRAM的整體頹勢之中,HBM(高帶寬內存,High Bandwidth Memory)卻在逆勢增長。身為DRAM的一種,與大部隊背道而馳,價格一路水漲船高。據媒體報道,2023年開年后三星、SK海力士兩家存儲大廠HBM訂單快速增加,HBM3規格DRAM價格上漲5倍。HBM3原本價格大約30美元每GB,現在的價格怕是更加驚人。

一邊是總體DRAM跌到成本價,一邊是“尖子生”HBM價格漲5倍。

6 月 18 日據 businesskorea 以及 etnews 報道,SK 海力士將擴展其 HBM3 后道工藝生產線,并已收到英偉達要求其送測 HBM3E 樣品的請求

據稱,考慮到對人工智能 (AI) 半導體的需求增加,S 海力士正在考慮將 HBM 的產能翻倍的計劃。

業內消息稱 SK 海力士于 6 月 14 日收到了 NVIDIA 對 HBM3E 樣品的請求,并正在準備發貨。HBM3E 是當前可用的最高規格 DRAM HBM3 的下一代,被譽為是第五代半導體產品。

SK 海力士目前正致力于開發該產品,目標是在明年上半年實現量產。SK 海力士副總裁樸明秀在今年 4 月的第一季度收益公告電話會議上透露:“我們正在為今年下半年準備 8Gbps HBM3E 產品樣品,并計劃在明年上半年實現量產。”

半導體產業聯盟查詢發現,目前 SK 海力士在 HBM 市場已經領先于三星電子。據市場研究公司 TrendForce 稱,截至去年,SK 海力士在全球 HBM 市場上占據 50% 的市場份額,而三星電子則保持在 40% 左右。

去年 6 月,SK 海力士成為世界上第一個大規模生產高性能 HBM3 的公司,從而一舉奠定其市場領導地位。在通過 HBM3 樣品的嚴格性能評估后,成功滿足了高端客戶的需求,目前已經在為 NVIDIA H100 供應。

如果他們成功交付第五代 HBM 產品,將進一步鞏固他們在超快速 AI 半導體市場上的領先地位。

HBM的優勢

直接地說,HBM將會讓服務器的計算能力得到提升。由于短時間內處理大量數據,AI服務器對帶寬提出了更高的要求。HBM的作用類似于數據的“中轉站”,就是將使用的每一幀、每一幅圖像等圖像數據保存到幀緩存區中,等待GPU調用。與傳統內存技術相比,HBM具有更高帶寬、更多I/O數量、更低功耗、更小尺寸,能夠讓AI服務器在數據處理量和傳輸速率有大幅提升。

56911fa4-2067-11ee-962d-dac502259ad0.png

來源:rambus

可以看到HBM在帶寬方面有著“碾壓”級的優勢。如果 HBM2E 在 1024 位寬接口上以 3.6Gbps 的速度運行,那么就可以得到每秒 3.7Tb 的帶寬,這是 LPDDR5 或 DDR4 帶寬的 18 倍以上。

除了帶寬優勢,HBM可以節省面積,進而在系統中安裝更多GPU。HBM 內存由與 GPU 位于同一物理封裝上的內存堆棧組成。

56ac8c94-2067-11ee-962d-dac502259ad0.png

這樣的架構意味著與傳統的 GDDR5/6 內存設計相比,可節省大量功耗和面積,從而允許系統中安裝更多 GPU。隨著 HPC、AI 和數據分析數據集的規模不斷增長,計算問題變得越來越復雜,GPU 內存容量和帶寬也越來越大是一種必需品。H100 SXM5 GPU 通過支持 80 GB(五個堆棧)快速 HBM3 內存,提供超過 3 TB/秒的內存帶寬,是 A100 內存帶寬的 2 倍。

過去對于HBM來說,價格是一個限制因素。但現在大模型市場上正處于百家爭鳴時期,對于布局大模型的巨頭們來說時間就是金錢,因此“貴有貴的道理”的HBM成為了大模型巨頭的新寵。隨著高端GPU需求的逐步提升,HBM開始成為AI服務器的標配。

目前英偉達的A100及H100,各搭載達80GB的HBM2e及HBM3,在其最新整合CPU及GPU的Grace Hopper芯片中,單顆芯片HBM搭載容量再提升20%,達96GB。

AMD的MI300也搭配HBM3,其中,MI300A容量與前一代相同為128GB,更高端MI300X則達192GB,提升了50%。

預期Google將于2023年下半年積極擴大與Broadcom合作開發AISC AI加速芯片TPU也計劃搭載HBM存儲器,以擴建AI基礎設施。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 芯片
    +關注

    關注

    463

    文章

    54010

    瀏覽量

    466045
  • DRAM
    +關注

    關注

    41

    文章

    2394

    瀏覽量

    189143
  • SK海力士
    +關注

    關注

    0

    文章

    1007

    瀏覽量

    41624

原文標題:瘋搶!HBM成為AI新瓶頸!

文章出處:【微信號:WW_CGQJS,微信公眾號:傳感器技術】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    GPU猛獸襲來!HBM4、AI服務器徹底引爆!

    電子發燒友網報道(文/黃晶晶)日前,多家服務器廠商表示因AI服務器需求高漲拉高業績增長。隨著AI服務器需求旺盛,以及英偉達GPU的更新換代,勢必帶動HBM供應商的積極產品推進。三星方面HBM
    的頭像 發表于 06-02 06:54 ?6787次閱讀

    存儲狂飆與HBM擴產潮下,高端芯片燒錄的“速度與精度”終極博弈

    當前存儲市場上行,HBM 技術演進推動燒錄數據量指數級增長,傳統燒錄與測試方案遇瓶頸。行業通過高速接口、多芯片協同、智能校準與光學檢測融合等創新方案應對,同時向制造鏈整合的模塊化方案轉型。禾洛半導體
    的頭像 發表于 12-29 16:52 ?1182次閱讀

    Vicor分比式電源架構破解AI處理器供電瓶頸

    AI 處理器以低于 1V 的電壓運行時,電流消耗卻高達數千安培。這種前所未有的電流需求已使供電網絡(PDN)成為系統的主要瓶頸
    的頭像 發表于 12-28 10:02 ?1061次閱讀
    Vicor分比式電源架構破解<b class='flag-5'>AI</b>處理器供電<b class='flag-5'>瓶頸</b>

    HBM3E反常漲價20%,AI算力競賽重塑存儲芯片市場格局

    明年HBM3E價格,漲幅接近20%。 ? 此次漲價背后,是AI算力需求爆發與供應鏈瓶頸的共同作用。隨著英偉達H200、谷歌TPU、 亞馬遜Trainium 等AI芯片需求激增,
    的頭像 發表于 12-28 09:50 ?3006次閱讀

    存儲迭代暗涌:HBM4與UFS4.1浪潮下,燒錄環節何以成為瓶頸

    存儲芯片市場擴產繁榮,HBM4、UFS4.1等先進技術加速量產,但被低估的燒錄環節成關鍵瓶頸。先進存儲對燒錄的速度、精度和協議復雜度提出極高要求,面臨三重技術關卡。需專用燒錄方案突破瓶頸,其是國產存儲跨越量產“最后一公里”的關鍵
    的頭像 發表于 12-22 14:03 ?530次閱讀

    AI大算力的存儲技術, HBM 4E轉向定制化

    電子發燒友網報道(文/黃晶晶)如今英偉達GPU迭代速度加快至每年一次,HBM存儲速率如何跟上GPU發展節奏。越來越多的超大規模云廠商、GPU廠商開始轉向定制化HBM。而HBM存儲廠商以及晶圓代工廠也
    的頭像 發表于 11-30 00:31 ?8468次閱讀
    <b class='flag-5'>AI</b>大算力的存儲技術, <b class='flag-5'>HBM</b> 4E轉向定制化

    工程師的工業控制神器!35*35MMT113-i核心板

    工業自動化項目開發的李工程師興奮地說道。近期,一款采用10層2階盲埋孔工藝的工業核心板在工程師圈子里掀起了熱潮,僅需半百的價格,卻擁有小尺寸、低功耗、高性能的諸多優勢,成為了工業控制領域的“香餑餑”。今天,我們就來深
    的頭像 發表于 10-29 16:55 ?524次閱讀

    紫光國芯存儲芯片國產替代方案:打破DDR5/HBM芯片供應鏈瓶頸

    可控。市場需求與供應鏈現實:DDR5及HBM的技術價值與挑戰AI大模型、智能計算等應用場景的爆發,對數據處理的通量和效率提出了極為苛刻的要求,這直接推動了存儲技術
    的頭像 發表于 10-10 16:41 ?2217次閱讀
    紫光國芯存儲芯片國產替代方案:打破DDR5/<b class='flag-5'>HBM</b>芯片供應鏈<b class='flag-5'>瓶頸</b>

    AIDC如何成為AI發展的關鍵一棒?

    AI
    腦極體
    發布于 :2025年09月21日 12:21:23

    全球首款HBM4量產:2.5TB/s帶寬超越JEDEC標準,AI存儲邁入新紀元

    電子發燒友網報道(文 / 吳子鵬)近日,SK 海力士宣布全球率先完成第六代高帶寬存儲器(HBM4)的開發,并同步進入量產階段,成為首家向英偉達等核心客戶交付 HBM4 的存儲廠商。 ? 據悉,SK
    發表于 09-17 09:29 ?6276次閱讀

    SK海力士宣布量產HBM4芯片,引領AI存儲新變革

    在人工智能(AI)技術迅猛發展的當下,數據處理與存儲能力成為制約其進一步飛躍的關鍵因素。2025 年 9 月 12 日,韓國半導體巨頭 SK 海力士宣布,已成功完成面向 AI 的超高性能存儲器新產品
    的頭像 發表于 09-16 17:31 ?1801次閱讀

    突破堆疊瓶頸:三星電子擬于16層HBM導入混合鍵合技術

    成為了全球存儲芯片巨頭們角逐的焦點。三星電子作為行業的領軍企業,一直致力于推動 HBM 技術的革新。近日有消息傳出,三星電子準備從 16 層 HBM 開始引入混合鍵合技術,這一舉措無疑將在存儲芯片領域掀起新的波瀾。 編輯 ? 編
    的頭像 發表于 07-24 17:31 ?867次閱讀
    突破堆疊<b class='flag-5'>瓶頸</b>:三星電子擬于16層<b class='flag-5'>HBM</b>導入混合鍵合技術

    SK海力士HBM技術的發展歷史

    SK海力士在鞏固其面向AI的存儲器領域領導地位方面,HBM1無疑發揮了決定性作用。無論是率先開發出全球首款最高性能的HBM,還是確立并保持其在面向AI的存儲器市場的領先地位,這些成就的
    的頭像 發表于 06-18 15:31 ?2017次閱讀

    DeepSeek推動AI算力需求:800G光模塊的關鍵作用

    力集群的部署過程中,帶寬瓶頸成為制約算力發揮的關鍵因素,而光模塊的速率躍升成為突破這一瓶頸的核心驅動力。 光模塊速率躍升 隨著算力集群的規模不斷擴展,
    發表于 03-25 12:00

    stm32h750 cube aiai_network_create_and_init了,怎么解決?

    進去發現是卡在ai_platform_network_create,CRC也開了,要
    發表于 03-14 07:22