AI服務器出貨動能強勁帶動HBM(high bandwidth memory高頻寬存儲器)需求提升,預計2023年AI服務器出貨量年增15.4%。
據TrendForce研究顯示,2022年三大原廠HBM市占率分別為SK海力士(SK hynix)50%、三星電子(Samsung)約40%、美光科技(Micron)約10%。此外,高級深度學習AI GPU的規格也刺激HBM產品更迭,2023下半年伴隨NVIDIA H100與AMD MI300的搭載,三大原廠也已規劃相對應規格HBM3的量產。因此,在今年有更多客戶將導入HBM3的預期下,SK海力士作為目前唯一量產新世代HBM3產品的供應商,其整體HBM市占率可望借此提升至53%,而三星、美光則預計陸續在今年年底至明年初量產,HBM市占率分別為38%及9%。
目前英偉達NVIDIA所定義的DL/ ML型AI服務器平均每臺均搭載4張或8張高級顯卡,搭配兩顆主流型號的x86服務器CPU,而主要拉貨力道來自于美系云端業者Google、AWS、Meta與Microsoft。據TrendForce統計,2022年高級搭載GPGPU的服務器出貨量年增約9%,其中近80%的出貨量均集中在中、美系八大云端業者。展望2023年,微軟Microsoft、臉書Meta、百度與字節跳動相繼推出基于生成式AI衍生的產品服務而積極加單,預估今年AI服務器出貨量年增率可望達15.4%,2023~2027年AI服務器出貨量年復合成長率約12.2%。
根據TrendForce調查,AI服務器可望帶存儲器需求成長,以現階段而言,Server DRAM普遍配置約為500至600GB左右,而AI服務器在單條模組上則多采64至128GB,平均容量可達1.2~1.7TB之間。以Enterprise SSD而言,由于AI服務器追求的速度更高,其要求往往優先于DRAM或HBM滿足,在SSD固態硬盤的容量提升上則呈現非必要擴大容量的態勢,但在傳輸界面上,則會為了高速運算的需求而優先采用PCIe 5.0。而相較于一般服務器而言,AI服務器多增加GPGPU的使用,因此以英偉達NVIDIA A100 80GB配置4或8張采計,HBM用量約為320至640GB。未來在AI模型逐漸復雜化的趨勢下,將刺激更多的存儲器用量,并同步帶動Server DRAM、SSD以及HBM的需求成長。
審核編輯 黃宇
-
存儲器
+關注
關注
39文章
7739瀏覽量
171676 -
服務器
+關注
關注
14文章
10253瀏覽量
91489 -
AI
+關注
關注
91文章
39793瀏覽量
301412
發布評論請先 登錄
GPU猛獸襲來!HBM4、AI服務器徹底引爆!
【服務器數據恢復】服務器“泡水”硬盤掉線,數據竟這樣恢復
AI時代,服務器存儲如何升級?
對話|AI服務器電源對磁性元件提出的新需求
服務器數據恢復—服務器斷電導致raid模塊損壞的數據恢復案例
AI 服務器電源如何迭代升級?
云存儲服務器租用的好處有哪些?
AI 推理服務器都有什么?2025年服務器品牌排行TOP10與選購技巧
存儲服務器怎么搭建?RAKsmart實戰指南
AI服務器大熱帶動存儲器出貨量,韓企廠商大吃紅利
評論