戴爾臺灣區總經理廖仁祥近期透露,過去一年內圖形處理單元(GPU)的交貨期長達40周之久,然而自今年2月起,供貨狀況顯著好轉,如今的交貨周期僅需約8-12周即可完成。
由于GPU供應短缺,AI服務器一度出現供給不足的情況。廖仁祥指出,考慮到AI服務器價格相對較高,企業采購預算中已有20%用于此項開支,涵蓋了制造業、電信業、醫療機構以及政府部門等多個領域,金融行業也逐漸引入生成式AI應用。
關于人工智能個人電腦(AI PC),廖仁祥堅信其市場前景廣闊,但今年的產品性能尚未滿足微軟提出的45 TOPS算力標準。他預計,AI PC的主要用途將集中于微軟AI助手Copilot及企業內部AI應用的開發。
據瑞銀分析師2月份發布的報告顯示,英偉達AI GPU的交貨速度正逐步提升,去年底的交貨周期尚需8-11個月,而今已縮減至3-4個月。然而,交貨時間縮短的具體原因尚未公開,可能與市場需求放緩或供應增加有關。
此外,Omdia移動PC研究團隊預測,2024年AI筆記本電腦的出貨量有望達到100萬臺;并預計到2028年,AI筆記本電腦的出貨量將增至驚人的1.8090億臺,占據筆記本電腦總出貨量的近八成份額。
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。
舉報投訴
-
gpu
+關注
關注
28文章
5194瀏覽量
135450 -
服務器
+關注
關注
14文章
10253瀏覽量
91487 -
生成式AI
+關注
關注
0文章
538瀏覽量
1085
發布評論請先 登錄
相關推薦
熱點推薦
GPU猛獸襲來!HBM4、AI服務器徹底引爆!
電子發燒友網報道(文/黃晶晶)日前,多家服務器廠商表示因AI服務器需求高漲拉高業績增長。隨著AI服務器需求旺盛,以及英偉達
AI服務器大電流電感選型指南
隨著大模型訓練、GPU算力集群、數據中心高密度供電快速普及,AI服務器對電源的要求已進入高功率、大電流、低損耗、高可靠時代。電感作為VRM、多相供電、OBC、PSU模塊的核心器件,直接決定算力穩定性
羅姆強勢入局AI服務器800VDC電源方案 原創
% 。 AI 訓練耗電量是網絡搜索的 10 倍以上 。 AI 服務器 GPU 性能增長的同時功率持續飆升。以 英偉達 為例,其 GPU 的
順絡電子核心產品破解AI服務器供電難題
服務器相比,AI 服務器在架構、工作方式和功率等方面都有顯著差異。它們采用 CPU+GPU/NPU 等加速卡的架構,以并行處理的方式高效完成復雜任務,功率更是大幅提升。
繼HBM之后,英偉達帶火又一AI內存模組!顛覆AI服務器與PC
,不僅將用于數據中心AI服務器,也將有望應用于PC。這一舉措將對內存市場以及相關產業鏈產生深遠影響。 ? SOCAMM ? SOCAMM 全稱為 Small Outline Compr
AI 服務器電源如何迭代升級?
在AI 算力需求增長的今天,AI 服務器電源正陷入 “性能瓶頸與國產替代并行、場景適配與技術創新交織” 的雙重挑戰。 由Big-Bit商務網、廣東省磁性元器件行業協會主辦的2025中國電子熱點
RAKsmart服務器如何賦能AI開發與部署
AI開發與部署的復雜性不僅體現在算法設計層面,更依賴于底層基礎設施的支撐能力。RAKsmart服務器憑借其高性能硬件架構、靈活的資源調度能力以及面向AI場景的深度優化,正在成為企業突破
AI 推理服務器都有什么?2025年服務器品牌排行TOP10與選購技巧
根據行業數據,AI推理服務器的性能差異可以達到10倍以上。比如,用普通服務器跑一個700億參數的大模型,可能需要30秒才能出結果,而用頂級服務器可能只需要3秒。這就是為什么選對
利用RAKsmart服務器托管AI模型訓練的優勢
AI模型訓練需要強大的計算資源、高效的存儲和穩定的網絡支持,這對服務器的性能提出了較高要求。而RAKsmart服務器憑借其核心優勢,成為托管AI模型訓練的理想選擇。下面,
Manus掀起AI熱潮,云服務器面臨新挑戰
近日,一款名為Manus的AI產品在網絡上掀起波瀾,被譽為“全球首款真正意義上的通用AIAgent”。Manus的火爆不僅展現了AI技術的巨大潛力,也凸顯了云服務器在支撐這類創新應用中
AI服務器脫離GPU依賴,AI PC市場潛力無限
評論