国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

NVIDIA最新GPU帶動,液冷服務器市占有望從1%提升到15%

晶芯觀察 ? 來源:電子發燒友網 ? 作者:黃晶晶 ? 2024-06-14 09:11 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發燒友網報道(文/黃晶晶)數據中心向來是耗電大戶,過去出于更經濟的考慮氣冷型服務器占據主流,如今隨著大語言模型的快速發展以及Meta的Llama-3和Mistral的Mixtral 8x22B等開源模型不斷推出,采用液冷技術的總擁有成本效益更加突出。未來液冷服務器的比重將顯著上升。

液冷產品簡化AI基礎設施


最近,Supermicro推出可立即部署式液冷型AI數據中心,此數據中心專為云原生解決方案而設計,通過SuperCluster加速各界企業對生成式AI的運用,并針對NVIDIA AI Enterprise軟件平臺優化,適用于生成式AI的開發與部署。

Supermicro的SuperCluster解決方案針對LLM訓練、深度學習以及大規模與大批量推理優化Supermicro的SuperCluster支持NVIDIA AI Enterprise,其中包括NVIDIA NIM微服務和NVIDIA NeMo平臺,能實現端對端生成式AI客制,并針對NVIDIA Quantum-2 InfiniBand以及具有每GPU 400Gb/s網速的新型NVIDIA Spectrum-X以太網絡平臺優化,可擴展到具有數萬個GPU的大型計算叢集。

通過Supermicro的4U液冷技術,NVIDIA近期推出的Blackwell GPU能在單一GPU上充分發揮20 PetaFLOPS的AI性能,且與較早的GPU相比,能提供4倍的AI訓練性能與30倍的推理性能,并節省額外成本。

Supermicro總裁兼首席執行官梁見后表示,我們的解決方案針對NVIDIA AI Enterprise軟件優化,滿足各行各業的客戶需求,并提供世界規模級效率的全球制造產能。因此我們得以縮短交付時間,更快提供搭配NVIDIA HGX H100和H200,以及即將推出的B100、B200和GB200解決方案的可立即使用型液冷或氣冷計算叢集。



液冷型被越來越多的采用


Supermicro提供的數據中心的液冷配置設計可幾近免費,并通過能持續降低用電量的優勢為客戶提供額外價值。采用液冷方案的整體擁有成本將非常可觀,例如來自于后期運營過程當中的電力消耗的減少,5年可以節省高達6000萬美元的電費支出。Supermicro從液冷板到CDU乃至冷卻塔,其機柜級全方位液冷解決方案最大可以降低數據中心40%的持續用電量。

液冷并非新的技術,它存在已經超過30年,不過在采訪中,梁見后表示,之前液冷方案需求量小,并且交期長約4-12個月,以小型OEM為主。如今,Supermicro與客戶重新進行子系統和組件設計來提升數據中心的性能,并改善了交期,滿足更快的交付要求。

今年以來,客戶要求新建數據中心時直接采用液冷方案,也希望將舊有的氣冷數據中心部分轉換成液冷配置。在此需求刺激下,公司液冷業務的增長非常快,產能處于供不應求的狀態。

公司在荷蘭、美國和馬來西亞等全球各地擴大生產規模,預計2-3個月內馬來西亞新廠區即可投產。產能爬坡,供應能力增加,令客戶享受更低成本的初始投資方案以及更低的總擁有成本。

隨著大語言模型的服務器集群的需求增長,液冷方案有望成為主流。過去三十年液冷的市場份額估計都不到1%,但數據中心對液冷方案的采用逐漸增多,這一市占有望提高到15%以上。

不斷拓展液冷型產品線


NVIDIA創始人兼首席執行官黃仁勛對于Supermicro的設計給出高度評價,他表示生成式AI正在推動整個計算堆棧的重置,新的數據中心將會通過GPU進行計算加速,并針對AI優化。Supermicro設計了頂尖的NVIDIA加速計算和網絡解決方案,使價值數兆美元的全球數據中心能夠針對AI時代優化。

Supermicro目前的生成式AI SuperCluster液冷型產品包括Supermicro NVIDIA HGX H100/H200 SuperCluster,具有256個H100/H200 GPU,為5個機柜規模的可擴展計算單元(包括1 個專用網絡機柜)。即將推出的SuperCluster液冷型產品包括Supermicro NVIDIA HGX B200 SuperCluster液冷型,Supermicro NVIDIA GB200 NVL72 或NVL36 SuperCluster液冷型。

當然除了液冷型之外,也推出了氣冷型產品,例如氣冷型Supermicro NVIDIA HGX H100/H200 SuperCluster,具有256個HGX H100/H200 GPU,為9個機柜規模的可擴展計算單元(包括1個專用網絡機柜),以及后續將推出的Supermicro NVIDIA HGX B100/B200 SuperCluster氣冷型。

Supermicro是主流的AI 服務器制造商之一。受益于 ChatGPT 引發的人工智能熱潮,再加上與英偉達的密切合作,這兩年Supermicro業績飆升,并受到資本市場的追捧。如今,Supermicro的液冷服務器技術直擊 AI 處理器功耗高的痛點,技術創新和產能提升下,公司的液冷服務器業務將成為強勁的成長動力。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    5592

    瀏覽量

    109720
  • gpu
    gpu
    +關注

    關注

    28

    文章

    5194

    瀏覽量

    135431
  • Supermicro
    +關注

    關注

    0

    文章

    34

    瀏覽量

    9696
  • 液冷
    +關注

    關注

    5

    文章

    160

    瀏覽量

    5773
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    歷史首次!AMD服務器CPU占率達50%

    英特爾持平。根據AMD的數據顯示,自EPYC CPU推出以來,其在服務器領域的市場份額由2018年的2%提升到2024年上半年的34%。在持平之后未來競爭將變得更加激烈。 ? ? ? 回看每一代AMD
    的頭像 發表于 08-11 03:20 ?1.1w次閱讀
    歷史首次!AMD<b class='flag-5'>服務器</b>CPU<b class='flag-5'>市</b>占率達50%

    GPU猛獸襲來!HBM4、AI服務器徹底引爆!

    電子發燒友網報道(文/黃晶晶)日前,多家服務器廠商表示因AI服務器需求高漲拉高業績增長。隨著AI服務器需求旺盛,以及英偉達GPU的更新換代,勢必帶動
    的頭像 發表于 06-02 06:54 ?6785次閱讀

    液冷服務器系統架構設計案例分享

    服務器的全液冷,一般都需要液冷板覆蓋CPU、內存(DIMM)、硬盤(SSD)、電源、IO以及其他SOC的散熱。今天給大家分享一款浪潮的全液冷冷板服務
    的頭像 發表于 01-27 15:33 ?441次閱讀
    全<b class='flag-5'>液冷</b><b class='flag-5'>服務器</b>系統架構設計案例分享

    液冷重塑AI服務器電源?對材料器件有何要求

    隨著AI服務器功率密度持續攀升,傳統風冷方案正逐步逼近極限。單機柜功率過去的二三十千瓦,快速躍升至如今的幾百千瓦,對散熱提出了極致要求。高熱流密度使散熱系統成為制約服務器性能釋放的關鍵瓶頸。在這一背景下,
    的頭像 發表于 12-13 16:46 ?1661次閱讀
    <b class='flag-5'>液冷</b>重塑AI<b class='flag-5'>服務器</b>電源?對材料器件有何要求

    液冷服務器成為AI黃金賽道!華為力挺,兩大國際芯片巨頭下場

    2024年以來,全球AI液冷服務器快速增長,中國液冷服務器市場進展如何?液冷技術出現哪些主流路線?代表廠商的旗艦產品有哪些?本文進行匯總。
    的頭像 發表于 11-27 09:22 ?6912次閱讀
    <b class='flag-5'>液冷</b><b class='flag-5'>服務器</b>成為AI黃金賽道!華為力挺,兩大國際芯片巨頭下場

    液冷散熱時代:AI服務器如何重構磁元件設計

    隨著AI服務器功率密度的快速提升,傳統的風冷散熱方案在熱管理方面逐漸面臨挑戰。在此背景下,液冷散熱技術正加速應用于數據中心,特別是高算力的AI集群中。 這一散熱方式的變革,并不僅僅是冷卻介質的簡單
    的頭像 發表于 11-21 11:42 ?679次閱讀
    <b class='flag-5'>液冷</b>散熱時代:AI<b class='flag-5'>服務器</b>如何重構磁元件設計

    液冷服務器驅動,eSSD用上冷板冷卻技術

    電子發燒友網綜合報道,近日,Solidigm宣布率先推出用于無風扇服務器環境的冷板冷卻企業級SSD(eSSD)。 ? SolidigmD7-PS1010E1.SSSD率先引入了單面直觸芯片液冷技術
    的頭像 發表于 09-28 09:09 ?6956次閱讀
    <b class='flag-5'>液冷</b><b class='flag-5'>服務器</b>驅動,eSSD用上冷板冷卻技術

    Lambda采用Supermicro NVIDIA Blackwell GPU服務器集群構建人工智能工廠

    大批量 Supermicro GPU 優化服務器(包括基于 NVIDIA Blackwell 的系統),以擴展其人工智能基礎設施并向客戶交付高性能計算系統。此次合作于今年 6 月率先在俄亥俄州哥倫布市的 Cologix COL4
    的頭像 發表于 08-30 16:55 ?778次閱讀

    數據中心液冷服務器該配什么樣的 UPS 不間斷電源?

    在當今數字化飛速發展的時代,數據中心就像是整個數字世界的心臟,承載著海量的數據存儲與處理任務。而液冷服務器作為數據中心的核心設備之一,因其高效的散熱性能,正越來越廣泛地被應用。不過,要保障液冷
    的頭像 發表于 08-21 11:01 ?956次閱讀
    數據中心<b class='flag-5'>液冷</b><b class='flag-5'>服務器</b>該配什么樣的 UPS 不間斷電源?

    NVIDIA Dynamo新增對亞馬遜云科技服務的支持

    ) 和 AWS Elastic Fabric Adapter (EFA) 的現有集成。此次更新將大規模部署大語言模型 (LLM) 的性能、可擴展性和成本效益提升到了新的水平。
    的頭像 發表于 07-28 14:31 ?975次閱讀
    <b class='flag-5'>NVIDIA</b> Dynamo新增對亞馬遜云科技<b class='flag-5'>服務</b>的支持

    12kW到800V,AI服務器電源架構變革下,功率器件如何解題?

    隨著數據中心及AI服務器的算力需求迅猛增長,帶動服務器電源功率呈幾何級上升,過去常見的1~2kW提升
    的頭像 發表于 07-22 13:18 ?1292次閱讀
    <b class='flag-5'>從</b>12kW到800V,AI<b class='flag-5'>服務器</b>電源架構變革下,功率器件如何解題?

    硅谷GPU服務器是什么意思?使用指南詳解

    硅谷GPU服務器本質上是一種IaaS(基礎設施即服務)產品,它將物理服務器上的GPU資源通過虛擬化技術分割成可彈性調配的云
    的頭像 發表于 06-16 09:41 ?591次閱讀

    高密度ARM服務器的散熱設計

    高密度ARM服務器的散熱設計融合了硬件創新與系統級優化技術,以應對高集成度下的散熱挑戰,具體方案如下: 一、核心散熱技術方案 高效散熱架構? 液冷技術主導?:冷板式液冷方案通過直接接觸CPU/
    的頭像 發表于 06-09 09:19 ?843次閱讀
    高密度ARM<b class='flag-5'>服務器</b>的散熱設計

    高性能GPU服務器推薦

    面對市場上種類繁多的GPU服務器,如何選擇一款適合自身需求的設備呢?接下來,AI部落小編為您推薦。
    的頭像 發表于 03-20 10:14 ?1062次閱讀

    AI服務器液冷散熱如何實現動態平衡?

    能力提升百倍以上的優勢,正成為AI算力基礎設施的核心支撐。 在液冷系統實際應用中,流量控制精度直接影響著散熱效能與系統安全。當前行業面臨三大技術痛點: 1、動態流量匹配失衡 在服務器
    的頭像 發表于 03-06 17:32 ?1342次閱讀
    AI<b class='flag-5'>服務器</b><b class='flag-5'>液冷</b>散熱如何實現動態平衡?