国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

一種新型數據中心液冷系統的實驗研究

jf_86259660 ? 來源:jf_86259660 ? 作者:jf_86259660 ? 2023-05-04 11:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

來源|Case Studies in Thermal Engineering

原文 |https://doi.org/10.1016/j.csite.2023.102925

01背景介紹

大型數據中心和其他大型計算基礎設施由數千個機架組成,支持數萬臺服務器和其他電子設備。這些電子設備消耗大量的電力,產生大量的熱量。2019年,數據中心消耗了約3%的全球電力。由于對數據中心的需求巨大,預計這一數字將以每年12%的速度增長。

在一個典型的直流系統中,冷卻系統占總能量的40%。產生的熱量可能會導致服務器過熱,威脅到服務器的安全運行,如果不及時有效地散熱,可能會導致服務器故障。此外,CPU的溫度對功率有直接的影響。因此,適宜的CPU溫度可以提供顯著的節能效果。

風冷是最常用的冷卻系統。風冷需要使用強大的風扇,并在電子設備之間提供空間,以放置笨重的散熱器,并允許足夠的氣流。用于計算的電子設備不僅性能越來越好,還具有更大的功率,即最大理論負載下的功耗。因此,迫切需要改進目前的冷卻解決方案。

02成果掠影

poYBAGRTJZiAIs-dAAJwx5g5ceA197.png

近年來,液冷作為傳統風機強制風冷的補充或替代方法被引入電子設備機架。液冷直流系統最近成為重要的和流行的散熱設備,并且液冷系統具有更好的傳輸特性,具有更優異的經濟性。近期,

法國的Mohamad Hnayno教授,Ali Chehade教授和Chadi Maalouf教授介紹了在OVHcloud實驗室

開發的一種新的單相浸入/液冷技術的實驗研究,將直接到芯片的水冷系統與被動的單浸入冷卻技術相結合。實驗裝置測試了三種介質流體(S5X, SmartCoolant和ThermaSafe R)的影響,水回路配置的影響,以及服務器的功率/配置。結果表明,該系統冷卻需求取決于流體的粘度。當黏度從4.6 mPa s增加到9.8 mPa s時,冷卻性能下降了約6%。此外,所有的IT服務器配置都在不同的進水溫度和流速下進行了驗證。在一個600千瓦的數據中心(DC)比較了本文的技術和OVHcloud之前使用的液冷系統的能源性能。與液冷系統相比,所提出的技術減少了至少20.7%的直流電力消耗。最后,在服務器層面對空氣和液冷系統的冷卻性能和所提出的解決方案進行了計算比較。使用該解決方案時,與風冷系統相比節能至少20%,與液冷系統相比節能至少7%。

研究成果以“Experimental investigation of a data-centre cooling system using a new single-phase immersion/liquid technique”為題發表于《Case Studies in Thermal Engineering》。

03圖文導讀

poYBAGRTJZyAc1koAAGywLyFGJQ833.png

圖1.IC系統示意圖。

pYYBAGRTJaCAObkuAAVVeRuA-E8142.png

圖2.單相浸沒/液冷技術架構。

poYBAGRTJaWAcyRTAAaNU4FNE9A681.png

圖3.(a) IC IT機架(48臺服務器),(b) 600kw IC集裝箱。

pYYBAGRTJamAYo9cAAUh6rCG25E969.png

圖4.(a) IC實驗室實驗裝置方案,(b) IC實驗裝置照片。

pYYBAGRTJa2AaxaEAAGg-ckZSUU838.png

圖5.在使用S5 X、SmartCoolant和ThermaSafe R流體時,(a) IC流體溫度和(b) IT 溫度在不同tc和流速下的變化。

表1.比較在OVHcloud實驗DC中使用的風冷、液冷和浸泡/液冷服務器(服務器#4)。

poYBAGRTJbSAEqvrAAEYKjy7Pi4273.png

表2.AMD Socket SP3處理器的尺寸和導熱系數。

pYYBAGRTJbiARK91AAEPYEJ9Fic841.png

審核編輯:湯梓紅

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 服務器
    +關注

    關注

    14

    文章

    10251

    瀏覽量

    91480
  • 數據中心
    +關注

    關注

    18

    文章

    5647

    瀏覽量

    75009
  • 液冷
    +關注

    關注

    5

    文章

    160

    瀏覽量

    5773
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    1分鐘帶你了解數據中心供電架構 #電子元器件 #數據中心 #供電架構

    數據中心
    沛城芯動力
    發布于 :2026年02月03日 15:39:04

    數據中心液冷監測解決方案:驅動高效冷卻,護航綠色算力

    在數字化與“雙碳”目標雙重背景下,數據中心能效提升已成為關鍵課題。液冷技術憑借其卓越的散熱能力,正成為高密度算力基礎設施的必然選擇。而液冷系統的穩定與高效,離不開可靠、精準的傳感與監測
    的頭像 發表于 01-22 17:45 ?1164次閱讀
    <b class='flag-5'>數據中心</b><b class='flag-5'>液冷</b>監測解決方案:驅動高效冷卻,護航綠色算力

    英威騰液冷解決方案助力應對數據中心算力熱浪

    今天,英威騰為您揭曉答案。我們不僅提供技術,更提供場景化的液冷解決方案,從大型數據中心到邊緣算力節點,讓前沿的散熱技術變得可靠、易用、觸手可及。
    的頭像 發表于 12-17 14:57 ?1154次閱讀
    英威騰<b class='flag-5'>液冷</b>解決方案助力應對<b class='flag-5'>數據中心</b>算力熱浪

    電壓放大器在芯片散熱驅動液冷系統實驗中的應用

    實驗名稱:面向電子芯片散熱的壓電驅動液冷系統集成實驗研究 研究方向:針對高集成度電子芯片的散熱需
    的頭像 發表于 11-28 15:31 ?482次閱讀
    電壓放大器在芯片散熱驅動<b class='flag-5'>液冷</b><b class='flag-5'>系統</b><b class='flag-5'>實驗</b>中的應用

    曙光數創液冷方案助力數據中心綠色發展

    近期,“東數西算”工程綠色化實踐廣受關注。央視報道指出數據中心兩大突破:是綠電使用占比顯著提升,二是引入浸沒式液冷系統后節能超30%。國家數據
    的頭像 發表于 09-24 09:36 ?760次閱讀

    數據中心液冷服務器該配什么樣的 UPS 不間斷電源?

    在當今數字化飛速發展的時代,數據中心就像是整個數字世界的心臟,承載著海量的數據存儲與處理任務。而液冷服務器作為數據中心的核心設備之,因其高
    的頭像 發表于 08-21 11:01 ?956次閱讀
    <b class='flag-5'>數據中心</b><b class='flag-5'>液冷</b>服務器該配什么樣的 UPS 不間斷電源?

    易飛揚浸沒液冷延長器與硅光液冷光模塊主題研究 ——液冷光互連技術的數據中心革命

    1.02-1.05,適用于超高密度算力集群。 ? 冷板式液冷:適用于部分液冷改造場景,但散熱效率低于浸沒式。 ? 硅光技術+液冷:硅光子(SiPh)可降低光模塊功耗,結合液冷可進
    的頭像 發表于 07-20 12:19 ?987次閱讀
    易飛揚浸沒<b class='flag-5'>液冷</b>延長器與硅光<b class='flag-5'>液冷</b>光模塊主題<b class='flag-5'>研究</b>  ——<b class='flag-5'>液冷</b>光互連技術的<b class='flag-5'>數據中心</b>革命

    曙光數創推出液冷數據中心全生命周期定制新服務

    在AI 算力爆發式增長的當下,液冷技術已成為數據中心突破散熱瓶頸、支撐高密度算力的必選項。但液冷服務落地面臨著多重挑戰:服務器選型難匹配、設計院經驗與液冷需求脫節、
    的頭像 發表于 06-13 14:45 ?1432次閱讀

    海瑞思科技助力數據中心液冷分水器泄漏檢測

    隨著數據中心算力密度激增,液冷技術正加速普及進程。作為液冷系統的"循環心臟",分水器通過流道網路將冷卻介質輸送至每個計算單元。然而,其核心的焊接方管與多接口結構在制造過程中,易誘發細微
    的頭像 發表于 05-21 09:28 ?953次閱讀

    英特爾引領液冷革新,與殼牌共筑數據中心高效冷卻新范式

    打造業界領先的浸沒式液冷解決方案,為數據中心用戶在AI時代構建可持續、高效液冷的發展路徑。 在AI和計算能力飛速發展的當下,數據中心對強大基礎設施的需求持續增長,隨之而來的散熱問題也愈
    的頭像 發表于 05-16 10:14 ?617次閱讀

    RAKsmart液冷技術如何實現PUE&lt;1.2的綠色數據中心

    傳統數據中心因依賴風冷技術,能源使用效率(PUE)普遍在1.5以上,導致大量電力被用于散熱而非計算本身。面對“雙碳”目標與可持續發展的緊迫需求,RAKsmart憑借其創新的液冷技術,成功將數據中心的PUE降至1.2以下,為行業樹
    的頭像 發表于 05-15 09:58 ?1002次閱讀

    流量與壓力傳感:數據中心液冷的″智慧之眼″

    在數字化浪潮席卷全球的當下,數據中心作為數字世界的“心臟”,承擔著海量數據的存儲、處理與傳輸重任。隨著服務器性能的不斷提升,其產生的熱量也呈指數級增長,高效可靠的冷卻系統成為保障數據中心
    的頭像 發表于 05-14 11:26 ?1110次閱讀
    流量與壓力傳感:<b class='flag-5'>數據中心</b><b class='flag-5'>液冷</b>的″智慧之眼″

    數據中心液冷技術和風冷技術的比較

    (Power Usage Effectiveness,電源利用效率)<1.2,而傳統的風冷制冷方式已經無法滿足數據中心的散熱需求,更加高效的液冷方案應運而生。特別在人工智能領域,隨著智算需求的爆發,液冷方案已經成為
    的頭像 發表于 05-09 09:41 ?4019次閱讀
    <b class='flag-5'>數據中心</b><b class='flag-5'>液冷</b>技術和風冷技術的比較

    寧暢亮相2025中國數據中心液冷技術大會

    日前,2025中國數據中心液冷技術大會在杭州落下帷幕,國內主流數據中心液冷技術企業齊聚堂,共同探討“
    的頭像 發表于 04-16 09:12 ?1389次閱讀

    施耐德電氣即將亮相2025中國數據中心液冷技術大會

    以“液冷深融合”為主題,由CDCC與益企研究院共同主辦的第三屆中國數據中心液冷技術大會即將召開。會上將匯集多方數據中心行業的資深專家、
    的頭像 發表于 03-21 16:47 ?2422次閱讀