国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

聯想推出第六代垂直液冷技術AI服務器

要長高 ? 2024-10-16 17:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在今日舉辦的聯想2024年度全球創新盛會Tech World上,聯想集團震撼發布了其第六代Neptune垂直液冷產品——ThinkSystem N1380 Neptune,這款產品專為生成式AI計算量身打造,再次彰顯了聯想在高性能計算和液冷技術領域的卓越實力與創新能力。

會上,聯想還宣布與英偉達深化合作,共同推出了聯想混合式AI全面優勢集,并同步發布了ThinkSystem SC777 V4 Neptune服務器。這款新服務器充分利用了ThinkSystem N1380 Neptune的先進技術,能夠在緊湊的19英寸行業標準機架設計中,支持萬億參數的AI模型運行,展現了聯想與英偉達在液冷AI服務器領域的緊密合作與創新成果。

ThinkSystem N1380 Neptune垂直液冷機箱實現了100%的直接溫水冷卻,顯著提升了散熱效率和能源利用率。機箱內配備8個托盤槽,可搭載多達四個15kW的鈦金轉換電源(PCS),為48V母線供電,確保系統穩定高效運行。

此外,ThinkSystem SC777 V4 Neptune服務器還支持英偉達下一代Quantum-X800 InfiniBand和Spectrum-X800以太網平臺,為用戶提供更快速、更可靠的數據傳輸體驗。同時,該服務器集成了英偉達AI Enterprise云原生軟件平臺,簡化了生產級人工智能解決方案的開發與部署流程,涵蓋生成式AI、計算機視覺、語音AI等多個領域。

聯想官方表示,第六代Neptune已全面融入聯想服務器、解決方案和服務的端到端混合AI產品組合中,為用戶提供更加全面、高效、可靠的AI計算解決方案。

此次聯想與英偉達的合作,不僅彰顯了雙方在技術創新和市場拓展方面的共同追求,也為全球AI計算領域的發展注入了強勁動力。展望未來,聯想將持續推動高性能計算和液冷技術的創新與發展,致力于為用戶提供更加優質、高效的AI計算服務。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 聯想
    +關注

    關注

    3

    文章

    2744

    瀏覽量

    64651
  • 服務器
    +關注

    關注

    14

    文章

    10251

    瀏覽量

    91478
  • AI
    AI
    +關注

    關注

    91

    文章

    39755

    瀏覽量

    301355
  • 英偉達
    +關注

    關注

    23

    文章

    4086

    瀏覽量

    99168
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    液冷服務器系統架構設計案例分享

    服務器的全液冷,一般都需要液冷板覆蓋CPU、內存(DIMM)、硬盤(SSD)、電源、IO以及其他SOC的散熱。今天給大家分享一款浪潮的全液冷冷板服務
    的頭像 發表于 01-27 15:33 ?440次閱讀
    全<b class='flag-5'>液冷</b><b class='flag-5'>服務器</b>系統架構設計案例分享

    普通服務器電源與AI服務器電源的區別(上)

    引言服務器是數據中心的核心設備,其穩定運行依賴可靠的電源供應。隨著AI技術的飛速發展,AI服務器大量涌現,與普通
    的頭像 發表于 01-12 09:31 ?1030次閱讀
    普通<b class='flag-5'>服務器</b>電源與<b class='flag-5'>AI</b><b class='flag-5'>服務器</b>電源的區別(上)

    液冷重塑AI服務器電源?對材料器件有何要求

    隨著AI服務器功率密度持續攀升,傳統風冷方案正逐步逼近極限。單機柜功率從過去的二三十千瓦,快速躍升至如今的幾百千瓦,對散熱提出了極致要求。高熱流密度使散熱系統成為制約服務器性能釋放的關鍵瓶頸。在這一背景下,
    的頭像 發表于 12-13 16:46 ?1661次閱讀
    <b class='flag-5'>液冷</b>重塑<b class='flag-5'>AI</b><b class='flag-5'>服務器</b>電源?對材料器件有何要求

    液冷服務器成為AI黃金賽道!華為力挺,兩大國際芯片巨頭下場

    2024年以來,全球AI液冷服務器快速增長,中國液冷服務器市場進展如何?液冷
    的頭像 發表于 11-27 09:22 ?6909次閱讀
    <b class='flag-5'>液冷</b><b class='flag-5'>服務器</b>成為<b class='flag-5'>AI</b>黃金賽道!華為力挺,兩大國際芯片巨頭下場

    液冷散熱時代:AI服務器如何重構磁元件設計

    隨著AI服務器功率密度的快速提升,傳統的風冷散熱方案在熱管理方面逐漸面臨挑戰。在此背景下,液冷散熱技術正加速應用于數據中心,特別是高算力的AI
    的頭像 發表于 11-21 11:42 ?679次閱讀
    <b class='flag-5'>液冷</b>散熱時代:<b class='flag-5'>AI</b><b class='flag-5'>服務器</b>如何重構磁元件設計

    瑞薩電子推出第六代DDR5 RCD,傳輸速率達9600MT/s

    )的數據速率,超越當前行業標準,為數據中心服務器的內存接口性能樹立了全新標桿。 ? ? 瑞薩第六代DDR5 RCD帶來了多方面的顯著提升。首先,在帶寬方面,相較于瑞薩第五RCD的8800MT/s,此次新品實現了10%的提升,達
    的頭像 發表于 11-19 15:59 ?5810次閱讀
    瑞薩電子<b class='flag-5'>推出</b><b class='flag-5'>第六代</b>DDR5 RCD,傳輸速率達9600MT/s

    對話|AI服務器電源對磁性元件提出的新需求

    編者按: 自ChatGPT、DeepSeek等大型AI模型應用爆發以來,市場對AI服務器的需求激增,其配套電源的發展前景已成為行業共識。目前,I服務器電源企業的出貨規模仍有限,
    的頭像 發表于 10-11 14:55 ?974次閱讀
    對話|<b class='flag-5'>AI</b><b class='flag-5'>服務器</b>電源對磁性元件提出的新需求

    液冷服務器驅動,eSSD用上冷板冷卻技術

    電子發燒友網綜合報道,近日,Solidigm宣布率先推出用于無風扇服務器環境的冷板冷卻企業級SSD(eSSD)。 ? SolidigmD7-PS1010E1.SSSD率先引入了單面直觸芯片液冷
    的頭像 發表于 09-28 09:09 ?6956次閱讀
    <b class='flag-5'>液冷</b><b class='flag-5'>服務器</b>驅動,eSSD用上冷板冷卻<b class='flag-5'>技術</b>

    數據中心液冷服務器該配什么樣的 UPS 不間斷電源?

    在當今數字化飛速發展的時代,數據中心就像是整個數字世界的心臟,承載著海量的數據存儲與處理任務。而液冷服務器作為數據中心的核心設備之一,因其高效的散熱性能,正越來越廣泛地被應用。不過,要保障液冷
    的頭像 發表于 08-21 11:01 ?955次閱讀
    數據中心<b class='flag-5'>液冷</b><b class='flag-5'>服務器</b>該配什么樣的 UPS 不間斷電源?

    性能躍升,安全護航 ---- 瀾起科技重磅發布全新第六代津逮? 性能核 CPU

    上海2025年8月15日 /美通社/ -- 在數字化轉型浪潮與數據安全需求的雙重驅動下,瀾起科技今日重磅推出第六代津逮? 性能核 CPU (以下簡稱 C6P )。這款融合突破性架構、全棧兼容性
    的頭像 發表于 08-15 13:09 ?733次閱讀

    AI 服務器電源如何迭代升級?

    AI 算力需求增長的今天,AI 服務器電源正陷入 “性能瓶頸與國產替代并行、場景適配與技術創新交織” 的雙重挑戰。 由Big-Bit商務網、廣東省磁性元器件行業協會主辦的2025中國
    的頭像 發表于 06-23 14:51 ?1366次閱讀

    曙光數創推出液冷數據中心全生命周期定制新服務

    AI 算力爆發式增長的當下,液冷技術已成為數據中心突破散熱瓶頸、支撐高密度算力的必選項。但液冷服務落地面臨著多重挑戰:
    的頭像 發表于 06-13 14:45 ?1432次閱讀

    RAKsmart服務器如何重塑AI高并發算力格局

    AI大模型參數量突破萬億級、實時推理需求激增的當下,傳統服務器架構的并發處理能力已逼近物理極限。RAKsmart通過“硬件重構+軟件定義”的雙引擎創新,推出新一代AI
    的頭像 發表于 04-03 10:37 ?910次閱讀

    大功率AI服務器PSU的革新之路

    控制策略在交錯TTP PFC中扮演著重要角色。它是如何從AI服務器電源發展趨勢出發,憑借獨特的技術優勢,為AI服務器的穩定高效運行保駕護航的
    的頭像 發表于 03-10 15:07 ?2159次閱讀
    大功率<b class='flag-5'>AI</b><b class='flag-5'>服務器</b>PSU的革新之路

    AI服務器液冷散熱如何實現動態平衡?

    ? 隨著AI大模型訓練與推理需求的爆發式增長,高功率密度服務器的熱管理正面臨前所未有的挑戰。當GPU集群功率突破20kW/柜時,傳統風冷系統的散熱效率已逼近物理極限,液冷技術憑借其單位
    的頭像 發表于 03-06 17:32 ?1341次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>服務器</b><b class='flag-5'>液冷</b>散熱如何實現動態平衡?