国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

百度智算峰會精彩回顧:應(yīng)用驅(qū)動(dòng)的數(shù)據(jù)中心計(jì)算架構(gòu)演進(jìn)

NVIDIA英偉達(dá) ? 來源:未知 ? 2022-12-27 21:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在今日舉行的“2022 百度云智峰會·智算峰會”上,NVIDIA 解決方案工程中心高級技術(shù)經(jīng)理路川分享了以“應(yīng)用驅(qū)動(dòng)的數(shù)據(jù)中心計(jì)算架構(gòu)演進(jìn)”為題的演講,探討 GPU 數(shù)據(jù)中心的發(fā)展趨勢,以及介紹 NVIDIA 在構(gòu)建以 GPU 為基礎(chǔ)的數(shù)據(jù)中心架構(gòu)方面的實(shí)踐經(jīng)驗(yàn)。以下為內(nèi)容概要。

應(yīng)用對算力需求的不斷增長

以 GPU 為核心的分布式計(jì)算系統(tǒng)已經(jīng)成為大模型應(yīng)用重要的一環(huán)

數(shù)據(jù)中心的發(fā)展是由應(yīng)用驅(qū)動(dòng)的。隨著 AI 的興起、普及,AI 大模型訓(xùn)練在各領(lǐng)域的逐步應(yīng)用,人們對數(shù)據(jù)中心的 GPU 算力、GPU 集群的需求在飛速增長。傳統(tǒng)的以 CPU 為基礎(chǔ)的數(shù)據(jù)中心架構(gòu),已很難滿足 AI 應(yīng)用的發(fā)展需求,NVIDIA 也一直在探索如何構(gòu)建一個(gè)高效的以 GPU 為基礎(chǔ)的數(shù)據(jù)中心架構(gòu)。

今天我將從三個(gè)方面跟大家一起探討這個(gè)話題:一,應(yīng)用驅(qū)動(dòng);二,NVIDIA 最新一代 GPU SuperPOD 的架構(gòu)設(shè)計(jì);三,未來 GPU 數(shù)據(jù)中心、GPU 集群的發(fā)展趨勢 。

我們首先看下近幾年 AI 應(yīng)用的發(fā)展趨勢。總體上來講,應(yīng)用業(yè)務(wù)對計(jì)算的需求是不斷飛速增長。我們以目前最流行的三個(gè)業(yè)務(wù)方向?yàn)槔f明。

6ff18624-85e8-11ed-bfe3-dac502259ad0.png

第一個(gè)應(yīng)用場景,AI 應(yīng)用。我們可以從最左邊的圖表中可以看到,近 10 年 CV 和 NLP 模型的變化,這兩類業(yè)務(wù)場景是 AI 領(lǐng)域最流行、最成功,也是應(yīng)用范圍最為廣泛的場景。在圖表中我們可以看到,CV 從 2012 年的 AlexNet 到最新的 wav2vec,模型對計(jì)算的需求增長了 1,000 倍。

NLP 模型在引入 Transformer 結(jié)構(gòu)后,模型規(guī)模呈指數(shù)級增長,Transformer 已成為大模型、大算力的代名詞。目前 CV 類的應(yīng)用也逐步引入 Transformer 結(jié)構(gòu)來構(gòu)建相關(guān)的 AI 模型,不斷提升應(yīng)用性能。數(shù)據(jù)顯示在最近兩年內(nèi)關(guān)于 Transformer AI 模型的論文增長了 150 倍,而非 Transformer 結(jié)構(gòu)的 AI 模型相關(guān)論文增長了大概 8 倍。

我們可以看到人們越來越意識到大模型在 AI 領(lǐng)域的重要性,和對應(yīng)用帶來的收益。同時(shí)大模型也意味著算力的需求的增長,以及對數(shù)據(jù)中心計(jì)算集群需求的增長。

第二個(gè)應(yīng)用場景,數(shù)字孿生、虛擬人等模擬場景與 AI 的結(jié)合也是最近兩年的應(yīng)用熱點(diǎn)。人們通過數(shù)字孿生、虛擬人可以更好地對企業(yè)生產(chǎn)流程進(jìn)行管控,線上虛擬交互有更好的體驗(yàn),這背后都需要要巨大的算力資源來滿足渲染、實(shí)時(shí)交互等功能。

第三個(gè)應(yīng)用場景,量子計(jì)算,也是最近幾年我們計(jì)算熱點(diǎn)的技術(shù)。量子計(jì)算是利用量子力學(xué),可以比傳統(tǒng)的計(jì)算機(jī)更快地解決復(fù)雜的問題。量子計(jì)算機(jī)的發(fā)展還處在非常前期的階段,相關(guān)的量子算法的研究和應(yīng)用也需要大量的算力做模擬支撐。

前面我們提到了 AI 大模型的業(yè)務(wù)應(yīng)用,為什么要用到大模型,大模型可以給我們帶來什么樣的收益?

701bf95e-85e8-11ed-bfe3-dac502259ad0.png

在右圖中我們可以看到 1.5B GPT-2 和 MT-NLG 在 150B-270B 不同參數(shù)規(guī)模下對應(yīng)用精度的影響。

我們可以清楚地看到大模型對應(yīng)用精度的效果,尤其是對復(fù)雜、泛化的業(yè)務(wù)場景的表現(xiàn)尤為突出。同時(shí)大模型在預(yù)測(inference)端正在快速發(fā)展,優(yōu)化特定場景、特定行業(yè)的性能,優(yōu)化預(yù)測端計(jì)算資源使用等,相信在不久的將來會有更多像 ChatGPT 一樣令人驚嘆的應(yīng)用在行業(yè)落地。這都將會推動(dòng)大模型基礎(chǔ)研究,推動(dòng)對訓(xùn)練大模型所需算力的建設(shè)。一個(gè)以 GPU 為基礎(chǔ)的分布式計(jì)算系統(tǒng)也是大模型應(yīng)用所必須的。

AI 大模型訓(xùn)練為什么要用到 GPU 集群,用到更大規(guī)模的 GPU?它能給我們的訓(xùn)練帶來什么樣的收益?這邊我們用兩個(gè)實(shí)際的例子作為參考。

一個(gè)應(yīng)用是 BERT 340M 參數(shù)規(guī)模,使用 Selene A100 SuperPOD 集群,訓(xùn)練完成則需要 0.2 分鐘,在使用 1/2 個(gè)集群規(guī)模,訓(xùn)練完成需要 0.4 分鐘,使用 1/4 個(gè)集群規(guī)模下訓(xùn)練完成則需要 0.7 分鐘。我們可以看到在小參數(shù)規(guī)模下,使用幾十臺 DGX A100 也可以快速完成整個(gè)訓(xùn)練任務(wù),對于整個(gè)訓(xùn)練的迭代影響并不大。

另一個(gè)是 Megatron 530B 參數(shù)規(guī)模的 NLP 大模型,訓(xùn)練這個(gè) 530B 參數(shù)的大模型,使用整個(gè) Selene SuperPOD 集群資源則需要 3.5 周、近一個(gè)月的時(shí)間才能完成,而使用 1/2、1/4 集群節(jié)點(diǎn)規(guī)模的情況下,則需要數(shù)月的訓(xùn)練時(shí)間才能完成整個(gè)訓(xùn)練,這對于大模型研發(fā)人員來說是不可接受的。另外研發(fā)人員的時(shí)間成本是非常寶貴的,研究到產(chǎn)品化的時(shí)間也是非常關(guān)鍵的,我們不可能把時(shí)間浪費(fèi)在訓(xùn)練等待上。

在管理層面,構(gòu)建一個(gè) GPU 集群,通過集群的作業(yè)調(diào)度和管理系統(tǒng),可以優(yōu)化調(diào)度各種類型、各種需求的 GPU 任務(wù),使用集群的 GPU 資源,以最大化利用 GPU 集群。在 Facebook 的一篇論文中提到,通過作業(yè)調(diào)度管理系統(tǒng),F(xiàn)acebook AI 超級計(jì)算系統(tǒng)上每天可以承載 3.5 萬個(gè)獨(dú)立的訓(xùn)練任務(wù)。

因此,GPU 規(guī)模和集群管理對于提升分布式任務(wù)的運(yùn)行效率非常關(guān)鍵。

集群的最關(guān)鍵的地方就是通信,集群任務(wù)的調(diào)試優(yōu)化重點(diǎn)也是在使用各種并行方式優(yōu)化通信策略。在 GPU 集群中,通信主要分為兩個(gè)部分,一個(gè)是節(jié)點(diǎn)內(nèi)通信,一個(gè)是節(jié)點(diǎn)間通信。

70449b2a-85e8-11ed-bfe3-dac502259ad0.png

在左圖中我們可以看到節(jié)點(diǎn)間通信 NVLink 對于它的重要性。圖中示例使用 tensor 并行的方式,在節(jié)點(diǎn)間分別采用 NVLink 和采用 PCIe 4.0 進(jìn)行通信的對比,我們可以看到,NVLink 環(huán)境下程序的通信時(shí)間僅需 70ms(毫秒),而 PCIe 環(huán)境下通信時(shí)間則需要 656ms,當(dāng)用多個(gè)節(jié)點(diǎn)組成的集群環(huán)境下差距會更加明顯。

在右圖中,我們使用 7.5B 的 AI 模型,采用 TPS=4,PPS=1,數(shù)據(jù)并行 DPS=64 的情況下,在 32 個(gè)集群的節(jié)點(diǎn)規(guī)模下,不同網(wǎng)卡對分布式訓(xùn)練任務(wù)的影響。紫色部分代表了通信占比,綠色代表計(jì)算時(shí)間占比。我們可以清晰地看到網(wǎng)卡數(shù)量、網(wǎng)絡(luò)帶寬對分布式應(yīng)用的性能的影響。

GPU 集群應(yīng)用于 AI 訓(xùn)練也是最近幾年才逐步在客戶中開始應(yīng)用。在 AI 發(fā)展的早期,模型較小,大部分采單機(jī)多卡或是多機(jī)數(shù)據(jù)并行的方式進(jìn)行訓(xùn)練,所以對 GPU 集群的要求并不是很高。2018 年 11 月,NVIDIA 第一次推出基于 DGX-2 的 SuperPOD 架構(gòu),也是看到 AI 發(fā)展的趨勢,看到了 AI 應(yīng)用對 GPU 分布式集群在 AI 訓(xùn)練中的需求。

SuperPOD 的架構(gòu)也在不斷地演進(jìn)和優(yōu)化。通過 NVIDIA 實(shí)戰(zhàn)經(jīng)驗(yàn)和性能優(yōu)化驗(yàn)證,SuperPOD 可以幫助客戶迅速構(gòu)建起屬于自己的高性能 GPU 分布式集群。

NVIDIA 最新一代 Hopper GPU 架構(gòu)下 SuperPod 的集群拓?fù)?/strong>

下面我來簡單介紹下,最新一代 Hopper GPU 架構(gòu)下 SuperPOD 的集群拓?fù)洹?/p>

計(jì)算節(jié)點(diǎn)采用 Hopper 最新的 GPU,相比較與 Ampere GPU 性能提升 2~3 倍。計(jì)算性能的提升需要更強(qiáng)的網(wǎng)絡(luò)帶寬來支撐,所以外部的網(wǎng)絡(luò)也由原來的 200Gb 升級為 400Gb,400Gb 的網(wǎng)絡(luò)交換機(jī)可以最多支撐到 64 個(gè) 400Gb 網(wǎng)口,所以每個(gè)計(jì)算 POD 由原來的 20 個(gè)變?yōu)?32 個(gè)。更高的計(jì)算密度,在一個(gè) POD 內(nèi) GPU 直接的通信效率要更高。

NDR Infiniband 網(wǎng)絡(luò)、AR、SHARP、SHIELD 等新的特性,在路由交換效率、聚合通信加速、網(wǎng)絡(luò)穩(wěn)定性等方面有了進(jìn)一步的提升,可以更好的支持分布式大規(guī)模 GPU 集群計(jì)算性能和穩(wěn)定性。在存儲和管理網(wǎng)絡(luò)方面,增加了智能網(wǎng)卡的支持,可以提供更多的管理功能,適應(yīng)不同客戶的需求。

未來數(shù)據(jù)中心 GPU 集群架構(gòu)的發(fā)展趨勢:

計(jì)算、互聯(lián)、軟件

下面,站在 NVIDIA 的角度,我們再來探討一下,未來數(shù)據(jù)中心 GPU 集群的架構(gòu)發(fā)展趨勢。整個(gè) GPU 的集群主要有三個(gè)關(guān)鍵因素,分別是:計(jì)算、互聯(lián)和軟件。

706c1eca-85e8-11ed-bfe3-dac502259ad0.png

一,計(jì)算。集群的架構(gòu)設(shè)計(jì)中,單節(jié)點(diǎn)計(jì)算性能越高,越有優(yōu)勢,所以在 GPU 選擇上我們會采用最新的 GPU 架構(gòu),這樣會帶來更強(qiáng)的 GPU 算力。

在未來兩年,Hopper 將成為 GPU 分布式計(jì)算集群的主力 GPU。Hopper GPU 我相信大家已經(jīng)很了解,相關(guān)特性我在這就不在贅述。我只強(qiáng)調(diào)一個(gè)功能,Transformer 引擎。

在上文應(yīng)用的發(fā)展趨勢里,我們也提到了以 Transformer 為基礎(chǔ)的 AI 大模型的研究。Transformer 也是大模型分布式計(jì)算的代名詞,在 Hopper 架構(gòu)里新增加了 Transformer 引擎,就是專門為 Transformer 結(jié)構(gòu)而設(shè)計(jì)的 GPU 加速單元,這會極大地加速基于 Transformer 結(jié)構(gòu)的大模型訓(xùn)練效率。

二,互聯(lián)。GPU 是 CPU 的加速器,集群計(jì)算的另外一個(gè)重要組成部分是 CPU。NVIDIA 會在 2023 年發(fā)布基于 Arm 72 核、專為高性能設(shè)計(jì)的 Grace CPU,配置 500GB/s LPDDR5X 內(nèi)存,900GB/s NVLink, 可以跟 GPU 更好地配合,輸出強(qiáng)大的計(jì)算性能。

基于 Grace CPU,會有兩種形態(tài)的超級芯片,一是 Grace+Hopper,二是 Grace+Grace。

Grace+Hopper,我們知道 GPU 作為 CPU 加速器,并不是所有應(yīng)用任務(wù)都適用于 GPU 來加速,其中很關(guān)鍵的一個(gè)點(diǎn)就是 GPU 和 CPU 之間的存儲帶寬的瓶頸,Grace+Hopper 超級芯片就是解決此類問題。

在 Grace Hopper 超級芯片架構(gòu)下,GPU 可以通過高速的 NVLink 直接訪問到 CPU 顯存。對于大模型計(jì)算,更多應(yīng)用遷移到GPU上加速都有極大的幫助。

Grace+Grace ,是在一個(gè)模組上可以提供高達(dá) 144 CPU 核,1 TB/s LPDDR5X 的高速存儲,給集群節(jié)點(diǎn)提供了強(qiáng)勁的單節(jié)點(diǎn)的 CPU 計(jì)算性能,從而提升整個(gè)集群效率。

70f99ac0-85e8-11ed-bfe3-dac502259ad0.png

之前我們所熟知的 NVLink,都是應(yīng)用在節(jié)點(diǎn)內(nèi) GPU 和 GPU 之間的互聯(lián)。在 Grace Hopper 集群下,NVLink 可以做到節(jié)點(diǎn)之間互聯(lián),這樣節(jié)點(diǎn)之間 GPU-GPU,或 GPU-CPU,或 CPU-CPU 之間,都可以通過高速的 NVLink 進(jìn)行互聯(lián),可以更高效地完成大模型的分布式計(jì)算。

在未來也許我們可以看到更多業(yè)務(wù)應(yīng)用遷移到 Grace+Hopper 架構(gòu)下,節(jié)點(diǎn)之間的 NVLlink 高速互聯(lián)也許會成為一個(gè)趨勢,更好地支持 GPU 分布式計(jì)算。

智能網(wǎng)卡在集群中的應(yīng)用,首先智能網(wǎng)卡技術(shù)并不是一個(gè)新的技術(shù),各家也有各家的方案,傳統(tǒng)上我們可以利用智能網(wǎng)卡把云業(yè)務(wù)場景下的 Hypervisor 管理、網(wǎng)絡(luò)功能、存儲功能等卸載到智能網(wǎng)卡上進(jìn)行處理,這樣可以給云客戶提供一個(gè)云生的計(jì)算資源環(huán)境。NVIDIA 智能網(wǎng)卡跟百度也有很深的合作,包括 GPU 集群裸金屬方案也都配置了 NVIDIA 智能網(wǎng)卡進(jìn)行管理。

在非 GPU 的業(yè)務(wù)場景下,我們看到智能網(wǎng)卡對 HPC 應(yīng)用業(yè)務(wù)的加速,主要是在分子動(dòng)力學(xué),氣象和信號處理應(yīng)用上,通過對集群中聚合通信的卸載,我們可以看到應(yīng)用可以獲得 20% 以上的收益。智能網(wǎng)卡技術(shù)也在不斷更新、升級,業(yè)務(wù)場景也在不斷探索。相信在未來的 GPU 集群上會有更多的業(yè)務(wù)或優(yōu)化加速可以使用到智能網(wǎng)卡技術(shù)。

三,軟件。數(shù)據(jù)中心基礎(chǔ)設(shè)施是基礎(chǔ)底座,如何能夠更高效、快速、方便地應(yīng)用到基礎(chǔ)架構(gòu)變革所帶來的優(yōu)勢,軟件生態(tài)的不斷完善和優(yōu)化是關(guān)鍵。

針對不同的業(yè)務(wù)場景,NVIDIA 提供了 SuperPOD、OVX 等數(shù)據(jù)中心基礎(chǔ)設(shè)施的參考架構(gòu),可以幫助用戶構(gòu)建最優(yōu)的數(shù)據(jù)中心基礎(chǔ)設(shè)施架構(gòu)。

上層提供了各種軟件加速庫,如 cuQuantum 可以幫助客戶直接在 GPU 集群上模擬量子算法計(jì)算,Magnum IO 用來加速數(shù)據(jù)中心 GPU 集群和存儲系統(tǒng)的訪存 IO 效率,提升整個(gè)集群計(jì)算效率。

在未來會有更多的軟件工具、行業(yè) SDK,來支撐數(shù)據(jù)中心架構(gòu)的使用,讓各領(lǐng)域的研發(fā)人員不需要了解底層細(xì)節(jié),更加方便、快速地使用到數(shù)據(jù)中心 GPU 集群的的最優(yōu)性能。


原文標(biāo)題:百度智算峰會精彩回顧:應(yīng)用驅(qū)動(dòng)的數(shù)據(jù)中心計(jì)算架構(gòu)演進(jìn)

文章出處:【微信公眾號:NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    23

    文章

    4087

    瀏覽量

    99181

原文標(biāo)題:百度智算峰會精彩回顧:應(yīng)用驅(qū)動(dòng)的數(shù)據(jù)中心計(jì)算架構(gòu)演進(jìn)

文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    1分鐘帶你了解數(shù)據(jù)中心供電架構(gòu) #電子元器件 #數(shù)據(jù)中心 #供電架構(gòu)

    數(shù)據(jù)中心
    沛城芯動(dòng)力
    發(fā)布于 :2026年02月03日 15:39:04

    百度地圖開放平臺與400萬開發(fā)者共赴智能時(shí)空新未來

    二十年星辰大海,十五載開放引航。2025年,百度地圖迎來服務(wù)用戶的二十周年,其開放平臺亦走過了與開發(fā)者并肩同行的十五個(gè)春秋。在近期舉行的“2025百度地圖開發(fā)者盛典”上,百度地圖開放平臺回顧
    的頭像 發(fā)表于 01-23 09:03 ?696次閱讀
    <b class='flag-5'>百度</b>地圖開放平臺與400萬開發(fā)者共赴智能時(shí)空新未來

    電力重構(gòu):AI力狂潮下,數(shù)據(jù)中心UPS系統(tǒng)的極限挑戰(zhàn)與范式轉(zhuǎn)移

    ?當(dāng)數(shù)千張GPU芯片在數(shù)據(jù)中心里以近乎狂暴的并行計(jì)算驅(qū)動(dòng)著大模型的訓(xùn)練與推理,一場靜默卻深刻的能源革命正在機(jī)柜下方發(fā)生。人工智能力的指數(shù)級爆發(fā),不僅重塑了上層應(yīng)用生態(tài),更以最直接、最
    的頭像 發(fā)表于 12-31 08:26 ?438次閱讀
    電力重構(gòu):AI<b class='flag-5'>算</b>力狂潮下,<b class='flag-5'>數(shù)據(jù)中心</b>UPS系統(tǒng)的極限挑戰(zhàn)與范式轉(zhuǎn)移

    派恩杰SiC器件在數(shù)據(jù)中心中的應(yīng)用

    從傳統(tǒng)互聯(lián)網(wǎng)數(shù)據(jù)中心(IDC)到人工智能數(shù)據(jù)中心(AIDC)的演進(jìn),本質(zhì)上是一場能源效率與力密度的極限競賽。AI力的爆發(fā)正將
    的頭像 發(fā)表于 12-24 15:47 ?2179次閱讀
    派恩杰SiC器件在<b class='flag-5'>數(shù)據(jù)中心</b>中的應(yīng)用

    Arm架構(gòu)計(jì)算平臺驅(qū)動(dòng)融合型AI數(shù)據(jù)中心變革

    的意義遠(yuǎn)不止于一個(gè)統(tǒng)計(jì)數(shù)字,更重要的是它們構(gòu)成了融合型人工智能 (AI) 數(shù)據(jù)中心這一新型基礎(chǔ)設(shè)施的計(jì)算核心。從云原生服務(wù)到最具挑戰(zhàn)性的 AI 工作負(fù)載,超大規(guī)模云服務(wù)提供商正逐步將基于 Arm 的定制化計(jì)算作為標(biāo)準(zhǔn)路徑,以此實(shí)
    的頭像 發(fā)表于 12-15 14:51 ?557次閱讀

    48V電壓在數(shù)據(jù)中心計(jì)算平臺中至關(guān)重要

    、以及更簡化的電力系統(tǒng)。然而,無論發(fā)生怎樣迅速的變化,有一個(gè)電壓值仍然是當(dāng)今數(shù)據(jù)中心計(jì)算平臺的核心,那就是48V DC。 隨著這些新型HVDC架構(gòu)的出現(xiàn),48V電壓似乎顯得更成熟,甚至像是過渡技術(shù),是電信系統(tǒng)或上幾代服務(wù)器的遺留產(chǎn)物。但現(xiàn)實(shí)要復(fù)雜得多,特別
    的頭像 發(fā)表于 12-05 14:03 ?641次閱讀

    華為數(shù)字能源2025中東中亞數(shù)據(jù)中心創(chuàng)新峰會圓滿召開

    華為數(shù)字能源“2025中東中亞數(shù)據(jù)中心創(chuàng)新峰會”在沙特利雅得圓滿召開。本次峰會匯聚200余位來自數(shù)據(jù)中心產(chǎn)業(yè)的領(lǐng)袖精英、技術(shù)大咖、協(xié)會專家、企業(yè)代表及上下游生態(tài)伙伴,圍繞智
    的頭像 發(fā)表于 12-01 13:21 ?545次閱讀

    大沖能源亮相2025國際數(shù)據(jù)中心及云計(jì)算產(chǎn)業(yè)展覽會

    近日,2025國際數(shù)據(jù)中心及云計(jì)算產(chǎn)業(yè)展覽會在上海新國際博覽中心盛大啟幕。作為全球數(shù)據(jù)中心及云計(jì)算領(lǐng)域的重要盛會,本次展會吸引了全球數(shù)
    的頭像 發(fā)表于 11-25 11:30 ?486次閱讀

    格靈深瞳精彩亮相百度世界2025大會

    11月13日,百度世界2025大會在北京國家會議中心二期舉辦。活動(dòng)期間,格靈深瞳與百度進(jìn)行深入交流,并圍繞VLM、AI Infra、應(yīng)用場景等話題展開全面分享。
    的頭像 發(fā)表于 11-19 17:09 ?764次閱讀

    2025百度世界大會精彩回顧

    百度創(chuàng)始人李彥宏在演講時(shí)表示,“我們更關(guān)心如何讓AI跟我們要做的每一項(xiàng)任務(wù),都能夠進(jìn)行有機(jī)的結(jié)合,讓AI成為企業(yè)發(fā)展和個(gè)人成長的原生推動(dòng)力。”
    的頭像 發(fā)表于 11-17 15:01 ?726次閱讀

    華為數(shù)字能源亮相2025開放數(shù)據(jù)中心大會

    AI變革,點(diǎn)燃網(wǎng)引擎”為主題,云集全球數(shù)據(jù)中心領(lǐng)域權(quán)威專家、頭部企業(yè)代表、高校學(xué)者,聚焦電協(xié)同、液冷、邊緣計(jì)算等熱門話題,深度探討和分享智
    的頭像 發(fā)表于 09-11 13:50 ?1173次閱讀

    睿海光電以高效交付與廣泛兼容助力AI數(shù)據(jù)中心800G光模塊升級

    引領(lǐng)AI時(shí)代網(wǎng)絡(luò)變革:睿海光電的核心競爭力 在AI時(shí)代,數(shù)據(jù)中心正經(jīng)歷從傳統(tǒng)架構(gòu)向AI工廠與AI云的轉(zhuǎn)型。AI工廠依賴超大規(guī)模GPU集群驅(qū)動(dòng)大模型訓(xùn)練,要求網(wǎng)絡(luò)具備超高帶寬與超低延遲;AI云則為多
    發(fā)表于 08-13 19:01

    華為面向拉美地區(qū)發(fā)布全新星河AI數(shù)據(jù)中心網(wǎng)絡(luò)方案

    在華為數(shù)據(jù)通信創(chuàng)新峰會2025拉美站期間,以“星河AI數(shù)據(jù)中心網(wǎng)絡(luò),賦AI時(shí)代新動(dòng)能”為主題的分論壇上,華為面向拉美地區(qū)發(fā)布全新升級的星河AI數(shù)據(jù)中心網(wǎng)絡(luò)方案。該方案依托AI大腦、AI
    的頭像 發(fā)表于 08-11 10:42 ?2323次閱讀

    適用于數(shù)據(jù)中心和AI時(shí)代的800G網(wǎng)絡(luò)

    ,成為新一代AI數(shù)據(jù)中心的核心驅(qū)動(dòng)力。 AI時(shí)代的兩大數(shù)據(jù)中心:AI工廠與AI云 AI時(shí)代催生了兩類數(shù)據(jù)中心架構(gòu): AI工廠:用
    發(fā)表于 03-25 17:35

    優(yōu)化800G數(shù)據(jù)中心:高速線纜、有源光纜和光纖跳線解決方案

    隨著技術(shù)的飛速發(fā)展,數(shù)據(jù)中心正在從100G和400G演進(jìn)到800G時(shí)代,對高速數(shù)據(jù)傳輸?shù)男枨笈c日俱增。因此,選擇高效且可靠的布線解決方案對于800G數(shù)據(jù)中心至關(guān)重要。本文將深入探討80
    發(fā)表于 03-24 14:20