在這個以高性能計算和大模型推動未來通用人工智能時代,算力已成為科技發展的隱形支柱。本文將重點探討算力的演進,深入分析在不同領域中算力如何成為推動進步的基石;著眼于液冷如何突破算力瓶頸成為引領未來的先鋒,對液冷散熱的三種方式(冷板式、浸沒式和噴淋式)做了詳細的對比分析、成本測算和市場空間預測。并為您提供一份“實用教程”,指導如何將普通服務器改裝為液冷服務器,以應對越來越復雜的計算需求。
如果您錯過了精彩的的英偉達2024GTC大會,小編特地為您總結其6大亮點,見文末。
算力演進:世界模型
視角下的技術需求變化
談及大模型,最近大火的大模型莫過于Sora視頻模型。Sora標志著計算機視覺的重大進展,是首個展現高級"涌現"能力的視頻生成模型。它依托于強大的Diffusion Transformer架構和大量高質量數據,帶來視頻技術的飛躍——類似于GPT-3在語言模型中的突破。Sora的創新點在于時間-空間壓縮、去噪的Transformer處理,以及CLIP風格的調節,可根據GPT-4加強的指令生成精準視頻。
一、Video Encoding:將視頻信息有效地轉化為機器理解的方法至關重要
Sora解決了視頻生成中一個關鍵挑戰:如何處理視頻數據的多樣性和復雜性,包括不同分辨率和寬高比,以及比文本和圖片更豐富的信息,如空間、時間和內容。它的一大創新是制定了一種能夠統一不同視頻類型的表示方法,對大量多維視覺數據進行有效的大規模訓練。


Sora 技術報告中的 Encoding 模式
Sora的初步工作是將復雜的視頻內容轉化成機器能夠處理的潛在特征,類似于大語言模型中文本的tokenization。不同之處在于視頻的轉換不僅需要保留內容信息,還要維護時間和二維空間位置,而語言模型僅涉及內容和一維位置。鑒于單幀視頻像素量巨大,轉化過程也起到了數據壓縮作用,目前的做法是將每幀壓縮到16×16或32×32的規模。


視頻生成模型 Patch 方法對比
Transformer模型由于不能直接處理高維數據,因此Sora通過將視頻數據分割成時空圖像塊來訓練。一種方法是把每一幀分解成若干小塊,然后按時間順序排列為一維數組;另一種方法是把視頻片段分成立體圖像塊,包含時間和空間信息,雖然計算更復雜,但能獲取更連貫的時空信息。


Sora 生成不同比例的視頻內容保存度更好
Sora視頻生成模型的一大創新是能夠適應自由寬高比的視頻生成,同時確保關鍵元素的完整性。不同于傳統模型如ViT,要求圖像塊大小固定且輸入為正方形,Sora可能使用了名為“Patch n’ Pack”的技術,容許處理多樣化的輸入分辨率和寬高比。該技術使圖像塊的大小可以靈活調整,適應不同的視頻要求,并將來自不同圖像的塊整合到一起,實現更高效率的訓練。此外,通過識別圖像塊間的相似度,可以丟棄重復內容,從而進一步提速訓練過程。


Navit 的數據處理方法
二、模型的核心部分:Diffusion Transformer
Sora是基于Transformer的Diffusion Model。模型結構最初由 Scalable Diffusion Models with Transformers 這篇論文提出,也就是 DiTs。


DiT 的核心架構
Stable Diffusion包括三個關鍵組成部分,各自由獨立的神經網絡構成:
1、文本編碼器
利用Transformer模型將文本中的每個單詞或Token轉換為向量。
2、圖像信息生成器
這是Stable Diffusio的核心,它結合文本向量特征和初始噪聲創建含有圖像信息的數據。
3、圖像解碼器
把上述數據轉換回清晰的圖像。
Sora在其圖像信息生成器部分,用Transformer取代U-Net,以保留其伸縮性和高效性等特點。繼其后Google的Genie和Snap的Snap Videos皆采用ST-Transformer。
Sora的研究表明,視頻生成模型采用Transformer后,模型能力的提升與計算資源和模型規模成正比,與GPT3.0發布時證實的大模型潛力相似。OpenAI的實驗也驗證了增加算力,如32倍于基礎情況,能顯著提高視頻生成的質量。


不同算力下 Sora 生成視頻的對比
三、大語言模型訓練和推理對計算資源的需求分布不同


大語言模型最新發展追蹤
目前AI模型呈現出以下競爭激烈和快速更新的發展趨勢:
1、長上下文處理
新模型如Gemini1.5和Kimi已能處理百萬級別Token,對內存和處理能力都提出較高要求。
2、多模態理解
能理解圖片、視頻和音頻的大模型成為未來發展趨勢,但處理這些風格的數據也將增加對內存需求。
3、MOE模型
Mixtral、Gemini1.5、Grok等模型應用了GPT的MOE(Mixture-of-Experts)技術,能夠處理各種不同類型的問題,雖然增加了模型參數,但在推理階段由于只需調用部分子模型,計算效率仍得以提升。


大語言模型訓練和推理過程的計算需求分布
大模型在訓練和推理過程中對計算資源的需求各不相同。訓練階段需要大量算力和網絡帶寬。推理過程的預填充階段對算力和內存需求較大,解碼階段則更依賴于內存帶寬、內存大小和低網絡延遲。
在大語言模型的訓練中,系統會一次性預測整個句子中的每個Token的下一個Token,并計算所有位置的Token的損失來進行優化。這個過程可以并行計算,所需的算力和集群規模較大,因此對機器間的網絡帶寬要求也相對較高。


大語言模型訓練過程
大語言模型的推理過程分為兩個階段:
首先是Prefill階段,也稱為預處理階段。在此階段,模型會進行一次計算密集型的操作,計算并存儲每一層的key和value。這個過程雖然只進行一次,但對每個請求的提示(prompt)來說都是必需的。該計算過程主要對矩陣進行并行乘法運算,并將結果儲存在所謂的KV緩存中,這是大語言模型的關鍵組成部分。
其次模型進入到解碼階段,這是一個串行操作過程,主要負責生成新的Token。模型采用自回歸方式,利用已生成的和先前所有的Token作為輸入,預測并生成下一個Token。這包含兩個主要步驟:第一利用預處理階段創建的KV緩存計算并輸出下一個Token的嵌入;第二在計算過程中,當前Token在每一層的key和value會被計算并存儲,并更新到預處理階段的KV緩存中。通過這種方式,模型可以持續優化其預測,確保生成序列既連貫又具有邏輯性。
四、對算力需求的影響:Patch/Token 數量的大幅提高對內存容量需求有積極影響


視頻生成模型與大語言模型對計算資源的不同需求
視頻生成模型相較于大語言模型在算力需求上的主要差異在于:視頻模型需要處理的Patch數量遠多于文本的Token數量。視頻的Patch數量與其時長(T)、寬度(W)、高度(H)及每幀的Patch密度(Ps)密切相關。在Transformer模型中,影響計算復雜度的關鍵因素是Self-Attention層,其處理難度與Patch數量平方成正比。同時,訓練期間還需儲存大量Self-Attention層的計算中間結果,占用的存儲空間也與Patch數量的平方成正比。
以Sora可以生成的1080P、30幀/秒、60秒時長視頻為例,在32x32的Patch密度下,總Patch數量可以超過180萬。而最新的大語言模型Gemini 1.5 Pro的Token上限是100萬。考慮到Sora估計的參數規模為20到50億,雖然比GPT-4少了一個數量級,但其Patch的平均數量至少多了兩個數量級,導致推理過程中內存需求的大幅躍升。因此,更大的算力和內存將使模型產生更高分辨率和更長的視頻。同樣,針對同一提示,更大的模型參數量能產生更好的視頻效果,但相應地需要更多的算力和內存。
五、對算力需求的影響:推理時算力需求的增長大于內存速率需求的增長


Diffusion 模型推理生成圖片的過程
雖然Sora和GPT的核心都是Transformer,但在推理邏輯上,Sora的DiT與大語言模型存在差異。Diffusion根據多個時間步驟迭代生成,基于隨機噪聲潛在矩陣,每一步都會逐步精細化圖像、視頻以逼近輸入的提示。優化后大約需要20步就能獲得性能和效果的平衡。
GPT等大語言模型采用Decoder-Only Transformer架構,通過自回歸方式預測下一個Token,對內存帶寬需求極大,屬于內存密集型任務。而Sora的DiT是Encoder-Only Transformer架構,在每一步的推理過程中,會一次性輸出全部長度的Patch,減少對計算卡內存訪存次數,屬于計算密集型任務。

目前用于訓練和推理計算卡的算力/內存對比
受制于美國禁令,國內特供的H20在算力上相較于H100受到限制,不過在內存帶寬上有所提高,意味著在大語言模型(LLM)的推理任務中,H20比H100性能要高出約10%。然而,對于視頻生成模型,H20由于算力被限制,相比H100在性能上有顯著劣勢。
Groq的芯片以SRAM為基礎,內存帶寬高達80TB/s,其在Token生成速度上遠超GPT和Gemini系列,但這種設計在視頻生成模型的推理中沒有優勢。綜上所述,對于高質量視頻生成模型來說,未來的趨勢是需求將傾向于更高的算力和更大的顯存容量,而非內存帶寬;因此,配備高算力和大顯存的芯片更適合視頻生成模型的推理任務。而在內存帶寬方面,即使是GDDR也足以滿足需求。
突破算力瓶頸
液冷引領未來
NVIDIA首席執行官黃仁勛最近在2024年SIEPR經濟峰會上披露,新一代DGX GPU服務器將采用液冷技術,意味著液冷時代的加速到來。戴爾也專門為NVIDIA新一代AI GPU設計冷卻系統。
隨著AI服務器功耗的快速上升,有效的散熱解決方案的需求促進液冷技術的滲透。例如,Intel/AMD的主流CPU功耗已達到350W/400W,而NVIDIA的H100 GPU最大功耗可達700W,其未來產品B100預計功耗將達到1000W。華為Atlas 900 PoD單機柜最大功耗也已經超過46kW,遠超傳統風冷系統極限,液冷技術成為處理日益增加的單機柜功率的關鍵升級方案。
目前數據中心的液冷滲透率在2022年底僅為5%-8%,但預計在2023-2024年期間,芯片制造商、服務器廠商、IDC企業等產業鏈關鍵主體將加速布局液冷解決方案,2025年可能會出現訂單量大規模釋放。在未來3至5年內,國內數據中心的液冷滲透率預計將實現爆發式增長。據估算2025年,國內IDC液冷行業市場規模將達到約48.31億元,期間年均復合增長率為71.11%;預計到2028年,市場規模將增至約98.72億元,年均復合增長率預計為43.02%。


AI 助推液冷滲透率快速提升
一、數據中心面臨的挑戰
數據中心的能耗問題和散熱挑戰日益凸顯。依靠區域能源和環境優勢可減少用電及冷卻費用。在能源緊張和自然條件不佳下,提高數據中心能效和綠色運營成為行業趨勢。為此,我們需要確保產熱和移熱速率的一致性,同時提升能源使用效率。新型散熱技術的開發和應用是提升我國數據中心能效和環保發展的關鍵。
要保證數據中心穩定運作,關鍵是使冷卻系統與服務器產熱量保持同步。隨著單個機柜服務器數量的增加,散熱需求也在增長,這就要求持續創新散熱技術,尤其在風冷和液冷兩大散熱方式中尋求提高冷卻效率的方法。


不同類型冷卻系統對比
二、數據中心能耗分布
數據中心的散熱冷卻是能耗的主要部分,要在提高移熱速率的同時注意能效。能源利用效率(PUE)是評估數據中心能耗的關鍵指標,它是總能耗與IT設備能耗的比。理想情況是PUE接近1,即數據中心的能源更多地用于IT運作而非其他功耗。目前我國數據中心中有近半的能量用于散熱,顯示出PUE值偏高,意味著較高的冷卻成本及節能空間。


三、數據中心的冷板式液冷
液冷技術對數據中心的整個生命周期產生重要影響,包括設計、位置選擇、建設、交付及運維過程。液冷系統通過液體循環系統在冷卻液與需要降溫的設備間進行熱交換。冷卻水可以直接從機架上的CDU(冷卻分配單元)獲得,或由一個服務多個機架的集中式CDU提供。


數據中心液冷系統示意圖
數據中心液冷系統中冷板冷卻是目前主流技術,它屬于間接液冷方式。主要分為三種形式:間接液冷、單相直接液冷、兩相直接液冷。冷板冷卻技術通過液體在與IT設備芯片接觸的金屬板內流動進行熱交換,是一種高效的芯片級冷卻方法并廣泛應用。結合液冷和風冷,液體主要冷卻芯片,風冷用于硬盤等部件。與傳統的風冷系統相比較,冷板冷卻系統更節能、噪音更低,并且不需依賴昂貴的水冷機組。


數據中心冷板式液冷系統
四、芯片級液冷與液冷服務器市場潛力巨大
液冷技術原始應用于機械加工和變壓器,但目前正迅速擴展至數據中心。該技術適應數據中心高熱流密度冷卻需求,成為解決高效芯片散熱的策略。瀕臨急需高效散熱的現實,芯片級液冷成為主導趨勢。散熱方式預期將發展為直接與芯片接觸式冷卻。政策支持和技術需求,尤其是人工智能等新興領域的推動,使芯片級液冷和液冷服務器市場前景廣闊。


全球數據中心平均功率情況
五、數據中心規模預測
當前中國數據中心行業正深入云服務階段,預計未來10年的市場潛力巨大,并有望在“十四五”期間保持約25%的年均增長率。自2000年以來,行業已從高速增長轉向穩步發展,并兩度出現增速放緩。2021年,數字經濟和東數西算等多重因素推動行業迅速發展,并出現短期增速。到了2023年,在投資策略、東數西算規范加嚴及人工智能需求激增等利好影響下,行業有望在“十四五”末期經歷新一輪增長。


六、液冷系統市場空間
液冷技術根據液體與器件的接觸形式大致可分為冷板式、浸沒式和噴淋式三種。冷板式通過間接接觸穩定散熱,技術成熟,改造成本低。浸沒式和噴淋式直接接觸發熱部件,但因成本和實際操作難度,應用并不廣泛,尤其是噴淋式對環境影響較大,應用相對較少。
冷板式液冷將發熱元件如CPU和GPU放置于液體流經的冷板上,有效率地導熱。如基于Intel和浪潮合作的高密服務器內部,采用冷板技術保持CPU等器件的冷卻。系統從室內的熱交換器將熱量轉移到室外的冷卻塔,完成循環。


冷板式液冷系統架構情況
浸沒式液冷系統通過直接將發熱器件浸入不導電的冷卻液中實現高效散熱。室內側,單相系統中元件直接浸于冷卻液中,而在兩相系統中,發熱器件被浸入低沸點液體中,液體吸熱沸騰并在冷凝器中變回液態,持續循環散熱。室外側相似于冷板式系統,熱液在室外冷卻塔釋放熱量后低溫回環,進行循環散熱。


浸沒式液冷系統架構情況
短期內,冷板式液冷因技術成熟、與現有系統兼容性好、維護方便和改造成本較低,非常適合AI時代對散熱的需求和數據中心從風冷向液冷的過渡階段。長期看,浸沒式液冷憑借其良好的導熱性能、高效的余熱回收能力和支持更高機柜功率的優勢,會更適合未來數據中心冷卻需求的演變,尤其是在機柜單元功率不斷增加的情況下,浸沒式液冷可以提供更高效的冷卻解決方案,并且助力降低數據中心的總體能源使用效率(PUE)。


三種液冷技術方案對比
隨著國內互聯網巨頭如百度、阿里、騰訊、華為等紛紛開發AI大模型,我們可依據以下假定進行預估:一臺AI服務器配備8塊GPU;邏輯推理功耗是訓練的10倍;10家公司的AI模型總功率是GPT3.5的10倍;數據中心的總功耗需考慮額外設備增加10%;冷板式與浸沒式液冷系統的成本比為7:3。按這些假定測算,液冷市場將因AI服務器需求,分別增長約44.4億元(冷板式)與47.6億元(浸沒式),共計約92億元增量。


七、不同制冷方式成本測算
據CDCC測算,冷板式液冷系統初期建設成本較低,運行成本有優勢,尤其是在電費支出方面。考慮到數據中心的10年生命周期,與傳統風冷系統相比,冷板式和單相浸沒液冷能分別減少成本15%和8%,其中冷板式在總體擁有成本(TCO)上的優勢更為顯著。


八、相關政策法規
2020年3月,中國提出推進新型基礎設施,包括數據中心建設,以滿足智能化和數字轉型需求。新基建以技術創新和數據驅動為核心,服務于高質量發展。數據中心是關鍵的算力基礎設施,隨著一線城市發展放緩,周邊區域新數據中心迅速崛起,全國范圍內政策支持新型基建發展。


我國數據中心正日益壯大,尤其是超大型數據中心。綠色發展已成必由之路,降低能源使用效率(PUE)是發展的關鍵。響應能耗問題,國家相關部門頒布政策,促進數據中心環保建設,專注于優化冷卻系統和能源管理。


實用教程——普通服務器
改裝液冷服務器
將普通服務器改裝成液冷服務器顯著提升其性能的穩定性,延長使用壽命,低噪運行;冷板與管線靈活布置以及散熱器的可配置性使空間使用更為靈活,有效降低能源消耗,保障服務器穩定運行。以下是改裝教程:
一、準備資料
主要工具和設備:
- 選用與服務器尺寸相適應的冷板
- 液冷插件
- 液體冷卻設備(泵和散熱器)
- 兼容冷板電源
二、安裝程序
1、斷開電源
確保服務器已關閉,與外部電源斷開連接。
2、拆卸服務器至裸機狀態
取下側板暴露服務器內部,取下所有電源線路,并帶防靜電手以防止靜電傷害敏感部件。
3、安裝冷板
將冷板安裝在CPU以及產生大量熱量的元器件上,如GPU等。
4、連接液冷系統
用管路將冷板、泵以及散熱器連接起來,使冷卻液在系統中流動,進行熱量傳輸。流動方向一般是從泵到冷板,再從冷板到散熱器。
5、更換電源
有些電源不適合冷板液冷,如有需要,更換為兼容電源。
6、安裝散熱器
選擇合適位置安裝散熱器和風扇(一般在服務器機箱外部,有些裝在內部),連接電源,使其可以工作。
7、檢查泄漏
在系統內注入冷卻液,打開泵,仔細查看每個接頭是否漏水。切記,在此檢查過程中,服務器應保持電源斷開狀態。
8、優化和調試
在成功安裝冷卻系統并檢查無泄漏后,再次運行服務器,檢查各部件溫度是否正常,液冷系統是否正常工作,如有需要,進行進一步優化。
三、注意事項
1、安裝液冷系統之前,詳細閱讀所有硬件設備說明書。
2、避免使用任何可能導致電荷態錯誤的工具。
3、液冷系統中使用的液體通常具備抗腐蝕和抗生物污染的特性,所以務必確保使用正確的液體。
4、在處理電子產品時務必謹慎。在操作過程中不慎引發的任何損害可能不享受保修條款的保護。
5、未經訓練的人嘗試安裝液冷系統可能會導致設備損壞,因此如果不熟悉這個過程,最好找有相關經驗的專業人士進行安裝。
附:GTC 2024六大亮點
北京時間3月19日凌晨,世界各地的頂尖技術精英齊聚一堂,共襄盛舉。英偉達GTC吸引無數科技界佼佼者前來現場。英偉達創始人及CEO黃仁勛的123分鐘演講回顧英偉達在加速計算領域走過的三十年歷程,提及CUDA的問世和向OpenAI交付第一臺AI超級計算機DGX等關鍵時刻。
演講焦點很快轉向生成式AI技術,宣布在EDA領域的一些重要合作。黃仁勛接著宣布英偉達的新旗艦AI芯片——Blackwell GPU,其性能和功能遠超前代產品Hopper,擁有更大尺寸、更新的FP8、FP6、FP4精度、以及更豐富的HBM內存和帶寬,極大提升性能。


在過去八年中,英偉達從Pascal架構躍升至Blackwell架構,AI計算性能提高1000倍。黃仁勛的最終目標是打造具有處理萬億參數級別GPU計算能力的最強AI基礎設施。
亮點一
英偉達推出全新的Blackwell GPU具有比上代提升2.5倍的訓練性能和在FP4精度下推理性能是上一代FP8的5倍。此外,第五代NVLink互連速度比Hopper快兩倍,支撐最多576個GPU拓展,有效解決萬億參數級混合專家模型帶來的通信瓶頸問題。

Blackwell GPU的六大核心技術革新:
1、Blackwell GPU被譽為世界上最強大的芯片,集成高達2080億顆晶體管,采用臺積電先進4NP制程,基于統一內存架構和雙芯配置,通過NVHyperfuse高達10TB/s的芯片間接口連接兩個GPU die,共享192GB HBM3e內存和8TB/s顯存帶寬,其單卡AI訓練算力高達20PFLOPS,相較于上一代Hopper的H100和H200,有了顯著的晶體管數量和性能的飛躍。


2、第二代Transformer引擎,整合微張量縮放支持與先進的動態范圍管理算法,通過與TensorRT-LLM和NeMo Megatron框架結合,為FP4精度的AI推理提供強大能力,并支持雙倍計算和模型規模,保持高精度的同時提升性能和效率。


3、第五代NVLink,為每個GPU提供1.8TB/s雙向帶寬,支撐多達576個GPU間的高速通信,滿足復雜大語言模型的通信要求。


4、RAS引擎,負責確保GPU的可靠性、可用性和可維護性,通過AI驅動的預防性維護進行診斷和預測,延長系統正常運行時間,降低運營成本。


5、安全AI,通過機密計算保護AI模型和客戶數據,不犧牲性能的同時支持新的本地接口加密協議。


6、解壓縮引擎,支持最新的數據格式,加速數據庫查詢,為數據分析和數據科學提供最高性能。


英偉達Blackwell GPU系列產品得到AWS、谷歌、Meta、微軟、OpenAI、特斯拉等的青睞。馬斯克甚至公開表示在AI領域找不到比英偉達更好的硬件產品。
有趣的是,此次對于Blackwell系列GPU的發布,英偉達更加強調整體系統性能而非單芯片性能。市場上有傳言,B100可能售價約3萬美元,而B200則為3.5萬美元,若定價漲幅不大,那么這個系列GPU的市場競爭力將非常可怕。性能提升之大,性價比遠遠超過上一代Hopper。
亮點二
英偉達高調推出Blackwell平臺完整體系,為萬億參數級的GPU計算量身定做,該平臺包括不同的關鍵組成部分:從基礎HGX B100整合型GPU、新一代的NVLink Switch、超性能GB200超級芯片計算節點,到全新的X800系列網絡交換機。
GB200 Grace Blackwell通過高速NVLink-C2C互連集成2個Blackwell GPU和1個英偉達Grace CPU,實現大范圍計算和內存的高效連接。此外,英偉達還推出多節點、液冷、機架級系統英偉達GB200 NVL72,提供720PFLOPSAI訓練性能和1.44EFLOPS的AI推理性能,內置30TB快速顯存,處理高達27萬億參數的語言模型。
Blackwell平臺不僅能大幅提升實時推理速度,而且通過先進的網絡擴展釋放更強的AI性能。新一代的DGX SuperPOD則由多個DGX GB200系統組成,采用液冷的機架級擴展架構,在FP4精度下提供11.5EFLOPSAI算力。


亮點三
英偉達發布數十個面向企業的生成式AI微服務,旨在提供包裝和交付軟件的全新方式,助力企業和開發者簡易部署多樣的AI模型。


英偉達在其硬件產品線基礎上,繼續發揮其在CUDA和生成式AI生態系統中所積累的技術優勢,推出一系列適用于企業級的生成式AI微服務。旨在簡化企業定制和部署AI Copilots(智能助手)的流程。企業不再需要從頭編寫軟件,而是可以通過組裝AI模型、指定任務、提供示例與審查計劃和結果方式來創建軟件。
NIM是英偉達提供的推理微服務的一個例子,它基于英偉達的加速計算庫和生成式AI模型構建,并支持標準API。這種微服務在英偉達廣泛的CUDA安裝基礎上運作,并已針對新一代的GPU進行了優化。企業現在能夠使用這些微服務在自己的平臺上創建和部署定制化的應用程序,同時保有知識產權和控制權。
為支持快速部署NIM微服務,英偉達將提供預先構建AI容器,這將允許開發人員將部署時間從幾周縮短到幾分鐘。該微服務還支持英偉達以及其它公司如AI21、Adept、Cohere等模型,同時也支持開放模型,比如谷歌、Hugging Face和Meta等公司的模型。用戶將能夠訪問亞馬遜SageMaker、谷歌Kubernetes引擎和微軟Azure AI上的NIM微服務,并與流行的AI框架集成。
亮點四
英偉達宣告與臺積電和新思科技的合作,光刻計算平臺cuLitho將正式投入生產,使光刻計算速度提高至40至60倍,并通過增強的生成式AI算法為2nm以上的高級制程開發注入助力。


亮點五
英偉達推出Project GROOT人形機器人基礎模型和新款Jetson Thor人形機器人計算機,同時對Isaac機器人平臺做出重大升級。黃仁勛還在現場展示一名由迪士尼研究公司打造的小型英偉達機器人,并與其進行互動。


亮點六
英偉達與蘋果強強聯手,將Omniverse平臺引入蘋果Vision Pro,宣布提供Omniverse Cloud API,加速工業數字孿生軟件工具的發展。


除上述更新,黃仁勛還分享了在其他領域的進展。在電信領域,英偉達即將推出6G研究云平臺,由生成式AI和Omniverse驅動,以推動無線通信技術發展。地球氣候數字孿生平臺Earth-2現在可用,通過交互式高分辨率仿真來加速氣候和天氣的預測。

醫療健康領域被認為是AI帶來最大影響的領域之一,英偉達在推動影像系統和基因測序儀器方面進行合作,并且推出新型的生物軟件。在汽車行業,全球最大的自動駕駛汽車公司比亞迪未來電動汽車將采用搭載英偉達Blackwell架構的新一代自動駕駛汽車處理器DRIVE Thor,預計明年開始量產。
審核編輯 黃宇
-
AI
+關注
關注
91文章
39793瀏覽量
301424 -
英偉達
+關注
關注
23文章
4087瀏覽量
99192 -
算力
+關注
關注
2文章
1532瀏覽量
16744 -
大模型
+關注
關注
2文章
3650瀏覽量
5184
發布評論請先 登錄
華為力挺!液冷服務器市場大爆發
英偉達微通道液冷板技術全解析:原理、工藝、優勢與產業適配
價格低于氟化液,新一代硅基浸沒液冷商用項目投用
2025年曙光數創全棧液冷技術重塑算力邊界
液冷技術冷卻液:AI算力浪潮下的創新引擎與產業圖景
立訊技術亮相英偉達GTC 2025大會
DeepSeek推動AI算力需求:800G光模塊的關鍵作用
英偉達GTC25亮點:NVIDIA Blackwell Ultra 開啟 AI 推理新時代
新思科技亮相英偉達GTC 2025大會
AI 算力報告來了!2025中國AI算力市場將達 259 億美元
液冷是大模型對算力需求的必然選擇?|英偉達 GTC 2024六大亮點
評論