疫情所致,英偉達今年的GTC(GPU Technology Conference)改為線上舉辦,日期也由原來的3月下旬推遲到5月中旬。于是,就有了北京時間5月14日晚,英偉達創始人兼CEO黃仁勛人生中首次的“Kitchen Keynote”。嗯,或許這篇也可以取名為《疫情當前,GPU大佬廚房帶貨忙》。
當然,姍姍來遲的GTC并沒有讓人失望,豪橫的硬菜有:全球最大的7nm處理器 A100 GPU、可用于對抗COVID-19的最新AI系統DGX A100、收購Mellanox以來的首個成果SmartNIC,這些創新直接彰顯了這位GPU霸主對于未來數據中心的理解,以及堅決捍衛既有地位的決心。同時,還有對于邊緣市場、自動駕駛、醫療、AI機器人、對話式AI等領域的無限擴張。
第八代GPU A100成全球最大7nm處理器,堪稱英偉達史上最大性能飛躍
過去的一年內,英偉達的第八代GPU曾引發了業界的諸多猜測。也正如他早先放風出來“你不會失望的”,這款基于英偉達Ampere架構的NVIDIA A100,將AI訓練和推理性能提高20倍,可以說是英偉達GPU迄今為止最大的性能飛躍。作為一款通用型工作負載加速器,A100還被設計用于數據分析、科學計算和云圖形。云計算和AI的強大趨勢正在推動數據中心設計的結構性轉變,高效的加速計算基礎架構正在取代傳統的服務器架構。黃仁勛對A100 GPU寄予厚望,認為它“作為一個端到端的機器學習加速器,有史以來首次在一個平臺上實現橫向擴展以及縱向擴展的負載的加速。在提高吞吐量的同時,能夠降低數據中心的成本。”
A100 GPU的突破來源于五大關鍵性創新:
NVIDIA Ampere架構:這是A100的核心,該架構包含超過540億個晶體管,這使其成為全球最大的7nm處理器;
具有TF32的第三代TensorCore核心:TensorCore被英偉達廣泛采用,現在變得更加靈活且易于使用,使FP32精度下的AI性能提高多達20倍。此外,TensorCore核心現在支持FP64精度,相比前代,它為HPC應用所提供的算力提高了2.5倍。
多實例GPU: MIG,這是一種全新的技術功能,可將單個A100 GPU分割為七個獨立的GPU,為不同規模的工作提供不同的算力,將利用率和效率最大化。
第三代NVIDIA NVLink:使GPU之間的高速聯結增加至原來的兩倍,實現服務器的高效擴展。
結構化稀疏:這種全新的效率技術利用AI數學固有的稀疏性,使性能提升了一倍。
憑借這些新功能,A100可成為AI訓練和推理以及科學模擬、對話式AI、推薦系統、基因組學、高性能數據分析、地震建模和金融預測等各種高要求工作負載的理想選擇。
據了解,A100已全面投產并已向全球客戶交付。眾多全球云服務供應商和系統構建商計劃將A100 GPU集成到其產品中,其中包括:阿里云、AWS、百度智能云、思科、Dell Technologies、富士通、Google Cloud、新華三、HPE、浪潮、聯想、Microsoft Azure、甲骨文、騰訊云等等。
新系統已搭載A100,首批訂單用于對抗COVID-19
同時發布的還有NVIDIA DGX A100系統,內置8個由NVLink 互聯的A100 GPU,具有5Petaflops的AI性能。利用AI00的多實例GPU功能,每臺DGX A100能夠被分割為56個實例,用于加速多個小型工作負載的處理速度。憑借這些功能,用戶可在一個完全集成的軟件定義平臺上根據自身需求優化算力和資源,加快數據分析、訓練和推理等各種工作負載的速度。針對端到端的機器學習工作流,從數據分析到訓練再到推理構建的AI系統,DGX A100提供的性能,能夠幫助機器學習工程師應對指數級增長的AI模型和數據。
據了解,多家全球大型企業、服務供應商和政府機構以及訂購了前幾批DGX A100。首批系統已于本月早些時候交付給了美國能源部(U.S. Department of Energy, DOE)的阿貢國家實驗室(Argonne National Laboratory),該實驗室將運用該集群的AI和算力來更好地研究和應對COVID-19。
阿貢國家實驗室計算機、環境和生命科學實驗室副主任Rick Stevens表示,全新DGX A100提供的算力,將幫助研究人員探索治療方法和研發疫苗、研究病毒的傳播方式,使科學家能夠利用AI加速工作,在數月甚至數日內完成以前需要數年才能完成的工作。
英偉達還展示了由140臺DGX A100系統組成的DGX SuperPOD AI超級計算機,用于公司內部對話式AI、基因組學和自動駕駛等領域的研究。該集群是全球速度最快的AI超級計算機之一,其性能相當于此前數千臺服務器的性能,AI計算能力高達700 Petaflops。
面向新一代數據中心的安全加速智能網卡
根據市場研究機構Dell’Oro的數據顯示,預計到2024年,智能網卡(SmartNIC)市場規模將超過6億美元,占全球以太網適配器市場的23%。而整體控制器和適配器市場將以7%的年復合增長率增長,其中25Gbps和100Gbps的銷售將是主要增長驅動力。英偉達顯然早已看到這一巨大的機會,收購Mellanox以來首個發布就是25G安全智能網卡(SmartNIC)。據了解,全新發布的ConnectX-6 Lx SmartNIC就是面向新一代解耦式的、可重組的數據中心的經濟高效、可加速應用的和安全的智能網卡,是ConnectX系列網卡的第11代產品。
這款產品專為滿足現代化數據中心的需求而設計,在這個市場,25Gb/s網絡已成為各種主流應用的標準,例如企業級應用、AI和實時分析等。這款全新的SmartNIC充分利用了軟件定義和硬件加速等先進技術,將更多的安全和網絡處理工作從CPU卸載到網卡上來。
就在今年3月份,賽靈思推出了一體化SmartNIC Alveo U25,通過將SmartNIC平臺與FPGA引擎相結合,實現全可編程與一站式加速應用。賽靈思的這款產品賣點之一就是實現了網絡、存儲、計算加速能力的全集成。
而英偉達的這款ConnectX-6 Lx更強調的是安全加速功能。包括IPsec在線加密和硬件信任根(Hardware Root of Trust),可提升10倍性能的連接追蹤(Connection Tracking)功能等,實現了整個數據中心的在零信任下的安全保障(Zero Trust security)。RoCE(RDMA over converged Ethernet)技術、虛擬化和容器化技術,以及NVMe over Fabrics存儲卸載技術等,都成為高性能可擴展網絡的保障。
SmartNIC正在成為加速計算的下一個必爭之地。
云原生技術支持的EGX邊緣AI平臺
巨大的邊緣計算市場自然也是英偉達的重點。本次發布的兩款EGX邊緣AI 平臺產品分別是:適用于較大型商業通用服務器上的 EGX A100聚合加速器,和適用于微型邊緣服務器的微型EGX Jetson Xavier NX。這兩款產品能夠在邊緣提供安全、高性能的AI處理能力。
EGX A100是首個基于NVIDIA Ampere架構的邊緣AI產品,結合了NVIDIA Ampere架構所具有的突破性計算性能與ConnectX-6 Dx SmartNIC所具備的網絡加速和關鍵性安全功能,能將標準型和專用型的邊緣服務器轉變為安全的云原生AI超級計算機。隨著AI日益向邊緣發展,企業機構可將EGX A100添加到其服務器中,從而實時處理和保護來自邊緣傳感器的海量流式數據。
EGX Jetson Xavier NX則號稱是全球體積最小、性能最強大的AI超級計算機,適用于微型服務器和邊緣智能物聯網盒。目前,生態圈內的合作伙伴已提供了超過20種解決方案。該產品將NVIDIA Xavier SoC的性能整合到了一個信用卡大小的模塊中。運行EGX云原生軟件堆棧的EGX Jetson Xavier NX可以快速處理來自多個高分辨率傳感器的流式數據。
這兩款產品可滿足不同尺寸、成本和性能方面的需求。例如搭載了EGX A100的服務器可以管理機場中的數百臺攝像頭,而EGX Jetson Xavier NX則可用于管理便利店中的少量攝像頭。但是,云原生技術支持能夠確保整個EGX產品家族都可以使用同一經過優化的AI軟件構建和部署AI應用。
黃仁勛表示:“物聯網和AI的融合已開啟了“萬物智能”革命。就像手機行業通過智能手機為用戶提供智能服務一樣,大型行業現在也可以為用戶提供智能互聯的產品和服務。EGX邊緣AI平臺能夠將標準服務器轉變為一個小型的云原生、安全型AI數據中心。借助于我們的AI應用框架,企業可以構建從智能零售到機器人工廠再到自動化呼叫中心等各類AI服務。”
結語
英偉達1999年發明GPU后激發了PC游戲市場的增長,重新定義了現代計算機顯卡,并且對并行計算進行了革新。加速計算迅猛發展的25年,也是計算架構、計算系統與軟件堆棧風馳電掣般演進的25年。以GPU深度學習為代表的技術已經點燃了全新的計算時代——現代人工智能,同時也帶動了CUDA軟件生態的繁榮和開發者數量的迅猛增長。
世界總在前行中,科技也在不斷創新。但科技總是為了讓生活更美好,正如黃仁勛在今年的Keynote中首先致敬疫情期間堅守在各自工作崗位的普通人,平凡背后蘊藏的巨大能量。黃仁勛仍在挖掘GPU背后的強大潛力。
本文由電子發燒友網原創,未經授權禁止轉載。如需轉載,請添加微信號elecfans999.
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。
舉報投訴
-
gpu
+關注
關注
28文章
5194瀏覽量
135461 -
AI2020
+關注
關注
1文章
22瀏覽量
6247
發布評論請先 登錄
相關推薦
熱點推薦
豪言自家芯片比英偉達GPU強10倍,這家AI公司再獲融資
的 “復仇者聯盟” 正在硅谷悄然集結,他們創立的 MatX 公司剛剛完成 5 億美元 B 輪融資,豪言要打造性能 10 倍于英偉達 GPU 的專用 AI 芯片,試圖在通用芯片與專用芯片
國產GPU再下一城,群起突圍英偉達+AMD
上市。 ? 根據Jon Peddie Research的數據,獨立GPU市場英偉達一家獨大,近年來持續維持超80%的市場份額,而AMD公司則占據剩余近20%的市場份額。自人工智能市場爆發式增長
英偉達+聯發科,打入游戲本市場?
合作,通過更低的功耗,實現RTX 4070同級的性能,并搭載在更輕薄的機身內。 ? APU(Accelerated Processing Unit,加速處理單元)是AMD推出的一種處理器架構概念,主要理念是將CPU和GPU集成在
英偉達Rubin GPU采用鉆石銅散熱,解決芯片散熱難題
散熱難題帶來了新的曙光。 ? 隨著AI大模型、云計算的迭代提速,芯片算力與功耗同步飆升。英偉達新一代Vera Rubin GPU堪稱“算力巨獸”,它搭載第三代Transformer引擎
黃仁勛:英偉達AI芯片訂單排到2026年 英偉達上季營收加速增長62%再超預期
預計本財季的營收將保持60%以上的增速。 從業務層面來看,數據中心業務仍然是英偉達最核心的增長引擎。該季度,數據中心業務實現銷售額 512 億美元,同比增長 66%,超越分析師 490.9 億美元的預期。其中,以 GPU 為主的
看點:英偉達將在韓國部署26萬枚GPU 中國服務器龍頭超聚變籌備上市 中芯國際控股公司增資至59.5億美元
給大家帶來一些業界新聞: 英偉達將在韓國部署26萬枚GPU 據外媒報道,在10月31日,英偉達公司宣布將與韓國政府及三星電子、SK集團、現代
英偉達發布 NVQLink 開放系統架構;國內首個汽車芯片標準驗證平臺投入使用
計算機相連接。 ? 英偉達首席執行官黃仁勛在主題演講中表示,該系統有望奠定混合量子-經典計算系統的技術基礎,并將其比作“量子時代的羅塞塔石碑”(Rosetta Stone)。 ? “在
發表于 10-29 10:33
?1224次閱讀
傳英偉達自研HBM基礎裸片
"后的下一代AI GPU "Feynman"。 ? 有分析指出,英偉達此舉或是將部分GPU功能集成到基礎裸片中,旨在提高HBM和GPU的整體
aicube的n卡gpu索引該如何添加?
請問有人知道aicube怎樣才能讀取n卡的gpu索引呢,我已經安裝了cuda和cudnn,在全局的py里添加了torch,能夠調用gpu,當還是只能看到默認的gpu0,顯示不了gpu1
發表于 07-25 08:18
英偉達擬再推中國特供GPU,今年6月量產!
電子發燒友網綜合報道 近年來,美國政府對華半導體出口管制政策不斷收緊,英偉達等半導體企業面臨嚴峻挑戰。為保持在中國市場的競爭力,英偉達推出了多款特供版
發表于 05-27 00:03
?4797次閱讀
GPU 維修干貨 | 英偉達 GPU H100 常見故障有哪些?
上漲,英偉達H100GPU憑借其強大的算力,成為AI訓練、高性能計算領域的核心硬件。然而,隨著使用場景的復雜化,H100服務器故障率也逐漸攀
英偉達、高通布局AI投資版圖,這些明星企業被收入囊中!
電子發燒友原創 章鷹 今年以來,AI界新秀DeepSeek帶來的大模型平權推動AI應用,云計算市場景氣度上行,推動資本開支增長。對于DeepSeek的橫空出世,英偉達CEO黃仁勛表示,
新思科技攜手英偉達加速芯片設計,提升芯片電子設計自動化效率
宣布在英偉達 Grace Blackwell 平臺上實現高達 30 倍的預期性能提升,加速下一代半導體的電路仿真 ? 摘要: 在今年GTC主題演講中,新思科技作為生態系統的一部分,展示
發表于 03-19 17:59
?494次閱讀
英偉達GPU有史以來最大性能飛躍!加速計算更加無所不在!
評論