Nvidia表示,已通過今年早些時候推出的A100 GPU芯片,擴大了在MLPerf Benchmark上進行AI推理的領先優勢。Nvidia在第二版MLPerf Inference中贏得了針對數據中心和邊緣計算系統的六個應用程序測試中的每一個。這些測試是對最初的兩個計算機視覺基準測試的擴展-AI測試現在包括推薦系統,自然語言理解,語音識別和醫學成像。
行業觀察家Moor Insights&Strategy的HPC和機器學習高級分析師Karl Freund評論說,與Nvidia的展示一樣令人印象深刻,還應該注意,某些原本有望參加MLPerf競賽的公司卻沒有參加。。
弗洛伊德說:“英偉達在競爭激烈的競爭者中表現出色。” 與(Nvidia)V100(GPU)相比,他們的A100效果驚人,證明了其增強的Tensor核心架構的價值。我贊揚MLPerf添加了新的基準,這些基準越來越代表快速增長的推理機會,例如推薦引擎。
Freund說:“話說回來,競爭要么是因為客戶項目太忙,要么是他們的芯片還沒有準備好。” “例如,SambaNova(人工智能系統平臺)宣布與LLNL建立新的合作伙伴關系,而英特爾Habana(可編程深度學習加速器)仍在醞釀中。如果我仍在芯片創業公司,我將等待運行MLPerf(一個昂貴的項目),直到我已經獲得了一些燈塔客戶。
英偉達在其結果公告中表示,其A100的AI推理速度比CPU快237倍。
Nvidia加速計算部總經理兼副總裁Ian Buck表示:“每個行業都在尋求更好的方式來應用AI提供新服務和發展業務,這是我們的轉折點。” “我們為在MLPerf上實現這些結果而進行的工作使公司的AI性能達到了新的水平,從而改善了我們的日常生活。”
Nvidia表示,該公司及其合作伙伴使用Nvidia的加速平臺(包括Nvidia數據中心GPU,Edge AI加速器和Nvidia優化的軟件)提交了MLPerf 0.7結果。Nvidia A100于今年早些時候推出,具有第三代Tensor內核和多實例GPU技術,在ResNet-50測試中的領先優勢得到了提高,比上一輪的CPU高出30倍,是6倍。該公司補充說,它的GPU在公共云中的AI推理能力首次超過了CPU,并表示Nvidia GPU上的云AI推理總能力每兩年增長約10倍。
責任編輯:lq
-
NVIDIA
+關注
關注
14文章
5594瀏覽量
109758 -
機器學習
+關注
關注
66文章
8553瀏覽量
136962 -
GPU芯片
+關注
關注
1文章
307瀏覽量
6519 -
MLPerf
+關注
關注
0文章
37瀏覽量
970
發布評論請先 登錄
生命科學領先企業采用 NVIDIA BioNeMo 平臺加速 AI 驅動的藥物研發
NVIDIA 推出 Alpamayo 系列開源 AI 模型與工具,加速安全可靠的推理型輔助駕駛汽車開發
NVIDIA擴大與微軟合作推動AI超級工廠建設
什么是AI模型的推理能力
使用NVIDIA NVLink Fusion技術提升AI推理性能
信而泰×DeepSeek:AI推理引擎驅動網絡智能診斷邁向 “自愈”時代
華為AI WAN在智算邊緣推理網絡中的關鍵優勢
英偉達GTC2025亮點:Oracle與NVIDIA合作助力企業加速代理式AI推理
英偉達GTC2025亮點:NVIDIA與行業領先存儲企業共同推出面向AI時代的新型企業基礎設施
英偉達GTC25亮點:NVIDIA Blackwell Ultra 開啟 AI 推理新時代
英偉達GTC25亮點:NVIDIA Dynamo開源庫加速并擴展AI推理模型
Oracle 與 NVIDIA 合作助力企業加速代理式 AI 推理
NVIDIA 與行業領先的存儲企業共同推出面向 AI 時代的新型企業基礎設施
NVIDIA 推出開放推理 AI 模型系列,助力開發者和企業構建代理式 AI 平臺
Nvidia擴大了在MLPerf Benchmark上進行AI推理的領先優勢
評論