近日,?Google?AI負責(zé)人Jeff?Dean發(fā)推文表示,在最新一輪MLPerf基準(zhǔn)測試中,Google新的ML超級計算機和最新的Tensor處理單元(TPU)芯片,打破了6項MLPerf基準(zhǔn)測試記錄。
這6個模型分別是用于排名與推薦的DLRM模型;常用于自然語言處理的Transformer;還有Google搜尋所使用的BERT模型;廣泛用于圖像分類的ResNet-50模型;可在移動設(shè)備上執(zhí)行的輕量級物體偵測模型SSD;以及圖像分割模型Mask?R-CNN。

谷歌在博客中披露,該超級計算機包括4096個TPU?V3芯片和CPU數(shù)百個主機上的,并提供超過430?PFLOPs的峰值性能。較前一代TPU?v3相比,擁有兩倍的矩陣乘法效能,而且存儲器頻寬大幅增加,內(nèi)部相連技術(shù)也獲得改善,利用MLPerf基準(zhǔn)測試比較TPU?v4和TPU?v3,TPU?v4平均效能提升2.7倍,最大的效能差異是用于訓(xùn)練Mask?R-CNN,TPU?v4的效能是TPU?v3的3.7倍。
Google使用TensorFlow、JAX和Lingvo中的機器學(xué)習(xí)模型實作,從零開始訓(xùn)練Transformer、SSD、BERT以及ResNet-50模型,訓(xùn)練時間皆在30秒之內(nèi)。而在2015年時,即便用最快的硬件加速器,訓(xùn)練其中一種模型,都需要花費3個多星期,現(xiàn)今相當(dāng)于把相同模型的訓(xùn)練速度提升5個數(shù)量級。
責(zé)任編輯:pj
-
芯片
+關(guān)注
關(guān)注
463文章
54024瀏覽量
466366 -
Google
+關(guān)注
關(guān)注
5文章
1807瀏覽量
60536 -
AI
+關(guān)注
關(guān)注
91文章
39866瀏覽量
301517 -
MLPerf
+關(guān)注
關(guān)注
0文章
37瀏覽量
972
發(fā)布評論請先 登錄
深蘭科技國際業(yè)務(wù)迎來新一輪布局推進
如何評估憶聯(lián)Gen5 eSSD UH812a在AI場景中的性能表現(xiàn)
星融元完成新一輪融資,攜手產(chǎn)業(yè)資本加速AI網(wǎng)絡(luò)市場布局
智行者科技完成新一輪4億元人民幣融資
上海泰矽微宣布完成新一輪近億元融資
汽車芯片企業(yè)芯必達完成新一輪融資
聯(lián)盛德微電子獲得新一輪數(shù)千萬元戰(zhàn)略投資
上揚軟件與晶睿電子啟動新一輪深度合作項目
蘇州傳感器芯片IDM廠商“矩陣光電”獲新一輪融資
商湯醫(yī)療完成數(shù)億元新一輪戰(zhàn)略融資
億鑄科技完成新一輪融資
CEO被撤職后,美國激光雷達大廠 Luminar 開啟新一輪裁員
新一輪的工業(yè)“智變”
Google推出第七代TPU芯片Ironwood
Google在最新一輪MLPerf基準(zhǔn)測試中推出最新的Tensor處理單元芯片
評論