當(dāng)?shù)貢r(shí)間4月3日,谷歌推出了一款新的移動(dòng)框架MobileNetV2,基于上一代MobileNet,這款模型能顯著提高多種計(jì)算機(jī)視覺(jué)任務(wù)。
去年我們推出了MobileNetV1,這是一款為移動(dòng)設(shè)備而設(shè)計(jì)的通用計(jì)算機(jī)視覺(jué)神經(jīng)網(wǎng)絡(luò)模型,它有分類、檢測(cè)等功能。這種可以在個(gè)人移動(dòng)設(shè)備上運(yùn)行深度網(wǎng)絡(luò)的能力極大地提升了用戶體驗(yàn),不僅能隨時(shí)隨地訪問(wèn),還非常安全、私密、省電。隨著新應(yīng)用的出現(xiàn),用戶可以與現(xiàn)實(shí)世界進(jìn)行實(shí)時(shí)交互,同樣對(duì)更高效的深度網(wǎng)絡(luò)也有更多的需求。
今天,我們很高興宣布MobileNetV2已經(jīng)可以支持下一代移動(dòng)視覺(jué)應(yīng)用。MobileNetV2在MobileNetV1上做出了重大改進(jìn),并推動(dòng)了目前移動(dòng)設(shè)備的視覺(jué)識(shí)別技術(shù)的發(fā)展,包括圖像分類、檢測(cè)和語(yǔ)義分割。MobileNetV2作為TensorFlow-Slim圖像分類庫(kù)的一部分發(fā)布,或者您可以在Colaboratory中探索MobileNetV2。另外,您還可以利用Jupyter下載筆記本并進(jìn)行使用。MobileNetV2也可以作為TF-Hub上的模塊使用,預(yù)訓(xùn)練的檢查點(diǎn)可以在GitHub上找到。
MobileNetV2的創(chuàng)建基于MobileNetV1的思想,使用深度可分離卷積作為高效的構(gòu)建模塊。然而,V2在架構(gòu)中引入了兩種新特征:
圖層間的線性瓶頸層
瓶頸層之間的快捷連接
基本結(jié)構(gòu)如圖所示:

可以看到,瓶頸對(duì)模型的中間輸入和輸出進(jìn)行編碼,而內(nèi)層包括了模型能將低級(jí)概念(如像素)轉(zhuǎn)換為高級(jí)描述符(如圖像類別)的能力。最后,剩余的連接和傳統(tǒng)一樣,快速連接可實(shí)現(xiàn)更快的訓(xùn)練速度和更高的準(zhǔn)確性。具體細(xì)節(jié)可以查看論文:MobileNetV2:Inverted Residuals and Linear Bottlenecks:https://arxiv.org/abs/1801.04381。
它與第一代MobileNets相比如何?
總體而言,在整個(gè)延遲頻譜中,MobileNetV2模型在相同精度下的速度更快。特別的是,新模型所用的操作次數(shù)減少了2次,參數(shù)減少了30%,在谷歌pixel手機(jī)上的速度比V1快了30%~40%,同時(shí)達(dá)到了更高的準(zhǔn)確性。

MobileNetV2在目標(biāo)物體檢測(cè)和分割時(shí)是一個(gè)非常高效的特征提取器。例如,當(dāng)與新發(fā)布的SSDLite合作進(jìn)行物體檢測(cè)時(shí),新模型在做到與V1同樣準(zhǔn)確的情況下,速度快了35%。我們已經(jīng)在TensorFlow目標(biāo)物體檢測(cè)API中開(kāi)源了此模型。

為支持移動(dòng)設(shè)備的語(yǔ)義分割,我們將MobileNetV2當(dāng)做特征提取器安裝在簡(jiǎn)化版的DeepLabv3上。在語(yǔ)義分割的基準(zhǔn)PASCAL VOC 2012中,我們的結(jié)果與將V1作為特征提取器實(shí)現(xiàn)了相似的性能,但是參數(shù)少了5.3倍,在乘加運(yùn)算上操作次數(shù)減少了5.2倍。

由此可見(jiàn),MobileNetV2作為許多視覺(jué)識(shí)別任務(wù)的基礎(chǔ),是移動(dòng)設(shè)備上高效的模型。我們希望與學(xué)術(shù)界和開(kāi)源社區(qū)共享,以此幫助更多人的研究和應(yīng)用發(fā)展。
-
谷歌
+關(guān)注
關(guān)注
27文章
6254瀏覽量
111391 -
計(jì)算機(jī)視覺(jué)
+關(guān)注
關(guān)注
9文章
1715瀏覽量
47628
原文標(biāo)題:谷歌推出MobileNetV2,為下一代移動(dòng)設(shè)備CV網(wǎng)絡(luò)而生
文章出處:【微信號(hào):jqr_AI,微信公眾號(hào):論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
上海計(jì)算機(jī)視覺(jué)企業(yè)行學(xué)術(shù)沙龍走進(jìn)西井科技
使用代理式AI激活傳統(tǒng)計(jì)算機(jī)視覺(jué)系統(tǒng)的三種方法
谷歌芯片實(shí)現(xiàn)量子計(jì)算新突破,比超算快13000倍
STM32計(jì)算機(jī)視覺(jué)開(kāi)發(fā)套件:B-CAMS-IMX攝像頭模塊技術(shù)解析
【作品合集】賽昉科技VisionFive 2單板計(jì)算機(jī)開(kāi)發(fā)板測(cè)評(píng)
加固計(jì)算機(jī)是用來(lái)干什么的?
易控智駕榮獲計(jì)算機(jī)視覺(jué)頂會(huì)CVPR 2025認(rèn)可
工業(yè)計(jì)算機(jī)的重要性
自動(dòng)化計(jì)算機(jī)經(jīng)過(guò)加固后有什么好處?
自動(dòng)化計(jì)算機(jī)的功能與用途
工業(yè)計(jì)算機(jī)與商用計(jì)算機(jī)的區(qū)別有哪些
一文帶你了解工業(yè)計(jì)算機(jī)尺寸
計(jì)算機(jī)網(wǎng)絡(luò)入門指南
NVIDIA 宣布推出 DGX Spark 個(gè)人 AI 計(jì)算機(jī)
谷歌推出新的移動(dòng)框架MobileNetV2提高多種計(jì)算機(jī)視覺(jué)任務(wù)
評(píng)論