国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)在人臉檢測中的應(yīng)用

WpOh_rgznai100 ? 來源:YXQ ? 2019-07-08 09:54 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在目標(biāo)檢測領(lǐng)域,可以劃分為人臉檢測與通用目標(biāo)檢測,往往人臉這方面會有專門的算法(包括人臉檢測、人臉識別、人臉其他屬性的識別等),并且和通用目標(biāo)檢測(識別)會有一定的差別。這主要來源于人臉的特殊性(譬如有時候目標(biāo)比較小、人臉之間特征不明顯、遮擋問題等),本文將主要從人臉檢測方面來講解目標(biāo)檢測。

目前主要的人臉檢測方法分類

當(dāng)前,人臉檢測方法主要包含兩個區(qū)域:傳統(tǒng)人臉檢測算法和基于深度學(xué)習(xí)的人臉檢測算法。傳統(tǒng)人臉檢測算法主要可以分為 4 類:

基于知識的人臉檢測方法;

基于模型的人臉檢測方法;

基于特征的人臉檢測方法;

基于外觀的人臉檢測方法。

2006 年,Hinton 首次提出深度學(xué)習(xí)(Deep Learning)的概念,它是通過組合低層的特征形成更高層的抽象特征。隨后研究者將深度學(xué)習(xí)應(yīng)用在人臉檢測領(lǐng)域,主要集中在基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的人臉檢測研究,如基于級聯(lián)卷積神經(jīng)網(wǎng)絡(luò)的人臉檢測(Cascade CNN)、基于多任務(wù)卷積神經(jīng)網(wǎng)絡(luò)的人臉檢測(MTCNN)、Facebox 等,很大程度上提高了人臉檢測的魯棒性。

當(dāng)然,像Faster RCNN、YOLO、SSD等通用目標(biāo)檢測算法也有用在人臉檢測領(lǐng)域,也可以實(shí)現(xiàn)比較不錯的結(jié)果,但是和專門人臉檢測算法比還是有差別。

如何檢測圖片中不同大小的人臉?

傳統(tǒng)人臉檢測算法中針對不同大小人臉主要有兩個策略:

縮放圖片的大小(圖像金字塔如圖 1 所示);

圖1 圖像金字塔

縮放滑動窗的大小(如圖 2 所示)。

圖 2 縮放滑動窗口

基于深度學(xué)習(xí)的人臉檢測算法中,針對不同大小人臉主要也有兩個策略,但和傳統(tǒng)人臉檢測算法有點(diǎn)區(qū)別,主要包括:

縮放圖片大小:不過也可以通過縮放滑動窗的方式,基于深度學(xué)習(xí)的滑動窗人臉檢測方式效率會很慢存在多次重復(fù)卷積,所以要采用全卷積神經(jīng)網(wǎng)絡(luò)(FCN),用 FCN 將不能用滑動窗的方法。

通過 anchor box 的方法:如圖 3 所示,不要和圖 2 混淆,這里是通過特征圖預(yù)測原圖的 anchorbox 區(qū)域,具體在 Facebox 中有描述。

圖 3 anchor box

如何設(shè)定算法檢測最小人臉尺寸?

主要是看滑動窗的最小窗口和 anchorbox 的最小窗口。

滑動窗的方法

假設(shè)通過 12×12 的滑動窗,不對原圖做縮放的話,就可以檢測原圖中 12×12 的最小人臉。

但是往往通常給定最小人臉 a=40、或者 a=80,以這么大的輸入訓(xùn)練 CNN 進(jìn)行人臉檢測不太現(xiàn)實(shí),速度會很慢,并且下一次需求最小人臉 a=30*30 又要去重新訓(xùn)練,通常還會是 12×12 的輸入,為滿足最小人臉框 a,只需要在檢測的時候?qū)υ瓐D進(jìn)行縮放即可:w=w×12/a。

anchorbox 的方法

原理類似,這里主要看 anchorbox 的最小 box,通過可以通過縮放輸入圖片實(shí)現(xiàn)最小人臉的設(shè)定。

如何定位人臉的位置

滑動窗的方式:

滑動窗的方式是基于分類器識別為人臉的框的位置確定最終的人臉。

圖 4 滑動窗

FCN 的方式:

通過特征圖映射到原圖的方式確定最終識別為人臉的位置,特征圖映射到原圖人臉框是要看特征圖相比較于原圖有多少次縮放(縮放主要查看卷積的步長和池化層)。

假設(shè)特征圖上(2,3)的點(diǎn),可粗略計(jì)算縮放比例為 8 倍,原圖中的點(diǎn)應(yīng)該是(16,24);如果訓(xùn)練的 FCN 為 12*12 的輸入,對于原圖框位置應(yīng)該是(16,24,12,12)。

當(dāng)然這只是估計(jì)位置,具體的在構(gòu)建網(wǎng)絡(luò)時要加入回歸框的預(yù)測,主要是相對于原圖框的一個平移與縮放。

通過 anchor box 的方式:

通過特征圖映射到圖的窗口,通過特征圖映射到原圖到多個框的方式確定最終識別為人臉的位置。

如何通過一個人臉的多個框確定最終人臉框位置?

圖 5 通過 NMS 得到最終的人臉位置

NMS 改進(jìn)版本有很多,最原始的 NMS 就是判斷兩個框的交集。如果交集大于設(shè)定的閾值,將刪除其中一個框。

那么兩個框應(yīng)該怎么選擇刪除哪一個呢?因?yàn)槟P洼敵鲇懈怕手担话銜?yōu)選選擇概率小的框刪除。

基于級聯(lián)卷積神經(jīng)網(wǎng)絡(luò)的人臉檢測(Cascade CNN)

Cascade CNN 的框架結(jié)構(gòu)是什么?

級聯(lián)結(jié)構(gòu)中有 6 個 CNN,3 個 CNN 用于人臉非人臉二分類,另外 3 個 CNN 用于人臉區(qū)域的邊框校正。

給定一幅圖像,12-net 密集掃描整幅圖片,拒絕 90% 以上的窗口。剩余的窗口輸入到 12-calibration-net 中調(diào)整大小和位置,以接近真實(shí)目標(biāo)。接著輸入到 NMS 中,消除高度重疊窗口。下面網(wǎng)絡(luò)與上面類似。

Cascade CNN 人臉校驗(yàn)?zāi)K原理是什么?

該網(wǎng)絡(luò)用于窗口校正,使用三個偏移變量:

Xn:水平平移量,Yn:垂直平移量,Sn:寬高比縮放。

候選框口(x,y,w,h)中,(x,y)表示左上點(diǎn)坐標(biāo),(w,h)表示寬和高。

我們要將窗口的控制坐標(biāo)調(diào)整為:

這項(xiàng)工作中,我們有種模式。偏移向量三個參數(shù)包括以下值:

同時對偏移向量三個參數(shù)進(jìn)行校正。

訓(xùn)練樣本應(yīng)該如何準(zhǔn)備?

人臉樣本;

非人臉樣本。

級聯(lián)的好處

最初階段的網(wǎng)絡(luò)可以比較簡單,判別閾值可以設(shè)得寬松一點(diǎn),這樣就可以在保持較高召回率的同時排除掉大量的非人臉窗口;

最后階段網(wǎng)絡(luò)為了保證足夠的性能,因此一般設(shè)計(jì)的比較復(fù)雜,但由于只需要處理前面剩下的窗口,因此可以保證足夠的效率;

級聯(lián)的思想可以幫助我們?nèi)ソM合利用性能較差的分類器,同時又可以獲得一定的效率保證。

基于多任務(wù)卷積神經(jīng)網(wǎng)絡(luò)的人臉檢測(MTCNN)

MTCNN 模型有三個子網(wǎng)絡(luò),分別是 P-Net,R-Net,O-Net。

為了檢測不同大小的人臉,開始需要構(gòu)建圖像金字塔,先經(jīng)過 PNet 模型,輸出人臉類別和邊界框(邊界框的預(yù)測為了對特征圖映射到原圖的框平移和縮放得到更準(zhǔn)確的框),將識別為人臉的框映射到原圖框位置可以獲取 patch,之后每一個 patch 通過 resize 的方式輸入到 RNet,識別為人臉的框并且預(yù)測更準(zhǔn)確的人臉框,最后 RNet 識別為人臉的的每一個 patch 通過 resize 的方式輸入到 ONet,跟 RNet 類似,關(guān)鍵點(diǎn)是為了在訓(xùn)練集有限情況下使模型更魯棒。

還要注意一點(diǎn):構(gòu)建圖像金字塔的的縮放比例要保留,為了將邊界框映射到最開始原圖上。

Facebox

(1)Rapidly Digested Convolutional Layers(RDCL)

在網(wǎng)絡(luò)前期,使用 RDCL 快速的縮小 feature map 的大小。主要設(shè)計(jì)原則如下:

Conv1, Pool1, Conv2 和 Pool2 的 stride 分別是 4, 2, 2 和 2。這樣整個 RDCL 的 stride 就是 32,可以很快把 feature map 的尺寸變小。

卷積(或 pooling)核太大速度就慢,太小覆蓋信息又不足。權(quán)衡之后,將 Conv1, Pool1, Conv2 和 Pool2 的核大小分別設(shè)為 7x7,3x3,5x5,3x3。

使用 CReLU 來保證輸出維度不變的情況下,減少卷積核數(shù)量。

(2)Multiple Scale Convolutional Layers(MSCL)

在網(wǎng)絡(luò)后期,使用 MSCL 更好地檢測不同尺度的人臉。主要設(shè)計(jì)原則有:

類似于 SSD,在網(wǎng)絡(luò)的不同層進(jìn)行檢測;

采用 Inception 模塊。由于 Inception 包含多個不同的卷積分支,因此可以進(jìn)一步使得感受野多樣化。

(3)Anchor densification strategy

為了 anchor 密度均衡,可以對密度不足的 anchor 以中心進(jìn)行偏移加倍,如下圖所示:

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人臉識別
    +關(guān)注

    關(guān)注

    77

    文章

    4127

    瀏覽量

    88457
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5598

    瀏覽量

    124396

原文標(biāo)題:深度學(xué)習(xí)在人臉檢測中的應(yīng)用 | CSDN 博文精選

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    瑞芯微(EASY EAI)RV1126B 人臉檢測使用

    野外準(zhǔn)確高效的人臉檢測仍然是一個公開的挑戰(zhàn)。這是由于姿勢的變化、面部表情、比例、光照、圖像失真、面部遮擋等因素造成的。與一般的目標(biāo)檢測不同,人臉檢測
    的頭像 發(fā)表于 01-09 09:52 ?6961次閱讀
    瑞芯微(EASY EAI)RV1126B <b class='flag-5'>人臉</b><b class='flag-5'>檢測</b>使用

    穿孔機(jī)頂頭檢測儀 機(jī)器視覺深度學(xué)習(xí)

    ,能適用惡劣工況,粉塵、高溫、氧化皮等惡劣環(huán)境均可正常工作。 測量原理 利用頂頭與周圍的物質(zhì)(水、空氣、導(dǎo)盤等)紅外輻射能量的差異,用熱成像相機(jī)拍攝出清晰的圖片,再通過深度學(xué)習(xí)短時
    發(fā)表于 12-22 14:33

    如何深度學(xué)習(xí)機(jī)器視覺的應(yīng)用場景

    深度學(xué)習(xí)視覺應(yīng)用場景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測:處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)化缺陷模式 非標(biāo)產(chǎn)品分類:對形狀、顏色、紋理多變的產(chǎn)品進(jìn)行智能分類 外觀質(zhì)量評估:基于學(xué)習(xí)的外觀質(zhì)量標(biāo)
    的頭像 發(fā)表于 11-27 10:19 ?220次閱讀

    基于級聯(lián)分類器的人臉檢測基本原理

    檢測人臉這一結(jié)果。 注:該算法github上有開源實(shí)現(xiàn):https://github.com/nenadmarkus/pico 3) 算法流程 我們圖像上設(shè)置一定的搜索范圍,初始
    發(fā)表于 10-30 06:14

    【Milk-V Duo S 開發(fā)板免費(fèi)體驗(yàn)】基于Duo S 使用 TDL SDK(V1版本)

    地將各種深度學(xué)習(xí)技術(shù)應(yīng)用于自己的產(chǎn)品和服務(wù)。無論開發(fā)者是否是深度學(xué)習(xí)領(lǐng)域的專家,有了TDL SDK作為助手,都能輕松構(gòu)建智能應(yīng)用。 目前
    發(fā)表于 08-10 22:09

    【Milk-V Duo S 開發(fā)板免費(fèi)體驗(yàn)】人臉檢測

    多張人臉識別 針對畫面存在多張人臉的情況進(jìn)行測試 識別效果較好,速度較快。 同時終端輸出檢測到的人臉數(shù)量 動態(tài)效果見底部視頻。 總
    發(fā)表于 07-27 16:53

    【HarmonyOS 5】VisionKit人臉活體檢測詳解

    。 而VisionKit包含人臉活體檢測的功能接口interactiveLiveness 。人臉活體檢測見名知意,主要是為了
    的頭像 發(fā)表于 06-21 11:52 ?920次閱讀
    【HarmonyOS 5】VisionKit<b class='flag-5'>人臉</b>活體<b class='flag-5'>檢測</b>詳解

    提高IT運(yùn)維效率,深度解讀京東云AIOps落地實(shí)踐(異常檢測篇)

    基于深度學(xué)習(xí)對運(yùn)維時序指標(biāo)進(jìn)行異常檢測,快速發(fā)現(xiàn)線上業(yè)務(wù)問題 時間序列的異常檢測是實(shí)際應(yīng)用的一個關(guān)鍵問題,尤其是
    的頭像 發(fā)表于 05-22 16:38 ?1021次閱讀
    提高IT運(yùn)維效率,<b class='flag-5'>深度</b>解讀京東云AIOps落地實(shí)踐(異常<b class='flag-5'>檢測</b>篇)

    基于RV1126開發(fā)板實(shí)現(xiàn)人臉檢測方案

    RV1126開發(fā)板上實(shí)現(xiàn)人臉檢測圖像找出人臉,以及每張
    的頭像 發(fā)表于 04-21 17:59 ?1024次閱讀
    基于RV1126開發(fā)板實(shí)現(xiàn)<b class='flag-5'>人臉</b><b class='flag-5'>檢測</b>方案

    基于RV1126開發(fā)板實(shí)現(xiàn)人臉檢測方案

    RV1126開發(fā)板上實(shí)現(xiàn)人臉檢測圖像找出人臉,以及每張
    的頭像 發(fā)表于 04-21 14:00 ?13次閱讀
    基于RV1126開發(fā)板實(shí)現(xiàn)<b class='flag-5'>人臉</b><b class='flag-5'>檢測</b>方案

    基于RV1126開發(fā)板實(shí)現(xiàn)人臉檢測方案

    RV1126開發(fā)板上實(shí)現(xiàn)人臉檢測圖像找出人臉,以及每張
    的頭像 發(fā)表于 04-21 10:21 ?99次閱讀
    基于RV1126開發(fā)板實(shí)現(xiàn)<b class='flag-5'>人臉</b><b class='flag-5'>檢測</b>方案

    基于RV1126開發(fā)板實(shí)現(xiàn)人臉檢測方案

    RV1126上實(shí)現(xiàn)人臉檢測圖像找出人臉,以及每張人臉
    的頭像 發(fā)表于 04-18 16:47 ?277次閱讀
    基于RV1126開發(fā)板實(shí)現(xiàn)<b class='flag-5'>人臉</b><b class='flag-5'>檢測</b>方案

    《DNESP32S3使用指南-IDF版_V1.6》第五十八章 人臉檢測實(shí)驗(yàn)

    第五十八章 人臉檢測實(shí)驗(yàn) 人臉檢測是一種基于人工智能(AI)的計(jì)算機(jī)技術(shù),用于在數(shù)字圖像查找和識別人臉
    發(fā)表于 03-24 09:34

    運(yùn)行SCRFD人臉檢測器,CPU上輸出錯誤是怎么回事?

    試圖運(yùn)行 SCRFD 人臉檢測 CPU 上獲得錯誤輸出,但 GPU 正確無誤
    發(fā)表于 03-07 07:55

    使用OpenVINO?模型的OpenCV進(jìn)行人臉檢測檢測到多張人臉時,伺服電機(jī)和步入器電機(jī)都發(fā)生移動是為什么?

    使用OpenVINO?模型的 OpenCV* 進(jìn)行人臉檢測。 使用 cv2.矩形 函數(shù),能夠獲取檢測到的面部的坐標(biāo)。 檢測到多張人臉時,多
    發(fā)表于 03-07 06:35