国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

三種卷積神經網絡模型:Light-CNN,雙分支CNN和預先訓練的CNN

倩倩 ? 來源:老胡說科學 ? 2020-04-17 10:55 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

上海電力大學的兩位研究人員最近開發并評估了野生人臉表情識別(FER)的新神經網絡模型。他們的研究發表在Elsevier的Neurocomputing期刊上,提出了三種卷積神經網絡(CNN)模型:Light-CNN,雙分支CNN和預先訓練的CNN。

“由于缺乏關于非正面的信息,野外的FER是計算機視覺中的一個難點,”進行這項研究的研究人員之一錢永生告訴TechXplore。“基于深度卷積神經網絡(CNN)的現有自然面部表情識別方法存在一些問題,包括過擬合,高計算復雜度,單一特征和有限樣本。”

盡管許多研究人員已經開發了用于FER的CNN方法,但到目前為止,他們中很少有人試圖確定哪種類型的網絡最適合這一特定任務。意識到文獻中的這種差距,永勝和他的同事邵杰為FER開發了三種不同的CNN,并進行了一系列的評估,以確定他們的優勢和劣勢。

“我們的第一個模型是淺光CNN,它引入了一個深度可分離的模塊和剩余的網絡模塊,通過改變卷積方法來減少網絡參數,”永勝說。“第二個是雙分支CNN,它結合了全局特征和局部紋理特征,試圖獲得更豐富的特征并補償卷積旋轉不變性的缺乏。第三個預訓練的CNN使用在同一個分布式大型數據庫中訓練的權重重新培訓自己的小型數據庫,縮短培訓時間,提高識別率。“

研究人員對三種常用于FER的數據集進行了CNN模型的廣泛評估:公共CK +,多視圖BU-3DEF和FER2013數據集。盡管三種CNN模型在性能上存在差異,但它們都取得了可喜的成果,優于幾種最先進的FER方法。

“目前,這三種CNN型號是分開使用的,”永勝解釋說。“淺網絡更適合嵌入式硬件。預訓練的CNN可以獲得更好的效果,但需要預先訓練的權重。雙分支網絡不是很有效。當然,也可以嘗試使用這三種模式一起。”

在他們的評估中,研究人員觀察到,通過組合剩余網絡模塊和深度可分離模塊,就像他們為第一個CNN模型所做的那樣,可以減少網絡參數。這最終可以解決計算硬件的一些缺點。此外,他們發現預先訓練的CNN 模型將大型數據庫轉移到自己的數據庫,因此可以用有限的樣本進行訓練。

永勝和杰提出的三個針對FER的CNN可以有許多應用,例如,幫助開發能夠識別他們正在與之交互的人的面部表情的機器人。研究人員現在計劃對他們的模型進行額外調整,以進一步提高他們的表現。

“在我們未來的工作中,我們將嘗試添加不同的傳統手動功能,加入雙分支CNN并改變融合模式,”永勝說。“我們還將使用跨數據庫培訓網絡參數來獲得更好的泛化能力,并采用更有效的深度傳輸學習方法。”

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4838

    瀏覽量

    107756
  • 網絡模塊
    +關注

    關注

    0

    文章

    28

    瀏覽量

    10012
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    Transformer如何讓自動駕駛變得更聰明?

    ]自動駕駛中常提的Transformer本質上是一神經網絡結構,最早在自然語言處理里火起來。與卷積神經網絡CNN)或循環
    的頭像 發表于 11-19 18:17 ?2270次閱讀

    自動駕駛中常提的卷積神經網絡是個啥?

    在自動駕駛領域,經常會聽到卷積神經網絡技術。卷積神經網絡,簡稱為CNN,是一專門用來處理網格狀
    的頭像 發表于 11-19 18:15 ?2076次閱讀
    自動駕駛中常提的<b class='flag-5'>卷積</b><b class='flag-5'>神經網絡</b>是個啥?

    一些神經網絡加速器的設計優化方案

    特征圖保留不變,完成和所有相關卷積核點積以后再加載,最多復用 R*R*M 次。 3.不同網絡模型的效果 如圖所示,后者相對于前者,減少了連線資源和復雜度。 4.DNN加速器空間架構片上存儲
    發表于 10-31 07:14

    CNN卷積神經網絡設計原理及在MCU200T上仿真測試

    CNN算法簡介 我們硬件加速器的模型為Lenet-5的變型,網絡粗略分共有7層,細分共有13層。包括卷積,最大池化層,激活層,扁平層,全連接層。下面是各層作用介紹:
    發表于 10-29 07:49

    NMSISI庫的使用

    (q7_t) 和 16 位整數 (q15_t)。 卷積神經網絡示例: 本示例中使用的 CNN 基于來自 Caffe 的 CIFAR-10 示例。神經網絡由 3 個
    發表于 10-29 07:07

    NMSIS神經網絡庫使用介紹

    (q7_t) 和 16 位整數 (q15_t)。 卷積神經網絡示例: 本示例中使用的 CNN 基于來自 Caffe 的 CIFAR-10 示例。神經網絡由 3 個
    發表于 10-29 06:08

    構建CNN網絡模型并優化的一般化建議

    整個模型非常巨大。所以要想實現輕量級的CNN神經網絡模型,首先應該避免嘗試單層神經網絡。 2)減少卷積
    發表于 10-28 08:02

    卷積運算分析

    的數據,故設計了ConvUnit模塊實現單個感受域規模的卷積運算. 卷積運算:不同于數學當中提及到的卷積概念,CNN神經網絡中的
    發表于 10-28 07:31

    在Ubuntu20.04系統中訓練神經網絡模型的一些經驗

    模型。 我們使用MNIST數據集,訓練一個卷積神經網絡CNN模型,用于手寫數字識別。一旦
    發表于 10-22 07:03

    使用OpenVINO將PP-OCRv5模型部署在Intel顯卡上

    是一個用于優化和部署人工智能(AI)模型,提升AI推理性能的開源工具集合,不僅支持以卷積神經網絡(CNN)為核心組件的預測式AI模型(Pre
    的頭像 發表于 09-20 11:17 ?1240次閱讀
    使用OpenVINO將PP-OCRv5<b class='flag-5'>模型</b>部署在Intel顯卡上

    MAX78000采用超低功耗卷積神經網絡加速度計的人工智能微控制器技術手冊

    的Maxim超低功耗微控制器相結合。通過這款基于硬件的卷積神經網絡(CNN)加速器,即使是電池供電的應用也可執行AI推理,同時功耗僅為微焦耳級。
    的頭像 發表于 05-08 11:42 ?985次閱讀
    MAX78000采用超低功耗<b class='flag-5'>卷積</b><b class='flag-5'>神經網絡</b>加速度計的人工智能微控制器技術手冊

    MAX78002帶有低功耗卷積神經網絡加速器的人工智能微控制器技術手冊

    的Maxim超低功耗微控制器相結合。通過這款基于硬件的卷積神經網絡(CNN)加速器,即使是電池供電的應用也可執行AI推理,同時功耗僅為微焦耳級。
    的頭像 發表于 05-08 10:16 ?844次閱讀
    MAX78002帶有低功耗<b class='flag-5'>卷積</b><b class='flag-5'>神經網絡</b>加速器的人工智能微控制器技術手冊

    在友晶LabCloud平臺上使用PipeCNN實現ImageNet圖像分類

    利用深度卷積神經網絡CNN)進行圖像分類是通過使用多個卷積層來從輸入數據中提取特征,最后通過分類層做決策來識別出目標物體。
    的頭像 發表于 04-23 09:42 ?1079次閱讀
    在友晶LabCloud平臺上使用PipeCNN實現ImageNet圖像分類

    自動駕駛感知系統中卷積神經網絡原理的疑點分析

    背景 卷積神經網絡(Convolutional Neural Networks, CNN)的核心技術主要包括以下幾個方面:局部連接、權值共享、多卷積核以及池化。這些技術共同作用,使得
    的頭像 發表于 04-07 09:15 ?846次閱讀
    自動駕駛感知系統中<b class='flag-5'>卷積</b><b class='flag-5'>神經網絡</b>原理的疑點分析

    無法轉換TF OD API掩碼RPGA模型怎么辦?

    無法轉換重新訓練的 TF OD API 掩碼 RPGA 模型,該模型使用以下命令在 GPU 上工作: mo > --saved_model_dir
    發表于 03-06 06:44