国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

信息保留的二值神經網絡IR-Net,落地性能和實用性俱佳

倩倩 ? 來源:AI科技大本營 ? 2020-03-27 15:25 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在CVPR 2020上,商湯研究院鏈接與編譯組和北京航空航天大學劉祥龍老師團隊提出了一種旨在優化前后向傳播中信息流的實用、高效的網絡二值化新算法IR-Net。不同于以往二值神經網絡大多關注量化誤差方面,本文首次從統一信息的角度研究了二值網絡的前向和后向傳播過程,為網絡二值化機制的研究提供了全新視角。同時,該工作首次在ARM設備上進行了先進二值化算法效率驗證,顯示了IR-Net部署時的優異性能和極高的實用性,有助于解決工業界關注的神經網絡二值化落地的核心問題。

動機

二值神經網絡因其存儲量小、推理效率高而受到社會的廣泛關注 [1]。然而與全精度的對應方法相比,現有的量化方法的精度仍然存在顯著的下降。

對神經網絡的研究表明,網絡的多樣性是模型達到高性能的關鍵[2],保持這種多樣性的關鍵是:(1) 網絡在前向傳播過程中能夠攜帶足夠的信息;(2) 反向傳播過程中,精確的梯度為網絡優化提供了正確的信息。二值神經網絡的性能下降主要是由二值化的有限表示能力和離散性造成的,這導致了前向和反向傳播的嚴重信息損失,模型的多樣性急劇下降。同時,在二值神經網絡的訓練過程中,離散二值化往往導致梯度不準確和優化方向錯誤。如何解決以上問題,得到更高精度的二值神經網絡?這一問題被研究者們廣泛關注,本文的動機在于:通過信息保留的思路,設計更高性能的二值神經網絡。

基于以上動機,本文首次從信息流的角度研究了網絡二值化,提出了一種新的信息保持網絡(IR-Net):(1)在前向傳播中引入了一種稱為Libra參數二值化(Libra-PB)的平衡標準化量化方法,最大化量化參數的信息熵和最小化量化誤差;(2) 在反向傳播中采用誤差衰減估計器(EDE)來計算梯度,保證訓練開始時的充分更新和訓練結束時的精確梯度。

IR-Net提供了一個全新的角度來理解二值神經網絡是如何運行的,并且具有很好的通用性,可以在標準的網絡訓練流程中進行優化。作者使用CIFAR-10和ImageNet數據集上的圖像分類任務來評估提出的IR-Net,同時借助開源二值化推理庫daBNN進行了部署效率驗證。

方法設計

高精度二值神經網絡訓練的瓶頸主要在于訓練過程中嚴重的信息損失。前向sign函數和后向梯度逼近所造成的信息損失嚴重影響了二值神經網絡的精度。為了解決以上問題,本文提出了一種新的信息保持網絡(IR-Net)模型,它保留了訓練過程中的信息,實現了二值化模型的高精度。

前向傳播中的Libra Parameter Binarization(Libra-PB)

在此之前,絕大多數網絡二值化方法試圖減小二值化操作的量化誤差。然而,僅通過最小化量化誤差來獲得一個良好的二值網絡是不夠的。因此,Libra-PB設計的關鍵在于:使用信息熵指標,最大化二值網絡前向傳播過程中的信息流。

根據信息熵的定義,在二值網絡中,二值參數Qx(x)的熵可以通過以下公式計算:

如果單純地追求量化誤差最小化,在極端情況下,量化參數的信息熵甚至可以接近于零。因此,Libra-PB將量化值的量化誤差和二值參數的信息熵同時作為優化目標,定義為:

在伯努利分布假設下,當p=0.5時,量化值的信息熵取最大值。

因此,在Libra-PB通過標準化和平衡操作獲得標準化平衡權重,如圖2所示,在Bernoulli分布下,由Libra-PB量化的參數具有最大的信息熵。有趣的是,對權重的簡單變換也可以極大改善前向過程中激活的信息流。因為此時,各層的二值激活值信息熵同樣可以最大化,這意味著特征圖中信息可以被保留。

在以往的二值化方法中,為了使量化誤差減小,幾乎所有方法都會引入浮點尺度因子來從數值上逼近原始參數,這無疑將高昂的浮點運算引入其中。在Libra-PB中,為了進一步減小量化誤差,同時避免以往二值化方法中代價高昂的浮點運算,Libra-PB引入了整數移位標量s,擴展了二值權重的表示能力。

因此最終,針對正向傳播的Libra參數二值化可以表示如下:

IR-Net的主要運算操作可以表示為:

反向傳播中的Error Decay Estimator(EDE)

由于二值化的不連續性,梯度的近似對于反向傳播是不可避免的,這種對sign函數的近似帶來了兩種梯度的信息損失,包括截斷范圍外參數更新能力下降造成的信息損失,和截斷范圍內近似誤差造成的信息損失。為了更好的保留反向傳播中由損失函數導出的信息,平衡各訓練階段對于梯度的要求,EDE引入了一種漸進的兩階段近似梯度方法。

第一階段:保留反向傳播算法的更新能力。將梯度估計函數的導數值保持在接近1的水平,然后逐步將截斷值從一個大的數字降到1。利用這一規則,近似函數從接近Identity函數演化到Clip函數,從而保證了訓練早期的更新能力。第二階段:使0附近的參數被更準確地更新。將截斷保持為1,并逐漸將導數曲線演變到階梯函數的形狀。利用這一規則,近似函數從Clip函數演變到sign函數,從而保證了前向和反向傳播的一致性。

各階段EDE的形狀變化如圖3(c)所示。通過該設計,EDE減小了前向二值化函數和后向近似函數之間的差異,同時所有參數都能得到合理的更新。

實驗結果

作者使用了兩個基準數據集:CIFAR-10和ImageNet(ILSVRC12)進行了實驗。在兩個數據集上的實驗結果表明,IR-Net比現有的最先進方法更具競爭力。

Deployment Efficiency

為了進一步驗證IR-Net在實際移動設備中的部署效率,作者在1.2GHz 64位四核ARM Cortex-A53的Raspberry Pi 3B上進一步實現了IR-Net,并在實際應用中測試了其真實速度。表5顯示,IR-Net的推理速度要快得多,模型尺寸也大大減小,而且IR-Net中的位移操作幾乎不會帶來額外的推理時間和存儲消耗。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4838

    瀏覽量

    107753
  • 算法
    +關注

    關注

    23

    文章

    4784

    瀏覽量

    98042
  • 數據集
    +關注

    關注

    4

    文章

    1236

    瀏覽量

    26190
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    神經網絡的初步認識

    日常生活中的智能應用都離不開深度學習,而深度學習則依賴于神經網絡的實現。什么是神經網絡神經網絡的核心思想是模仿生物神經系統的結構,特別是大腦中神經
    的頭像 發表于 12-17 15:05 ?323次閱讀
    <b class='flag-5'>神經網絡</b>的初步認識

    CNN卷積神經網絡設計原理及在MCU200T上仿真測試

    數的提出很大程度的解決了BP算法在優化深層神經網絡時的梯度耗散問題。當x&gt;0 時,梯度恒為1,無梯度耗散問題,收斂快;當x&lt;0 時,該層的輸出為0。 CNN
    發表于 10-29 07:49

    NMSIS神經網絡庫使用介紹

    NMSIS NN 軟件庫是一組高效的神經網絡內核,旨在最大限度地提高 Nuclei N 處理器內核上的神經網絡性能并最??大限度地減少其內存占用。 該庫分為多個功能,每個功能涵蓋特定類別
    發表于 10-29 06:08

    構建CNN網絡模型并優化的一般化建議

    :Dropout層隨機跳過神經網絡模型中某些神經元之間的連接,通過隨機制造缺陷進行訓練提升整個神經網絡的魯棒。 6)指定合理的學習率策略:一旦
    發表于 10-28 08:02

    在Ubuntu20.04系統中訓練神經網絡模型的一些經驗

    , batch_size=512, epochs=20)總結 這個核心算法中的卷積神經網絡結構和訓練過程,是用來對MNIST手寫數字圖像進行分類的。模型將圖像作為輸入,通過卷積和池化層提取圖像的特征,然后通過全連接層進行分類預測。訓練過程中,模型通過最小化損失函數來優化模型參數,從而提高分類準確
    發表于 10-22 07:03

    CICC2033神經網絡部署相關操作

    在完成神經網絡量化后,需要將神經網絡部署到硬件加速器上。首先需要將所有權重數據以及輸入數據導入到存儲器內。 在仿真環境下,可將其存于一個文件,并在 Verilog 代碼中通過 readmemh 函數
    發表于 10-20 08:00

    液態神經網絡(LNN):時間連續與動態適應神經網絡

    神經元,但卻能產生復雜的行為。受此啟發,與傳統的神經網絡相比,LNN旨在通過模擬大腦中神經元之間的動態連接來處理信息,這種網絡能夠順序處理數
    的頭像 發表于 09-28 10:03 ?1198次閱讀
    液態<b class='flag-5'>神經網絡</b>(LNN):時間連續<b class='flag-5'>性</b>與動態適應<b class='flag-5'>性</b>的<b class='flag-5'>神經網絡</b>

    神經網絡的并行計算與加速技術

    問題。因此,并行計算與加速技術在神經網絡研究和應用中變得至關重要,它們能夠顯著提升神經網絡性能和效率,滿足實際應用中對快速響應和大規模數據處理的需求。神經網絡并行
    的頭像 發表于 09-17 13:31 ?1124次閱讀
    <b class='flag-5'>神經網絡</b>的并行計算與加速技術

    基于神經網絡的數字預失真模型解決方案

    在基于神經網絡的數字預失真(DPD)模型中,使用不同的激活函數對整個系統性能和能效有何影響?
    的頭像 發表于 08-29 14:01 ?3471次閱讀

    無刷電機小波神經網絡轉子位置檢測方法的研究

    摘要:論文通過對無刷電機數學模型的推導,得出轉角:與三相相電壓之間存在映射關系,因此構建了一個以三相相電壓為輸人,轉角為輸出的小波神經網絡來實現轉角預測,并采用改進遺傳算法來訓練網絡結構與參數,借助
    發表于 06-25 13:06

    神經網絡專家系統在電機故障診斷中的應用

    摘要:針對傳統專家系統不能進行自學習、自適應的問題,本文提出了基于種經網絡專家系統的并步電機故障診斷方法。本文將小波神經網絡和專家系統相結合,充分發揮了者故障診斷的優點,很大程度上降低了對電機
    發表于 06-16 22:09

    神經網絡RAS在異步電機轉速估計中的仿真研究

    眾多方法中,由于其結構簡單,穩定性好廣泛受到人們的重視,且已被用于產品開發。但是MRAS仍存在在低速區速度估計精度下降和對電動機參數變化非常敏感的問題。本文利用神經網絡的特點,使估計更為簡單、快速
    發表于 06-16 21:54

    基于FPGA搭建神經網絡的步驟解析

    本文的目的是在一個神經網絡已經通過python或者MATLAB訓練好的神經網絡模型,將訓練好的模型的權重和偏置文件以TXT文件格式導出,然后通過python程序將txt文件轉化為coe文件,(coe
    的頭像 發表于 06-03 15:51 ?1194次閱讀
    基于FPGA搭建<b class='flag-5'>神經網絡</b>的步驟解析

    NVIDIA實現神經網絡渲染技術的突破增強功能

    近日,NVIDIA 宣布了 NVIDIA RTX 神經網絡渲染技術的突破增強功能。NVIDIA 與微軟合作,將在 4 月的 Microsoft DirectX 預覽版中增加神經網絡著色技術,讓開
    的頭像 發表于 04-07 11:33 ?1163次閱讀

    神經網絡壓縮框架 (NNCF) 中的過濾器修剪統計數據怎么查看?

    無法觀察神經網絡壓縮框架 (NNCF) 中的過濾器修剪統計數據
    發表于 03-06 07:10