国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

深入卷積神經網絡背后的數學原理

8g3K_AI_Thinker ? 來源:YXQ ? 2019-04-25 14:52 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在計算機神經視覺技術的發展過程中,卷積神經網絡成為了其中的重要組成部分,本文對卷積神經網絡的數學原理進行了介紹。

文章包括四個主要內容:卷積、卷積層、池化層以及卷積神經網絡中的反向傳播原理。在卷積部分的介紹中,作者介紹了卷積的定義、有效卷積和相同卷積、跨步卷積、3D卷積。

在卷積層部分,作者闡述了連接切割和參數共享對降低網絡參數學習量的作用。在池化層部分,作者介紹了池化的含義以及掩膜的使用。

自動駕駛、智能醫療、智能零售,這些曾被認為不可能實現的事情,在計算機視覺技術的幫助下,終于在最近成為了現實。今天,自動駕駛和自動雜貨店的夢想不再像以前那樣遙不可及。

事實上,每天我們都在使用計算機視覺技術幫助我們用人臉解鎖手機,或者對即將發布到社交媒體上的照片進行自動修飾。

在計算機視覺技術應用這一巨大成功的背后,卷積神經網絡(CNN)可能是其中最重要的組成部分。

在本文中,我們將逐步理解,神經網絡是如何與 CNN 特有的思想協作的。本文章包含了相當復雜的數學方程式,但如果您對線性代數和微積分不熟悉,請不要氣餒。

我的目標不是讓您記住那些公式,而是讓您從直覺上去理解這些公式背后隱藏的意義。

01

前言

在之前的系列中,我們學習了密集連接的神經網絡(densely connected neural networks)。

這些網絡的神經元被分成組,形成連續的層,相鄰的兩個層之間的神經元相互連接。下圖展示了一個密集連接的神經網絡的示例。

Figure 1.Densely connected neural network architecture

當我們解決分類問題時,如果我們的特征是一組有限的并有明確定義的特征,這種方法是很有效的——例如,根據足球運動員在比賽期間所記錄的統計數據,預測該運動員的位置。

但是,當使用照片來進行預測時,情況會變得更加復雜。我們當然可以將每個像素的亮度視為一個單獨的特征,并將其作為輸入傳遞給我們的密集網絡(dense network)。

不幸的是,為了使神經網絡能夠處理典型的智能手機照片,該網絡必須包含數千萬甚至數億個神經元。

我們也可以通過縮小照片的尺寸來進行處理手機照片,但是這樣做會使我們丟失很多有價值的信息。

可以發現,這種傳統策略的性能很差,因此我們需要一種新的、更加聰明的方法來盡可能多地使用數據,并同時減少必要的計算和參數的數量。CNN 閃亮登場的時候到了。

02

數字圖像的數據結構

首先花一點時間來解釋一下數字圖像的存儲方式。數字圖像實際上是巨大的數字矩陣。矩陣中的每個數字對應于其像素的亮度。

在 RGB 模型中,彩色圖像由三個矩陣組成,分別對應三個顏色通道——紅,綠,藍。而在黑白圖像中,我們只需要一個矩陣。

矩陣中的每個數字的取值區間都是 0 到 255。該范圍是存儲圖像信息的效率(256個值剛好適合1個字節)與人眼的靈敏度(我們區分同種顏色的灰度級別的數量極限)之間的折衷。

Figure 2.Data structure behind digitalimages

03

卷積

核卷積(kernel convolution)不僅僅用于 CNN,它還是許多其他計算機視覺算法的關鍵要素。

核卷積就是將一個小數字矩陣(濾波器,也稱作 kernel 或 filter)在圖像上進行滑動,并根據 kernel 的值,對圖像矩陣的值進行轉換的過程。對圖像經過卷積操作后得到的輸出稱為特征映射(feature map)。

特征映射的值的計算公式如下,其中 f 代表輸入圖像,h 代表濾波器 。結果矩陣的行數和列數分別用 m 和 n 表示。

Figure 3.Kernel convolution example

將 kernel 放在選定的像素上后,我們從 kernel 中依次取出每個值,并將它們成對地與圖像中的相應值相乘。

最后,我們將每個核運算后的結果元素相加,并將求和結果放在輸出特征圖中的正確位置上。

上圖從微觀角度詳細地展示了這一運算的過程,但在完整圖像上實施該運算的結果可能更加有趣。圖4展示了使用幾個不同 kernel 的卷積結果。

Figure 4.Finding edges with kernel convolution

04

有效卷積&相同卷積(Valid and Same Convolution)

正如我們在圖3中看到的,當我們使用 3x3 的 kernel 對 6x6 圖像執行卷積時,我們得到 4x4 的特征映射。

這是因為在這個圖像中,只有16個位置可以將 kerenl 完整地放在這張圖像中。由于每次執行卷積時我們的圖像都會縮小,因此在我們的圖像完全消失之前,我們只能進行有限次數的卷積。

另外,如果對 kernel 在圖像中移動的過程進行觀察,我們就會發現圖像外圍像素的影響遠小于圖像中心像素的影響。

這樣會導致我們失去圖像中包含的一些信息。下圖展示了像素位置的改變對特征圖的影響。

Figure 5.Impact of pixelposition

為了解決這兩個問題,我們可以使用額外的邊框來填充圖像(padding)。例如,如果使用 1像素進行填充,我們將圖像的大小增加到 8x8,因此使用 3x3 的 kernel 的卷積,其輸出尺寸將為 6x6 。

在實踐中,我們通常用零值來填充額外的邊界。根據是否使用填充,我們將處理兩種類型的卷積—— Valid 和 Same。

Valid —— 使用原始圖像,Same —— 使用原始圖像并使用它周圍的邊框,以便使輸入和輸出的圖像大小相同。

在第二種情況下,填充寬度應滿足以下等式,其中 p 是填充尺寸,f 是 kernel 尺寸(通常是奇數)。

05

跨步卷積(Strided Convolution)

Figure 6.Example of strided convolution

在前面的例子中,我們總是每次將 kernel 移動一個像素,即步長為1。步長也可以視為卷積層的超參數之一。

圖 6 展示了使用更大步長時的卷積運算。在設計 CNN 架構時,如果希望感知域重疊較少,或者希望讓特征圖的空間維度更小,我們可以增加步長。

輸出矩陣的尺寸(考慮填充和步長時)可以使用以下公式計算。

06

過渡到第三個維度

體積卷積(Convolution over volume)是一個非常重要的概念,這不僅使我們能夠處理彩色圖像,而且更為重要的是,我們能夠在單層網絡中使用多個 kernel 。

第一個規則是 kernel 和圖像必須具有相同數量的通道。一般而言,圖像的處理過程和圖3的示例非常相似,但是這次我們是將三維空間中的值對相乘。

如果想在同一個圖像上使用多個 kernel,首先我們要分別對每個 kernel 執行卷積,然后將結果從頂層向下進行疊加,最后將它們組合成一個整體。

輸出張量的尺寸(可以稱為3D矩陣)滿足以下等式,其中:n?- 圖像大小,f ?- 濾波器大小,nc ?- 圖像中的通道數,p - 填充大小,s - ?步幅大小,nf? - kernel 的數量。

Figure 7.Convolution overvolume

07

卷積層

接下來我們將用前面學到的知識來構建 CNN 的一個層。我們將要用到的方法幾乎與構建密集神經網絡時用到的相同,唯一有區別的地方是,我們不再使用簡單的矩陣乘法,而是使用卷積。

前向傳播包括兩個步驟。第一步是計算中間值 Z:首先將前一層的輸入數據與張量 W(包含濾波器)進行卷積,然后將運算后的結果加上偏差 b 。

第二步是將中間值 Z 輸入到非線性激活函數中(使用 g 表示該激活函數)。下面展示了矩陣形式的數學公式。

如果您對公式中的任何部分不太清楚,我強烈推薦您去閱讀一下我之前的文章,文中詳細討論了密集連接的神經網絡的具體內容。

下文的插圖很好地展示了公式中各張量的維數,以助于理解。

Figure 8.Tensors dimensions

連接切割和參數共享(Connections Cutting and Parameters Sharing)

在本文的開頭曾提到,由于需要學習大量的參數,密集連接的神經網絡在處理圖像方面的能力很差,而卷積卻為該問題提供了一種解決方案,下面我們一起來看看卷積是如何優化圖像處理的計算的。

在下圖中,我們用一種略微不同的方式對 2D 卷積進行了可視化——用數字 1-9 標記的神經元構成輸入層,用于接收輸入圖像的像素亮度,單元 A-D 表示經過卷積計算后得到的特征映射。

最后,I-IV 表示來自 kernel 的后續值,這些值是需要網絡進行學習的。

Figure 9.Connections cutting and parameters sharing

現在,讓我們關注卷積層的兩個非常重要的屬性。第一,從圖中可以看到,并非兩個相鄰層中的所有神經元都相互連接。

例如,神經元 1 僅影響 A 的值。第二,我們可以發現一些神經元使用了相同的權重。這兩個屬性意味著在 CNN 中我們需要學習的參數要少得多。

值得一提的是,kernel 中的任一單值都會影響輸出特征映射的每一個元素——這在反向傳播的過程中是至關重要的。

08

卷積層的反向傳播(Convolutional Layer Backpropagation)

任何曾經試圖從頭開始編寫神經網絡的人都知道,前向傳播還不到最終成功的一半。當你開始向回推算時,真正的樂趣才剛剛開始。

如今,我們不需要為反向傳播而煩惱——因為深度學習框架已經為我們做好了,但是我覺得有必要弄明白它背后發生的事情。

就像在密集連接的神經網絡中一樣,我們的目標是計算導數,然后在梯度下降的過程中,用這些導數去更新我們的參數值。

在下面的計算中,我們將用到鏈式法則 —— 這在我之前的文章中提到過。我們想要評估參數的變化對結果特征映射的影響,以及隨之對最終結果的影響。

在開始詳細討論之前,我們需要將數學符號統一 —— 為了表示方便,我不會使用偏導數的完整符號,而是用下面提到的縮符號。

但是請記住,當我使用這種表示法時,這將始終代表著成本函數的偏導。

Figure 10.Input and output data for a single convolution layer in forward and backward propagation

我們的任務是計算 dW [1] 和 db [l] (它們是與當前層參數相關的導數),以及 dA[l-1](它將被傳遞給前一層)。

如圖10所示,dA[l] 作為輸入,張量 dW 和 W,db 和 b 以及 dA 和 A 的維度分別相同。第一步是求激活函數關于輸入張量的導數,將其結果記為 dZ [1] 。根據鏈式法則,該運算的結果將在后面用到。

現在,我們需要處理卷積自身的反向傳播。為了實現這個目標,我們將利用一個稱為全卷積的矩陣運算,該運算的可視化解釋如下圖所示。

請注意,在此過程中我們要使用 kernel,而我們之前用到的 kernel 是該 kernel 旋轉了180度所得到的。

該操作可以用以下公式表示,其中 kernel 由 W 表示,dZ[m,n] 是一個標量,該標量屬于從前一層所獲得的偏導數。

Figure 11.Full convolution

09

池化層(Pooling Layers)

除了卷積層之外,CNN 經常使用一個稱為池化層的網絡層,它們主要用于減小張量的大小并加快計算速度。

這個層的結構很簡單,我們只需要將圖像劃分成不同的區域,然后對每個部分執行一些操作即可。

例如,對于最大池化層(Max Pool Layer),我們從每個區域中選擇一個最大值,并將其放在輸出中的相應位置即可。

與卷積層的情況一樣,我們有兩個超參數——kernel 的尺寸和步長。

最后值得一提是,如果要為多通道圖像執行池化操作,則每個通道都應該分別執行池化操作。

Figure 12.Max poolingexample

10

池化層的反向傳播(Pooling Layers Backpropagation)

在本文中,我們僅討論最大池化的反向傳播(max pooling backpropagation),但是通過將該方法稍作調整,便可運用到其他所有類型的池化層。

由于在池化層這種類型的層中,我們不用更新任何參數,我們的任務只是適度地分配梯度值。

前文講到,在最大池化的前向傳播中,我們從每個區域中選擇最大值并將它們傳輸到下一層。

因此很明顯,在反向傳播期間,梯度不會影響未在前向傳播中使用的矩陣元素。

在實際操作中,該過程是通過創建一個掩膜(mask)來實現的,該掩膜會記住在前向傳播中所使用的元素的位置,隨后我們就可以用該掩膜來傳遞梯度。

Figure 13.Max pooling backwardpass

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 數學
    +關注

    關注

    0

    文章

    99

    瀏覽量

    19913
  • 卷積神經網絡

    關注

    4

    文章

    372

    瀏覽量

    12875

原文標題:深入卷積神經網絡背后的數學原理

文章出處:【微信號:AI_Thinker,微信公眾號:人工智能頭條】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    神經網絡的初步認識

    日常生活中的智能應用都離不開深度學習,而深度學習則依賴于神經網絡的實現。什么是神經網絡神經網絡的核心思想是模仿生物神經系統的結構,特別是大腦中神經
    的頭像 發表于 12-17 15:05 ?323次閱讀
    <b class='flag-5'>神經網絡</b>的初步認識

    自動駕駛中常提的卷積神經網絡是個啥?

    在自動駕駛領域,經常會聽到卷積神經網絡技術。卷積神經網絡,簡稱為CNN,是一種專門用來處理網格狀數據(比如圖像)的深度學習模型。CNN在圖像處理中尤其常見,因為圖像本身就可以看作是由像
    的頭像 發表于 11-19 18:15 ?2072次閱讀
    自動駕駛中常提的<b class='flag-5'>卷積</b><b class='flag-5'>神經網絡</b>是個啥?

    CNN卷積神經網絡設計原理及在MCU200T上仿真測試

    數的提出很大程度的解決了BP算法在優化深層神經網絡時的梯度耗散問題。當x&gt;0 時,梯度恒為1,無梯度耗散問題,收斂快;當x&lt;0 時,該層的輸出為0。 CNN
    發表于 10-29 07:49

    NMSIS神經網絡庫使用介紹

    :   神經網絡卷積函數   神經網絡激活函數   全連接層函數   神經網絡池化函數   Softmax 函數   神經網絡支持功能
    發表于 10-29 06:08

    構建CNN網絡模型并優化的一般化建議

    整個模型非常巨大。所以要想實現輕量級的CNN神經網絡模型,首先應該避免嘗試單層神經網絡。 2)減少卷積核的大小:CNN神經網絡是通過權值共享的方式,利用
    發表于 10-28 08:02

    卷積運算分析

    的數據,故設計了ConvUnit模塊實現單個感受域規模的卷積運算. 卷積運算:不同于數學當中提及到的卷積概念,CNN神經網絡中的
    發表于 10-28 07:31

    在Ubuntu20.04系統中訓練神經網絡模型的一些經驗

    模型。 我們使用MNIST數據集,訓練一個卷積神經網絡(CNN)模型,用于手寫數字識別。一旦模型被訓練并保存,就可以用于對新圖像進行推理和預測。要使用生成的模型進行推理,可以按照以下步驟進行操作: 1.
    發表于 10-22 07:03

    CICC2033神經網絡部署相關操作

    讀取。接下來需要使用擴展指令,完成神經網絡的部署,此處僅對第一層卷積+池化的部署進行說明,其余層與之類似。 1.使用 Custom_Dtrans 指令,將權重數據、輸入數據導入硬件加速器內。對于權重
    發表于 10-20 08:00

    液態神經網絡(LNN):時間連續性與動態適應性的神經網絡

    1.算法簡介液態神經網絡(LiquidNeuralNetworks,LNN)是一種新型的神經網絡架構,其設計理念借鑒自生物神經系統,特別是秀麗隱桿線蟲的神經結構,盡管這種微生物的
    的頭像 發表于 09-28 10:03 ?1198次閱讀
    液態<b class='flag-5'>神經網絡</b>(LNN):時間連續性與動態適應性的<b class='flag-5'>神經網絡</b>

    神經網絡的并行計算與加速技術

    隨著人工智能技術的飛速發展,神經網絡在眾多領域展現出了巨大的潛力和廣泛的應用前景。然而,神經網絡模型的復雜度和規模也在不斷增加,這使得傳統的串行計算方式面臨著巨大的挑戰,如計算速度慢、訓練時間長等
    的頭像 發表于 09-17 13:31 ?1124次閱讀
    <b class='flag-5'>神經網絡</b>的并行計算與加速技術

    卷積神經網絡如何監測皮帶堵料情況 #人工智能

    卷積神經網絡
    jf_60804796
    發布于 :2025年07月01日 17:08:42

    無刷電機小波神經網絡轉子位置檢測方法的研究

    摘要:論文通過對無刷電機數學模型的推導,得出轉角:與三相相電壓之間存在映射關系,因此構建了一個以三相相電壓為輸人,轉角為輸出的小波神經網絡來實現轉角預測,并采用改進遺傳算法來訓練網絡結構與參數,借助
    發表于 06-25 13:06

    神經網絡專家系統在電機故障診斷中的應用

    摘要:針對傳統專家系統不能進行自學習、自適應的問題,本文提出了基于種經網絡專家系統的并步電機故障診斷方法。本文將小波神經網絡和專家系統相結合,充分發揮了二者故障診斷的優點,很大程度上降低了對電機
    發表于 06-16 22:09

    自動駕駛感知系統中卷積神經網絡原理的疑點分析

    背景 卷積神經網絡(Convolutional Neural Networks, CNN)的核心技術主要包括以下幾個方面:局部連接、權值共享、多卷積核以及池化。這些技術共同作用,使得CNN在圖像
    的頭像 發表于 04-07 09:15 ?845次閱讀
    自動駕駛感知系統中<b class='flag-5'>卷積</b><b class='flag-5'>神經網絡</b>原理的疑點分析

    神經網絡壓縮框架 (NNCF) 中的過濾器修剪統計數據怎么查看?

    無法觀察神經網絡壓縮框架 (NNCF) 中的過濾器修剪統計數據
    發表于 03-06 07:10