国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

神經網絡初學者的激活函數(shù)指南

穎脈Imgtec ? 2023-04-21 09:28 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者:Mouaad B.

來源:DeepHub IMBA


如果你剛剛開始學習神經網絡,激活函數(shù)的原理一開始可能很難理解。但是如果你想開發(fā)強大的神經網絡,理解它們是很重要的。

f6fc88d0-dd8b-11ed-ad0d-dac502259ad0.png

但在我們深入研究激活函數(shù)之前,先快速回顧一下神經網絡架構的基本元素。如果你已經熟悉神經網絡的工作原理,可以直接跳到下一節(jié)。


神經網絡架構

神經網絡由稱為神經元的鏈接節(jié)點層組成,神經元通過稱為突觸的加權連接來處理和傳輸信息。

f7128234-dd8b-11ed-ad0d-dac502259ad0.png

每個神經元從上一層的神經元獲取輸入,對其輸入的和應用激活函數(shù),然后將輸出傳遞給下一層。

神經網絡的神經元包含輸入層、隱藏層和輸出層。

輸入層只接收來自域的原始數(shù)據。這里沒有計算,節(jié)點只是簡單地將信息(也稱為特征)傳遞給下一層,即隱藏層。隱藏層是所有計算發(fā)生的地方。它從輸入層獲取特征,并在將結果傳遞給輸出層之前對它們進行各種計算。輸出層是網絡的最后一層。它使用從隱藏層獲得的所有信息并產生最終值。

為什么需要激活函數(shù)。為什么神經元不能直接計算并將結果轉移到下一個神經元?激活函數(shù)的意義是什么?


激活函數(shù)在神經網絡中的作用

網絡中的每個神經元接收來自其他神經元的輸入,然后它對輸入進行一些數(shù)學運算以生成輸出。一個神經元的輸出可以被用作網絡中其他神經元的輸入。

f746d052-dd8b-11ed-ad0d-dac502259ad0.png

如果沒有激活函數(shù),神經元將只是對輸入進行線性數(shù)學運算。這意味著無論我們在網絡中添加多少層神經元,它所能學習的東西仍然是有限的,因為輸出總是輸入的簡單線性組合。

激活函數(shù)通過在網絡中引入非線性來解決問題。通過添加非線性,網絡可以模擬輸入和輸出之間更復雜的關系,從而發(fā)現(xiàn)更多有價值的模式。

簡而言之,激活函數(shù)通過引入非線性并允許神經網絡學習復雜的模式,使神經網絡更加強大。


理解不同類型的激活函數(shù)

我們可以將這些函數(shù)分為三部分:二元、線性和非線性。

f75d787a-dd8b-11ed-ad0d-dac502259ad0.png

二元函數(shù)只能輸出兩個可能值中的一個,而線性函數(shù)則返回基于線性方程的值。

非線性函數(shù),如sigmoid函數(shù),Tanh, ReLU和elu,提供的結果與輸入不成比例。每種類型的激活函數(shù)都有其獨特的特征,可以在不同的場景中使用。


1、Sigmoid / Logistic激活函數(shù)

Sigmoid激活函數(shù)接受任何數(shù)字作為輸入,并給出0到1之間的輸出。輸入越正,輸出越接近1。另一方面,輸入越負,輸出就越接近0,如下圖所示。

f7774f48-dd8b-11ed-ad0d-dac502259ad0.png

它具有s形曲線,使其成為二元分類問題的理想選擇。如果要創(chuàng)建一個模型來預測一封電子郵件是否為垃圾郵件,我們可以使用Sigmoid函數(shù)來提供一個0到1之間的概率分數(shù)。如果得分超過0.5分,則認為該郵件是垃圾郵件。如果它小于0.5,那么我們可以說它不是垃圾郵件。

函數(shù)定義如下:

f7a416a4-dd8b-11ed-ad0d-dac502259ad0.png

但是Sigmoid函數(shù)有一個缺點——它受到梯度消失問題的困擾。當輸入變得越來越大或越來越小時,函數(shù)的梯度變得非常小,減慢了深度神經網絡的學習過程,可以看上面圖中的導數(shù)(Derivative)曲線。

但是Sigmoid函數(shù)仍然在某些類型的神經網絡中使用,例如用于二進制分類問題的神經網絡,或者用于多類分類問題的輸出層,因為預測每個類的概率Sigmoid還是最好的解決辦法。


2、Tanh函數(shù)(雙曲正切)

Tanh函數(shù),也被稱為雙曲正切函數(shù),是神經網絡中使用的另一種激活函數(shù)。它接受任何實數(shù)作為輸入,并輸出一個介于-1到1之間的值。

f7bd2608-dd8b-11ed-ad0d-dac502259ad0.png

Tanh函數(shù)和Sigmoid函數(shù)很相似,但它更以0為中心。當輸入接近于零時,輸出也將接近于零。這在處理同時具有負值和正值的數(shù)據時非常有用,因為它可以幫助網絡更好地學習。

函數(shù)定義如下:

f7e4c456-dd8b-11ed-ad0d-dac502259ad0.png

與Sigmoid函數(shù)一樣,Tanh函數(shù)也會在輸入變得非常大或非常小時遭遇梯度消失的問題。


3、線性整流單元/ ReLU函數(shù)

ReLU是一種常見的激活函數(shù),它既簡單又強大。它接受任何輸入值,如果為正則返回,如果為負則返回0。換句話說,ReLU將所有負值設置為0,并保留所有正值。

f7f3a444-dd8b-11ed-ad0d-dac502259ad0.png

函數(shù)定義如下:

f812cfae-dd8b-11ed-ad0d-dac502259ad0.png

使用ReLU的好處之一是計算效率高,并且實現(xiàn)簡單。它可以幫助緩解深度神經網絡中可能出現(xiàn)的梯度消失問題。

但是,ReLU可能會遇到一個被稱為“dying ReLU”問題。當神經元的輸入為負,導致神經元的輸出為0時,就會發(fā)生這種情況。如果這種情況發(fā)生得太頻繁,神經元就會“死亡”并停止學習。


4、Leaky ReLU

Leaky ReLU函數(shù)是ReLU函數(shù)的一個擴展,它試圖解決“dying ReLU”問題。Leaky ReLU不是將所有的負值都設置為0,而是將它們設置為一個小的正值,比如輸入值的0.1倍。他保證即使神經元接收到負信息,它仍然可以從中學習。

f825f3f4-dd8b-11ed-ad0d-dac502259ad0.png

函數(shù)定義如下:

f852474c-dd8b-11ed-ad0d-dac502259ad0.png

Leaky ReLU已被證明在許多不同類型的問題中工作良好。


5、指數(shù)線性單位(elu)函數(shù)

ReLU一樣,他們的目標是解決梯度消失的問題。elu引入了負輸入的非零斜率,這有助于防止“dying ReLU”問題

f86315ae-dd8b-11ed-ad0d-dac502259ad0.png

公式為:

f88ba528-dd8b-11ed-ad0d-dac502259ad0.png

這里的alpha是控制負飽和度的超參數(shù)。

與ReLU和tanh等其他激活函數(shù)相比,elu已被證明可以提高訓練和測試的準確性。它在需要高準確度的深度神經網絡中特別有用。


6、Softmax函數(shù)

在需要對輸入進行多類別分類的神經網絡中,softmax函數(shù)通常用作輸出層的激活函數(shù)。它以一個實數(shù)向量作為輸入,并返回一個表示每個類別可能性的概率分布。

softmax的公式是:

f8a18672-dd8b-11ed-ad0d-dac502259ad0.png

這里的x是輸入向量,i和j是從1到類別數(shù)的索引

Softmax對于多類分類問題非常有用,因為它確保輸出概率之和為1,從而便于解釋結果。它也是可微的,這使得它可以在訓練過程中用于反向傳播。


7、Swish

Swish函數(shù)是一個相對較新的激活函數(shù),由于其優(yōu)于ReLU等其他激活函數(shù)的性能,在深度學習社區(qū)中受到了關注。

Swish的公式是:

f8b5fc6a-dd8b-11ed-ad0d-dac502259ad0.png

這里的beta是控制飽和度的超參數(shù)。

Swish類似于ReLU,因為它是一個可以有效計算的簡單函數(shù)。并且有一個平滑的曲線,有助于預防“dying ReLU”問題。Swish已被證明在各種深度學習任務上優(yōu)于ReLU。


選擇哪一種?

首先,需要將激活函數(shù)與你要解決的預測問題類型相匹配。可以從ReLU激活函數(shù)開始,如果沒有達到預期的結果,則可以轉向其他激活函數(shù)。

以下是一些需要原則:

  • ReLU激活函數(shù)只能在隱藏層中使用。
  • Sigmoid/Logistic和Tanh函數(shù)不應該用于隱藏層,因為它們會在訓練過程中引起問題。

Swish函數(shù)用于深度大于40層的神經網絡會好很多。

輸出層的激活函數(shù)是由你要解決的預測問題的類型決定的。以下是一些需要記住的基本原則:

回歸-線性激活函數(shù)

二元分類- Sigmoid

多類分類- Softmax

  • 多標簽分類- Sigmoid

選擇正確的激活函數(shù)可以使預測準確性有所不同。所以還需要根據不同的使用情況進行測試。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4838

    瀏覽量

    107784
  • 函數(shù)
    +關注

    關注

    3

    文章

    4417

    瀏覽量

    67516
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    神經網絡的初步認識

    日常生活中的智能應用都離不開深度學習,而深度學習則依賴于神經網絡的實現(xiàn)。什么是神經網絡神經網絡的核心思想是模仿生物神經系統(tǒng)的結構,特別是大腦中神經
    的頭像 發(fā)表于 12-17 15:05 ?330次閱讀
    <b class='flag-5'>神經網絡</b>的初步認識

    FPGA初學者求助

    Vivado2025.1配置MIG時出現(xiàn)報錯 大家好,我是一名研一的學生,同時也是一名FPGA初學者,最近在使用vivado2025.1配置MIG的時候遇到了問題,具體問題如下: 我這個mig的配置
    發(fā)表于 12-07 11:43

    激活函數(shù)ReLU的理解與總結

    激活函數(shù)的作用 神經網絡中使用激活函數(shù)來加入非線性因素,提高模型的表達能力。 如果不用激勵函數(shù)
    發(fā)表于 10-31 06:16

    CNN卷積神經網絡設計原理及在MCU200T上仿真測試

    的提出很大程度的解決了BP算法在優(yōu)化深層神經網絡時的梯度耗散問題。當x&gt;0 時,梯度恒為1,無梯度耗散問題,收斂快;當x&lt;0 時,該層的輸出為0。 CNN
    發(fā)表于 10-29 07:49

    NMSISI庫的使用

    :   神經網絡卷積函數(shù)   神經網絡激活函數(shù)   全連接層函數(shù)   
    發(fā)表于 10-29 07:07

    NMSIS神經網絡庫使用介紹

    :   神經網絡卷積函數(shù)   神經網絡激活函數(shù)   全連接層函數(shù)   
    發(fā)表于 10-29 06:08

    在Ubuntu20.04系統(tǒng)中訓練神經網絡模型的一些經驗

    , batch_size=512, epochs=20)總結 這個核心算法中的卷積神經網絡結構和訓練過程,是用來對MNIST手寫數(shù)字圖像進行分類的。模型將圖像作為輸入,通過卷積和池化層提取圖像的特征,然后通過全連接層進行分類預測。訓練過程中,模型通過最小化損失函數(shù)來優(yōu)化
    發(fā)表于 10-22 07:03

    CICC2033神經網絡部署相關操作

    在完成神經網絡量化后,需要將神經網絡部署到硬件加速器上。首先需要將所有權重數(shù)據以及輸入數(shù)據導入到存儲器內。 在仿真環(huán)境下,可將其存于一個文件,并在 Verilog 代碼中通過 readmemh 函數(shù)
    發(fā)表于 10-20 08:00

    液態(tài)神經網絡(LNN):時間連續(xù)性與動態(tài)適應性的神經網絡

    1.算法簡介液態(tài)神經網絡(LiquidNeuralNetworks,LNN)是一種新型的神經網絡架構,其設計理念借鑒自生物神經系統(tǒng),特別是秀麗隱桿線蟲的神經結構,盡管這種微生物的
    的頭像 發(fā)表于 09-28 10:03 ?1224次閱讀
    液態(tài)<b class='flag-5'>神經網絡</b>(LNN):時間連續(xù)性與動態(tài)適應性的<b class='flag-5'>神經網絡</b>

    神經網絡的并行計算與加速技術

    隨著人工智能技術的飛速發(fā)展,神經網絡在眾多領域展現(xiàn)出了巨大的潛力和廣泛的應用前景。然而,神經網絡模型的復雜度和規(guī)模也在不斷增加,這使得傳統(tǒng)的串行計算方式面臨著巨大的挑戰(zhàn),如計算速度慢、訓練時間長等
    的頭像 發(fā)表于 09-17 13:31 ?1129次閱讀
    <b class='flag-5'>神經網絡</b>的并行計算與加速技術

    基于神經網絡的數(shù)字預失真模型解決方案

    在基于神經網絡的數(shù)字預失真(DPD)模型中,使用不同的激活函數(shù)對整個系統(tǒng)性能和能效有何影響?
    的頭像 發(fā)表于 08-29 14:01 ?3472次閱讀

    避雷!樹莓派初學者常犯的5個錯誤!

    如果你剛剛入手樹莓派,你就會知道它潛力無窮,幾乎能實現(xiàn)你想到的任何功能。然而,這種自由也讓你可能在不知不覺中做出對系統(tǒng)有害的操作。在本文中,我將介紹要避免犯哪些錯誤。初學者最常犯的錯誤包括:損壞SD
    的頭像 發(fā)表于 07-22 17:16 ?1337次閱讀
    避雷!樹莓派<b class='flag-5'>初學者</b>常犯的5個錯誤!

    無刷電機小波神經網絡轉子位置檢測方法的研究

    摘要:論文通過對無刷電機數(shù)學模型的推導,得出轉角:與三相相電壓之間存在映射關系,因此構建了一個以三相相電壓為輸人,轉角為輸出的小波神經網絡來實現(xiàn)轉角預測,并采用改進遺傳算法來訓練網絡結構與參數(shù),借助
    發(fā)表于 06-25 13:06

    神經網絡專家系統(tǒng)在電機故障診斷中的應用

    摘要:針對傳統(tǒng)專家系統(tǒng)不能進行自學習、自適應的問題,本文提出了基于種經網絡專家系統(tǒng)的并步電機故障診斷方法。本文將小波神經網絡和專家系統(tǒng)相結合,充分發(fā)揮了二者故障診斷的優(yōu)點,很大程度上降低了對電機
    發(fā)表于 06-16 22:09

    神經網絡RAS在異步電機轉速估計中的仿真研究

    眾多方法中,由于其結構簡單,穩(wěn)定性好廣泛受到人們的重視,且已被用于產品開發(fā)。但是MRAS仍存在在低速區(qū)速度估計精度下降和對電動機參數(shù)變化非常敏感的問題。本文利用神經網絡的特點,使估計更為簡單、快速
    發(fā)表于 06-16 21:54