国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

神經(jīng)網(wǎng)絡(luò)初學(xué)者的激活函數(shù)指南

Dbwd_Imgtec ? 來源:未知 ? 2023-04-18 11:20 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者:Mouaad B.

來源:DeepHub IMBA


如果你剛剛開始學(xué)習(xí)神經(jīng)網(wǎng)絡(luò),激活函數(shù)的原理一開始可能很難理解。但是如果你想開發(fā)強(qiáng)大的神經(jīng)網(wǎng)絡(luò),理解它們是很重要的。

ac8abe46-dd97-11ed-bfe3-dac502259ad0.png

但在我們深入研究激活函數(shù)之前,先快速回顧一下神經(jīng)網(wǎng)絡(luò)架構(gòu)的基本元素。如果你已經(jīng)熟悉神經(jīng)網(wǎng)絡(luò)的工作原理,可以直接跳到下一節(jié)。

神經(jīng)網(wǎng)絡(luò)架構(gòu)

神經(jīng)網(wǎng)絡(luò)由稱為神經(jīng)元的鏈接節(jié)點(diǎn)層組成,神經(jīng)元通過稱為突觸的加權(quán)連接來處理和傳輸信息。

ac9a3042-dd97-11ed-bfe3-dac502259ad0.png

每個(gè)神經(jīng)元從上一層的神經(jīng)元獲取輸入,對(duì)其輸入的和應(yīng)用激活函數(shù),然后將輸出傳遞給下一層。

神經(jīng)網(wǎng)絡(luò)的神經(jīng)元包含輸入層、隱藏層和輸出層。

輸入層只接收來自域的原始數(shù)據(jù)。這里沒有計(jì)算,節(jié)點(diǎn)只是簡(jiǎn)單地將信息(也稱為特征)傳遞給下一層,即隱藏層。隱藏層是所有計(jì)算發(fā)生的地方。它從輸入層獲取特征,并在將結(jié)果傳遞給輸出層之前對(duì)它們進(jìn)行各種計(jì)算。輸出層是網(wǎng)絡(luò)的最后一層。它使用從隱藏層獲得的所有信息并產(chǎn)生最終值。

為什么需要激活函數(shù)。為什么神經(jīng)元不能直接計(jì)算并將結(jié)果轉(zhuǎn)移到下一個(gè)神經(jīng)元?激活函數(shù)的意義是什么?

激活函數(shù)在神經(jīng)網(wǎng)絡(luò)中的作用

網(wǎng)絡(luò)中的每個(gè)神經(jīng)元接收來自其他神經(jīng)元的輸入,然后它對(duì)輸入進(jìn)行一些數(shù)學(xué)運(yùn)算以生成輸出。一個(gè)神經(jīng)元的輸出可以被用作網(wǎng)絡(luò)中其他神經(jīng)元的輸入。

acb4189a-dd97-11ed-bfe3-dac502259ad0.png

如果沒有激活函數(shù),神經(jīng)元將只是對(duì)輸入進(jìn)行線性數(shù)學(xué)運(yùn)算。這意味著無論我們?cè)诰W(wǎng)絡(luò)中添加多少層神經(jīng)元,它所能學(xué)習(xí)的東西仍然是有限的,因?yàn)檩敵隹偸禽斎氲暮?jiǎn)單線性組合。

激活函數(shù)通過在網(wǎng)絡(luò)中引入非線性來解決問題。通過添加非線性,網(wǎng)絡(luò)可以模擬輸入和輸出之間更復(fù)雜的關(guān)系,從而發(fā)現(xiàn)更多有價(jià)值的模式。

簡(jiǎn)而言之,激活函數(shù)通過引入非線性并允許神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)復(fù)雜的模式,使神經(jīng)網(wǎng)絡(luò)更加強(qiáng)大。

理解不同類型的激活函數(shù)

我們可以將這些函數(shù)分為三部分:二元、線性和非線性。

acc53db4-dd97-11ed-bfe3-dac502259ad0.png

二元函數(shù)只能輸出兩個(gè)可能值中的一個(gè),而線性函數(shù)則返回基于線性方程的值。

非線性函數(shù),如sigmoid函數(shù),Tanh, ReLU和elu,提供的結(jié)果與輸入不成比例。每種類型的激活函數(shù)都有其獨(dú)特的特征,可以在不同的場(chǎng)景中使用。
1、Sigmoid / Logistic激活函數(shù)

Sigmoid激活函數(shù)接受任何數(shù)字作為輸入,并給出0到1之間的輸出。輸入越正,輸出越接近1。另一方面,輸入越負(fù),輸出就越接近0,如下圖所示。

acd85494-dd97-11ed-bfe3-dac502259ad0.png

它具有s形曲線,使其成為二元分類問題的理想選擇。如果要?jiǎng)?chuàng)建一個(gè)模型來預(yù)測(cè)一封電子郵件是否為垃圾郵件,我們可以使用Sigmoid函數(shù)來提供一個(gè)0到1之間的概率分?jǐn)?shù)。如果得分超過0.5分,則認(rèn)為該郵件是垃圾郵件。如果它小于0.5,那么我們可以說它不是垃圾郵件。

函數(shù)定義如下:

acebc204-dd97-11ed-bfe3-dac502259ad0.png

但是Sigmoid函數(shù)有一個(gè)缺點(diǎn)——它受到梯度消失問題的困擾。當(dāng)輸入變得越來越大或越來越小時(shí),函數(shù)的梯度變得非常小,減慢了深度神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)過程,可以看上面圖中的導(dǎo)數(shù)(Derivative)曲線。

但是Sigmoid函數(shù)仍然在某些類型的神經(jīng)網(wǎng)絡(luò)中使用,例如用于二進(jìn)制分類問題的神經(jīng)網(wǎng)絡(luò),或者用于多類分類問題的輸出層,因?yàn)轭A(yù)測(cè)每個(gè)類的概率Sigmoid還是最好的解決辦法。
2、Tanh函數(shù)(雙曲正切)

Tanh函數(shù),也被稱為雙曲正切函數(shù),是神經(jīng)網(wǎng)絡(luò)中使用的另一種激活函數(shù)。它接受任何實(shí)數(shù)作為輸入,并輸出一個(gè)介于-1到1之間的值。

acff2ccc-dd97-11ed-bfe3-dac502259ad0.png

Tanh函數(shù)和Sigmoid函數(shù)很相似,但它更以0為中心。當(dāng)輸入接近于零時(shí),輸出也將接近于零。這在處理同時(shí)具有負(fù)值和正值的數(shù)據(jù)時(shí)非常有用,因?yàn)樗梢詭椭W(wǎng)絡(luò)更好地學(xué)習(xí)。

函數(shù)定義如下:

ad12834e-dd97-11ed-bfe3-dac502259ad0.png

與Sigmoid函數(shù)一樣,Tanh函數(shù)也會(huì)在輸入變得非常大或非常小時(shí)遭遇梯度消失的問題。
3、線性整流單元/ ReLU函數(shù)

ReLU是一種常見的激活函數(shù),它既簡(jiǎn)單又強(qiáng)大。它接受任何輸入值,如果為正則返回,如果為負(fù)則返回0。換句話說,ReLU將所有負(fù)值設(shè)置為0,并保留所有正值。

ad24411a-dd97-11ed-bfe3-dac502259ad0.png

函數(shù)定義如下:

ad47b974-dd97-11ed-bfe3-dac502259ad0.png

使用ReLU的好處之一是計(jì)算效率高,并且實(shí)現(xiàn)簡(jiǎn)單。它可以幫助緩解深度神經(jīng)網(wǎng)絡(luò)中可能出現(xiàn)的梯度消失問題。

但是,ReLU可能會(huì)遇到一個(gè)被稱為“dying ReLU”問題。當(dāng)神經(jīng)元的輸入為負(fù),導(dǎo)致神經(jīng)元的輸出為0時(shí),就會(huì)發(fā)生這種情況。如果這種情況發(fā)生得太頻繁,神經(jīng)元就會(huì)“死亡”并停止學(xué)習(xí)。
4、Leaky ReLU

Leaky ReLU函數(shù)是ReLU函數(shù)的一個(gè)擴(kuò)展,它試圖解決“dying ReLU”問題。Leaky ReLU不是將所有的負(fù)值都設(shè)置為0,而是將它們?cè)O(shè)置為一個(gè)小的正值,比如輸入值的0.1倍。他保證即使神經(jīng)元接收到負(fù)信息,它仍然可以從中學(xué)習(xí)。

ad5b4804-dd97-11ed-bfe3-dac502259ad0.png

函數(shù)定義如下:

ad7e9480-dd97-11ed-bfe3-dac502259ad0.png

Leaky ReLU已被證明在許多不同類型的問題中工作良好。
5、指數(shù)線性單位(elu)函數(shù)

ReLU一樣,他們的目標(biāo)是解決梯度消失的問題。elu引入了負(fù)輸入的非零斜率,這有助于防止“dying ReLU”問題

ad8ebd2e-dd97-11ed-bfe3-dac502259ad0.png

公式為:

ada1702c-dd97-11ed-bfe3-dac502259ad0.png

這里的alpha是控制負(fù)飽和度的超參數(shù)。

與ReLU和tanh等其他激活函數(shù)相比,elu已被證明可以提高訓(xùn)練和測(cè)試的準(zhǔn)確性。它在需要高準(zhǔn)確度的深度神經(jīng)網(wǎng)絡(luò)中特別有用。
6、Softmax函數(shù)

在需要對(duì)輸入進(jìn)行多類別分類的神經(jīng)網(wǎng)絡(luò)中,softmax函數(shù)通常用作輸出層的激活函數(shù)。它以一個(gè)實(shí)數(shù)向量作為輸入,并返回一個(gè)表示每個(gè)類別可能性的概率分布。

softmax的公式是:

adb67666-dd97-11ed-bfe3-dac502259ad0.png

這里的x是輸入向量,i和j是從1到類別數(shù)的索引

Softmax對(duì)于多類分類問題非常有用,因?yàn)樗_保輸出概率之和為1,從而便于解釋結(jié)果。它也是可微的,這使得它可以在訓(xùn)練過程中用于反向傳播。

7、Swish

Swish函數(shù)是一個(gè)相對(duì)較新的激活函數(shù),由于其優(yōu)于ReLU等其他激活函數(shù)的性能,在深度學(xué)習(xí)社區(qū)中受到了關(guān)注。

Swish的公式是:

adc64622-dd97-11ed-bfe3-dac502259ad0.png

這里的beta是控制飽和度的超參數(shù)。

Swish類似于ReLU,因?yàn)樗且粋€(gè)可以有效計(jì)算的簡(jiǎn)單函數(shù)。并且有一個(gè)平滑的曲線,有助于預(yù)防“dying ReLU”問題。Swish已被證明在各種深度學(xué)習(xí)任務(wù)上優(yōu)于ReLU。


選擇哪一種?

首先,需要將激活函數(shù)與你要解決的預(yù)測(cè)問題類型相匹配。可以從ReLU激活函數(shù)開始,如果沒有達(dá)到預(yù)期的結(jié)果,則可以轉(zhuǎn)向其他激活函數(shù)。

以下是一些需要原則:
  • ReLU激活函數(shù)只能在隱藏層中使用。
  • Sigmoid/Logistic和Tanh函數(shù)不應(yīng)該用于隱藏層,因?yàn)樗鼈儠?huì)在訓(xùn)練過程中引起問題。
  • Swish函數(shù)用于深度大于40層的神經(jīng)網(wǎng)絡(luò)會(huì)好很多。

輸出層的激活函數(shù)是由你要解決的預(yù)測(cè)問題的類型決定的。以下是一些需要記住的基本原則:
  • 回歸-線性激活函數(shù)

  • 二元分類- Sigmoid

  • 多類分類- Softmax

  • 多標(biāo)簽分類- Sigmoid
選擇正確的激活函數(shù)可以使預(yù)測(cè)準(zhǔn)確性有所不同。所以還需要根據(jù)不同的使用情況進(jìn)行測(cè)試。

END

推薦閱讀 對(duì)話Imagination中國(guó)區(qū)董事長(zhǎng):以GPU為支點(diǎn)加強(qiáng)軟硬件協(xié)同,助力數(shù)字化轉(zhuǎn)型合作案例 | Imagination車規(guī)級(jí)硬件虛擬化幫助Telechips提升顯示器的多樣性

Imagination Technologies是一家總部位于英國(guó)的公司,致力于研發(fā)芯片和軟件知識(shí)產(chǎn)權(quán)(IP),基于Imagination IP的產(chǎn)品已在全球數(shù)十億人的電話、汽車、家庭和工作 場(chǎng)所中使用。獲取更多物聯(lián)網(wǎng)、智能穿戴、通信汽車電子、圖形圖像開發(fā)等前沿技術(shù)信息,歡迎關(guān)注 Imagination Tech!


原文標(biāo)題:神經(jīng)網(wǎng)絡(luò)初學(xué)者的激活函數(shù)指南

文章出處:【微信公眾號(hào):Imagination Tech】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • imagination
    +關(guān)注

    關(guān)注

    1

    文章

    620

    瀏覽量

    63358

原文標(biāo)題:神經(jīng)網(wǎng)絡(luò)初學(xué)者的激活函數(shù)指南

文章出處:【微信號(hào):Imgtec,微信公眾號(hào):Imagination Tech】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    神經(jīng)網(wǎng)絡(luò)的初步認(rèn)識(shí)

    日常生活中的智能應(yīng)用都離不開深度學(xué)習(xí),而深度學(xué)習(xí)則依賴于神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)。什么是神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)的核心思想是模仿生物神經(jīng)系統(tǒng)的結(jié)構(gòu),特別是大腦中神經(jīng)
    的頭像 發(fā)表于 12-17 15:05 ?323次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的初步認(rèn)識(shí)

    FPGA初學(xué)者求助

    Vivado2025.1配置MIG時(shí)出現(xiàn)報(bào)錯(cuò) 大家好,我是一名研一的學(xué)生,同時(shí)也是一名FPGA初學(xué)者,最近在使用vivado2025.1配置MIG的時(shí)候遇到了問題,具體問題如下: 我這個(gè)mig的配置
    發(fā)表于 12-07 11:43

    激活函數(shù)ReLU的理解與總結(jié)

    激活函數(shù)的作用 神經(jīng)網(wǎng)絡(luò)中使用激活函數(shù)來加入非線性因素,提高模型的表達(dá)能力。 如果不用激勵(lì)函數(shù)
    發(fā)表于 10-31 06:16

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)原理及在MCU200T上仿真測(cè)試

    的提出很大程度的解決了BP算法在優(yōu)化深層神經(jīng)網(wǎng)絡(luò)時(shí)的梯度耗散問題。當(dāng)x&gt;0 時(shí),梯度恒為1,無梯度耗散問題,收斂快;當(dāng)x&lt;0 時(shí),該層的輸出為0。 CNN
    發(fā)表于 10-29 07:49

    NMSIS神經(jīng)網(wǎng)絡(luò)庫使用介紹

    :   神經(jīng)網(wǎng)絡(luò)卷積函數(shù)   神經(jīng)網(wǎng)絡(luò)激活函數(shù)   全連接層函數(shù)   
    發(fā)表于 10-29 06:08

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    , batch_size=512, epochs=20)總結(jié) 這個(gè)核心算法中的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)和訓(xùn)練過程,是用來對(duì)MNIST手寫數(shù)字圖像進(jìn)行分類的。模型將圖像作為輸入,通過卷積和池化層提取圖像的特征,然后通過全連接層進(jìn)行分類預(yù)測(cè)。訓(xùn)練過程中,模型通過最小化損失函數(shù)來優(yōu)化
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    在完成神經(jīng)網(wǎng)絡(luò)量化后,需要將神經(jīng)網(wǎng)絡(luò)部署到硬件加速器上。首先需要將所有權(quán)重?cái)?shù)據(jù)以及輸入數(shù)據(jù)導(dǎo)入到存儲(chǔ)器內(nèi)。 在仿真環(huán)境下,可將其存于一個(gè)文件,并在 Verilog 代碼中通過 readmemh 函數(shù)
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    1.算法簡(jiǎn)介液態(tài)神經(jīng)網(wǎng)絡(luò)(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡(luò)架構(gòu),其設(shè)計(jì)理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲的神經(jīng)結(jié)構(gòu),盡管這種微生物的
    的頭像 發(fā)表于 09-28 10:03 ?1197次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    神經(jīng)網(wǎng)絡(luò)的并行計(jì)算與加速技術(shù)

    隨著人工智能技術(shù)的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和廣泛的應(yīng)用前景。然而,神經(jīng)網(wǎng)絡(luò)模型的復(fù)雜度和規(guī)模也在不斷增加,這使得傳統(tǒng)的串行計(jì)算方式面臨著巨大的挑戰(zhàn),如計(jì)算速度慢、訓(xùn)練時(shí)間長(zhǎng)等
    的頭像 發(fā)表于 09-17 13:31 ?1122次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的并行計(jì)算與加速技術(shù)

    基于神經(jīng)網(wǎng)絡(luò)的數(shù)字預(yù)失真模型解決方案

    在基于神經(jīng)網(wǎng)絡(luò)的數(shù)字預(yù)失真(DPD)模型中,使用不同的激活函數(shù)對(duì)整個(gè)系統(tǒng)性能和能效有何影響?
    的頭像 發(fā)表于 08-29 14:01 ?3470次閱讀

    避雷!樹莓派初學(xué)者常犯的5個(gè)錯(cuò)誤!

    如果你剛剛?cè)胧謽漭桑憔蜁?huì)知道它潛力無窮,幾乎能實(shí)現(xiàn)你想到的任何功能。然而,這種自由也讓你可能在不知不覺中做出對(duì)系統(tǒng)有害的操作。在本文中,我將介紹要避免犯哪些錯(cuò)誤。初學(xué)者最常犯的錯(cuò)誤包括:損壞SD
    的頭像 發(fā)表于 07-22 17:16 ?1323次閱讀
    避雷!樹莓派<b class='flag-5'>初學(xué)者</b>常犯的5個(gè)錯(cuò)誤!

    無刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測(cè)方法的研究

    摘要:論文通過對(duì)無刷電機(jī)數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了一個(gè)以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)來實(shí)現(xiàn)轉(zhuǎn)角預(yù)測(cè),并采用改進(jìn)遺傳算法來訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù),借助
    發(fā)表于 06-25 13:06

    神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)在電機(jī)故障診斷中的應(yīng)用

    摘要:針對(duì)傳統(tǒng)專家系統(tǒng)不能進(jìn)行自學(xué)習(xí)、自適應(yīng)的問題,本文提出了基于種經(jīng)網(wǎng)絡(luò)專家系統(tǒng)的并步電機(jī)故障診斷方法。本文將小波神經(jīng)網(wǎng)絡(luò)和專家系統(tǒng)相結(jié)合,充分發(fā)揮了二者故障診斷的優(yōu)點(diǎn),很大程度上降低了對(duì)電機(jī)
    發(fā)表于 06-16 22:09

    神經(jīng)網(wǎng)絡(luò)RAS在異步電機(jī)轉(zhuǎn)速估計(jì)中的仿真研究

    眾多方法中,由于其結(jié)構(gòu)簡(jiǎn)單,穩(wěn)定性好廣泛受到人們的重視,且已被用于產(chǎn)品開發(fā)。但是MRAS仍存在在低速區(qū)速度估計(jì)精度下降和對(duì)電動(dòng)機(jī)參數(shù)變化非常敏感的問題。本文利用神經(jīng)網(wǎng)絡(luò)的特點(diǎn),使估計(jì)更為簡(jiǎn)單、快速
    發(fā)表于 06-16 21:54

    神經(jīng)網(wǎng)絡(luò)壓縮框架 (NNCF) 中的過濾器修剪統(tǒng)計(jì)數(shù)據(jù)怎么查看?

    無法觀察神經(jīng)網(wǎng)絡(luò)壓縮框架 (NNCF) 中的過濾器修剪統(tǒng)計(jì)數(shù)據(jù)
    發(fā)表于 03-06 07:10