国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

PyTorch中激活函數的全面概覽

新機器視覺 ? 來源:新機器視覺 ? 2024-04-30 09:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

為了更清晰地學習Pytorch中的激活函數,并對比它們之間的不同,這里對最新版本的Pytorch中的激活函數進行了匯總,主要介紹激活函數的公式、圖像以及使用方法,具體細節可查看官方文檔。

1、ELU

公式:

99f3d2c6-063c-11ef-a297-92fbcf53809c.png

圖像:

99fd92e8-063c-11ef-a297-92fbcf53809c.png

示例:

9a09bc58-063c-11ef-a297-92fbcf53809c.png

2、Hardshrink

公式:

9a0d8e14-063c-11ef-a297-92fbcf53809c.png

圖像:

9a1adc5e-063c-11ef-a297-92fbcf53809c.png

示例:

9a256520-063c-11ef-a297-92fbcf53809c.png

3、Hardsigmoid

公式:

9a2c35bc-063c-11ef-a297-92fbcf53809c.png

圖像:

9a300804-063c-11ef-a297-92fbcf53809c.png

示例:

9a3d2eda-063c-11ef-a297-92fbcf53809c.png

4、Hardtanh

公式:

9a47b2ce-063c-11ef-a297-92fbcf53809c.png

圖像:

9a52d0fa-063c-11ef-a297-92fbcf53809c.png

示例:

9a5aaf28-063c-11ef-a297-92fbcf53809c.png

5、Hardswish

公式:

9a61970c-063c-11ef-a297-92fbcf53809c.png

圖像:

9a697d82-063c-11ef-a297-92fbcf53809c.png

示例:

9ab8be9c-063c-11ef-a297-92fbcf53809c.png

6、LeakyReLU

公式:

9ac00fd0-063c-11ef-a297-92fbcf53809c.png

圖像:

9ac6b312-063c-11ef-a297-92fbcf53809c.png

示例:

9ad15c04-063c-11ef-a297-92fbcf53809c.png

7、LogSigmoid

公式:

9ad4fc92-063c-11ef-a297-92fbcf53809c.png

圖像:

9ada80c2-063c-11ef-a297-92fbcf53809c.png

示例;

9ae1d9e4-063c-11ef-a297-92fbcf53809c.png

8、PReLU

公式:

9ae56e60-063c-11ef-a297-92fbcf53809c.png

其中,a是可學習的參數。

圖像:

9aedb9f8-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.PReLU()

9、ReLU

公式:

9af7ac06-063c-11ef-a297-92fbcf53809c.png

圖像:

9afe6668-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.ReLU()

10、ReLU6

公式:

9b0258e0-063c-11ef-a297-92fbcf53809c.png

圖像:

9b06107a-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.ReLU6()

11、RReLU

公式:

9b0b45f4-063c-11ef-a297-92fbcf53809c.png

其中,a從均勻分布U(lower,upper)隨機采樣得到。

圖像:

9b12ee58-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.RReLU(0.1, 0.3)

12、SELU

公式:

9b1b5ce6-063c-11ef-a297-92fbcf53809c.png

其中,a=1.6732632423543772848170429916717,scale=1.0507009873554804934193349852946。

圖像:

9b233a42-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.SELU()

13、CELU

公式:

9b2c92ea-063c-11ef-a297-92fbcf53809c.png

圖像:

9b337ff6-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.CELU()

14、GELU

公式:

9b3fd0c6-063c-11ef-a297-92fbcf53809c.png

圖像:

9b4984b8-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.GELU()

15、Sigmoid

公式:

9b4d35ea-063c-11ef-a297-92fbcf53809c.png

圖像:

9b50fb3a-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn. Sigmoid()

16、SiLU

公式:

9b56ebd0-063c-11ef-a297-92fbcf53809c.png

圖像:

9b5c0836-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.SiLU()

17、Mish

公式:

9b5f8fe2-063c-11ef-a297-92fbcf53809c.png

圖像:

9b6a56ca-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Mish()

18、Softplus

公式:

9b7824d0-063c-11ef-a297-92fbcf53809c.png

對于數值穩定性,當9b7fa9b2-063c-11ef-a297-92fbcf53809c.png時,恢復到線性函數。

圖像:

9b865852-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Softplus()

19、Softshrink

公式:

9b906cca-063c-11ef-a297-92fbcf53809c.png

圖像:

9b96ad2e-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Softshrink()

20、Softsign

公式:

9b9ef812-063c-11ef-a297-92fbcf53809c.png

圖像:

9ba45866-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Softsign()

21、Tanh

公式:

9bad9bce-063c-11ef-a297-92fbcf53809c.png

圖像:

9bb53b36-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Tanh()

22、Tanhshrink

公式:

9bc0bfb0-063c-11ef-a297-92fbcf53809c.png

圖像:

9bc7eb46-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Tanhshrink()

23、Threshold

公式:

9bd43a18-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Threshold(0.1, 20)

24、GLU

公式:

9bd7d420-063c-11ef-a297-92fbcf53809c.png

其中,a是輸入矩陣的前半部分,b是后半部分。

示例:

m = nn.GLU()

25、Softmin

公式:

9bdb6036-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Softmin(dim=1)

26、Softmax

公式:

9be16e72-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Softmax(dim=1)

27、LogSoftmax

公式:

9beba9a0-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.LogSoftmiax(dim=1)

28、其它

還有MultiheadAttention、Softmax2d、AdaptiveLogSoftmaxWithLoss相對復雜一些沒有添加,可去官網文檔查看.

審核編輯:黃飛

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 函數
    +關注

    關注

    3

    文章

    4417

    瀏覽量

    67502
  • pytorch
    +關注

    關注

    2

    文章

    813

    瀏覽量

    14850

原文標題:Pytorch激活函數最全匯總

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    Stm32寄存器與庫函數概覽

    Stm32寄存器與庫函數概覽(摘自固件庫使用手冊)
    發表于 01-26 11:04

    基于神經網絡的激活函數和相應的數學介紹

    希望你理解了激活函數背后的思想,為什么要使用激活函數,以及如何選用激活函數
    的頭像 發表于 01-10 11:53 ?7066次閱讀
    基于神經網絡的<b class='flag-5'>激活</b><b class='flag-5'>函數</b>和相應的數學介紹

    激活函數sigmoid、ReLU等函數的一些性質

    非線性:當激活函數是線性的時候,一個兩層的神經網絡就可以基本逼近所有的函數,但是,如果激活函數是恒等激活
    的頭像 發表于 08-02 14:52 ?1.2w次閱讀
    <b class='flag-5'>激活</b><b class='flag-5'>函數</b><b class='flag-5'>中</b>sigmoid、ReLU等<b class='flag-5'>函數</b>的一些性質

    圖文詳解:神經網絡的激活函數

    什么是神經網絡激活函數激活函數有助于決定我們是否需要激活神經元。如果我們需要發射一個神經元那么信號的強度是多少。
    的頭像 發表于 07-05 11:21 ?4521次閱讀
    圖文詳解:神經網絡的<b class='flag-5'>激活</b><b class='flag-5'>函數</b>

    詳解十種激活函數的優缺點

    激活函數(Activation Function)是一種添加到人工神經網絡函數,旨在幫助網絡學習數據的復雜模式。類似于人類大腦中基于神
    的頭像 發表于 03-05 16:15 ?1.4w次閱讀
    詳解十種<b class='flag-5'>激活</b><b class='flag-5'>函數</b>的優缺點

    關于深度學習最常用的10大激活函數詳解

    那就讓我們來整理一下深度學習離不開的激活函數
    的頭像 發表于 03-12 17:45 ?3891次閱讀
    關于深度學習最常用的10大<b class='flag-5'>激活</b><b class='flag-5'>函數</b>詳解

    PyTorch已為我們實現了大多數常用的非線性激活函數

    PyTorch已為我們實現了大多數常用的非線性激活函數,我們可以像使用任何其他的層那樣使用它們。讓我們快速看一個在PyTorch中使用ReLU激活
    的頭像 發表于 07-06 14:47 ?1380次閱讀

    PyTorch中使用ReLU激活函數的例子

    PyTorch已為我們實現了大多數常用的非線性激活函數,我們可以像使用任何其他的層那樣使用它們。讓我們快速看一個在PyTorch中使用ReLU激活
    的頭像 發表于 07-06 15:27 ?3140次閱讀

    PyTorchnn.Conv2d與nn.ConvTranspose2d函數的用法

    PyTorchnn.Conv2d與nn.ConvTranspose2d函數的用法
    的頭像 發表于 01-11 16:43 ?7029次閱讀
    <b class='flag-5'>PyTorch</b><b class='flag-5'>中</b>nn.Conv2d與nn.ConvTranspose2d<b class='flag-5'>函數</b>的用法

    解析激活函數作用

    激活函數是用來加入非線性因素的,解決線性模型所不能解決的問題。 下面我分別從這個方面通過例子給出自己的理解~
    的頭像 發表于 02-17 15:46 ?1529次閱讀
    解析<b class='flag-5'>激活</b><b class='flag-5'>函數</b>作用

    PyTorch教程23.7之效用函數和類

    電子發燒友網站提供《PyTorch教程23.7之效用函數和類.pdf》資料免費下載
    發表于 06-06 09:19 ?0次下載
    <b class='flag-5'>PyTorch</b>教程23.7之效用<b class='flag-5'>函數</b>和類

    神經網絡激活函數有哪些

    在神經網絡激活函數是一個至關重要的組成部分,它決定了神經元對于輸入信號的反應方式,為神經網絡引入了非線性因素,使得網絡能夠學習和處理復雜的模式。本文將詳細介紹神經網絡中常用的激活
    的頭像 發表于 07-01 11:52 ?1867次閱讀

    神經網絡激活函數的定義及類型

    引言 神經網絡是一種模擬人腦神經元結構的計算模型,廣泛應用于圖像識別、自然語言處理、語音識別等領域。在神經網絡激活函數起著至關重要的作用,它決定了神經元的輸出值,進而影響整個網絡的性能。本文將
    的頭像 發表于 07-02 10:09 ?2105次閱讀

    卷積神經網絡激活函數的作用

    卷積神經網絡(Convolutional Neural Networks, CNNs)是深度學習中一種重要的神經網絡結構,廣泛應用于圖像識別、語音識別、自然語言處理等領域。在卷積神經網絡激活函數
    的頭像 發表于 07-03 09:18 ?2751次閱讀

    BP神經網絡激活函數怎么選擇

    激活函數起著至關重要的作用,它決定了神經元的輸出方式,進而影響整個網絡的性能。 一、激活函數的作用
    的頭像 發表于 07-03 10:02 ?1961次閱讀