国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

刪掉Transformer中的這幾層性能變好了?

深度學習自然語言處理 ? 來源:夕小瑤的賣萌屋 ? 作者:chaos ? 2021-03-08 10:27 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

基于Transformer結構的各類語言模型(Bert基于其encoder,Gpt-2基于其decoder)早已經在各類NLP任務上大放異彩,面對讓人眼花繚亂的transformer堆疊方式,你是否也會感到迷茫?沒關系,現(xiàn)在讓我們回到最初,再次看看transformer 本來的模樣——Rethinking the Value of Transformer Components。該文收錄已于COLING 2020。

眾所周知,一個完整的transformer結構可以切分成Encoder-self attention(“E:SA”), Encoder-Feed Forward(“E:FF”), Decoder-Self Attention(“D:SA”), Decoder-Encoder Attention(“D:EA”) 和 Decoder-Feed Forward(“D:FF”) 5個sub-layer結構。文中作者采用了兩種度量方式確認這些sub-layer的重要程度。

方法稍后再談,先上干貨,實驗結果表明:

Decoder self-attention layers是最不重要的,而Decoder feed-forward layers是最重要的;

離模型的輸入和輸出越近的sub-layer要比其他的重要些;

在decoder里越靠后的encoder-attention layer要比之前的重要。

這些結果對不同的度量方法,數(shù)據(jù)集,初始化種子以及模型容量都能保持一致性。

▲Transformer結構圖

模塊重要性分析

所謂的重要性究竟是什么呢?論文認為,這主要包括兩個方面:

Contribution in information Flow,對于模型信息流的貢獻程度

Criticality in Representation Generalization,模型的模塊對參數(shù)的擾動表現(xiàn)出不同的魯棒性

Contribution in Information Flow

Transformer 最初是用來做機器翻譯任務的。所謂的information flow就是指數(shù)據(jù)如何從源語言經過Transformer的encoder和decoder最終成為目標語言的。如何衡量模型的每個部分對information flow做出的貢獻呢? 最直觀的想法就是去掉那個部分看看同樣條件下模型的效果如何。如果去掉那個部分,模型效果沒什么變化,那就說明該部分沒做什么貢獻,反之,如果刪掉該部分,模型效果顯著降低則說明它貢獻卓著,沒它不行。作者采用了如下的量化方法:

公式中指的是去除第n個部分后模型整體的BLEU得分降。為了避免出現(xiàn)重要性指數(shù)出現(xiàn)負值和爆炸性下跌,作者將的值設定在[0,C]之間(真的會出現(xiàn)負重要性指數(shù)嗎?那樣倒挺好——模型變小,效果更好)。然后通過除以最大的得分降將的值進行了歸一化,這里作者設置的上限C值為基線模型的BLEU得分的1/10.

Criticality in Representation Generalization

這里說的criticality指的是模型的模塊對參數(shù)的擾動表現(xiàn)出不同的魯棒性。比方說,如果將某個模塊的參數(shù)重置為初始化參數(shù),模型的表現(xiàn)變差,那么這個模塊就是critical的,否則就是non-critical的。有人在理論上將這個criticality給公式化了,而且他們表明這個criticality可以反映神經網絡的泛化能力。

作者便是參考了這個工作,對網絡的第n個模塊,定義

即初始權重和最終權重的一個凸組合。

那么第n個部分的criticality score就可以表示為

這個式子定量的說明了criticality是最小的能使模型在閾值的情況下保持性能。這個值越小說明該模塊越不重要,這里取的是 0.5 BLEU分。

兩種度量方法雖然都是基于模塊對模型表現(xiàn)的影響的,但是又有不同之處。Contribution score可以看成是 hard metric(完全刪除模塊),而 Criticality score可以看成是一種soft metric,它衡量的是在保證模型表現(xiàn)的前提下模塊參數(shù)能多大程度的回卷。

實驗

實驗是在WMT2014 English-German(En-De)和English-French(En-Fr)兩個機器翻譯數(shù)據(jù)集上進行的,作者使用的Transformer模型和Transformer的那篇原始文獻(Vaswani et al.,2017)是一樣的。Transformer model 一共6層編碼器和解碼器,layer size是512,feed-forward sub-layer的size是2048,attention head的數(shù)值是8,dropout是0.1,initialization seed設置為1。

觀察模塊的重要性

上圖是采用兩種度量方式在兩個數(shù)據(jù)集上的實驗結果,其中X軸代表的是模塊類型,Y軸表示的是layer id。其中顏色越深就越重要??梢钥闯鰞煞N度量方式的結果很大程度上是一致的,比方說:

the decoder self-attention(D:SA)是最不重要的,而the decoder feed-forward layers(D:FF)是最重要的。

編碼器里越靠前(E:SA和E:FF)和解碼器里越靠后(D:EA和D:FF)是更重要的。這個其實很直觀,因為這些模塊離數(shù)據(jù)的輸入和輸出更近,所以對輸入句子的理解和輸出句子的生成要更加重要些。

在解碼器里越靠后的encoder-attention(D:EA)layers要比之前的encoder-attention layers重要。

分析不重要的模塊

更低的dropout比例和更多的訓練數(shù)據(jù)會讓不重要的模塊變得更少(dropout是一種常見的用來防止過擬合的手段)。為了保證模型的效果,當我們使用dropout的時候其實說明模型本身有一定程度上的冗余。在不降低模型效果的前提下,小的dropout比例剛好說明模型的冗余越少,也就是不重要的模塊更少。大規(guī)模的訓練數(shù)據(jù)本身就自帶更多的patterns。需要充分發(fā)揮transformer的各個模塊才能有效地學習到。

從上面兩張圖可以明顯的看出:當使用更小的dropout和更大的數(shù)據(jù)集時,顏色深的版塊明顯變得更多。此外之前所得到的結論這里依然成立。

區(qū)分和利用一批不重要的模塊

之前的結果都是只刪除一個模塊得到,那我們一次性刪除多個模塊呢?

上圖顯示當我們刪除3到4個不重要的模塊時,模型效果并沒有明顯降低。但是當刪的更多了之后,模型的效果會受到較大的影響。那么我們是否可以利用這些不怎么重要的模塊去對模型進行優(yōu)化呢?作者采用了兩種方式:一個是模塊剪枝,另一個是模塊回卷。

模塊剪枝就是將不重要的模塊直接刪掉,因為刪掉了相應模塊使得模型的參數(shù)變小,作為對比作者在相同參數(shù)量下使用了一個淺層的decoder模型結果如表:

ad644d5a-7f2a-11eb-8b86-12bb97331649.png

可以看出剪枝后的模型要比同樣參數(shù)下的淺層模型結果要好,而且也能達到和原始模型相應的效果,有的甚至更好(還真有)。

模塊回卷就是將不重要的模塊參數(shù)回卷到初始化狀態(tài),再和其他模塊一起微調一下得到的訓練結果要比原始模型好一點。

總結

我們可以利用contribution score和criticality score評價模型中各個模塊的重要性,知曉了模塊的重要性程度后我們可以對不重要的模塊進行剪枝或者參數(shù)回卷都能在一定程度上讓原有模型得到優(yōu)化。

原文標題:我刪掉了Transformer中的這幾層…性能反而變好了?

文章出處:【微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

責任編輯:haq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關注

    關注

    1817

    文章

    50098

    瀏覽量

    265372
  • 深度學習
    +關注

    關注

    73

    文章

    5599

    瀏覽量

    124398
  • Transformer
    +關注

    關注

    0

    文章

    156

    瀏覽量

    6937

原文標題:我刪掉了Transformer中的這幾層…性能反而變好了?

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    Transformer 入門:從零理解 AI 大模型的核心原理

    │ │ 456 │→ │ 25 │ └─────────┘│ 36 │ (2×3) └─────────┘ (3×2) 記憶技巧:想象沿著對角線折疊紙張。 在 Transformer 的應用:計算注意力分數(shù)
    發(fā)表于 02-10 16:33

    Transformer如何讓自動駕駛大模型獲得思考能力?

    在談及自動駕駛時,Transformer一直是非常關鍵的技術,為何Transformer在自動駕駛行業(yè)一直被提及?
    的頭像 發(fā)表于 02-01 09:15 ?4163次閱讀

    真不敢信,PCB板上就挪動了一個電阻,DDR3竟神奇變好了

    DDRx調試的問題我們經常會碰到,但PCB板上這個問題卻很初級,調了一周都沒有解決,沒想到最后挪動了一個電阻就好了,不信大家來看看怎么回事!
    的頭像 發(fā)表于 01-05 15:40 ?237次閱讀
    真不敢信,PCB板上就挪動了一個電阻,DDR3竟神奇<b class='flag-5'>變好了</b>

    Transformer如何讓自動駕駛變得更聰明?

    ]自動駕駛中常提的Transformer本質上是一種神經網絡結構,最早在自然語言處理里火起來。與卷積神經網絡(CNN)或循環(huán)神經網絡(RNN)不同,Transformer能夠自動審視所有輸入信息,并動態(tài)判斷哪些部分更為關鍵,同時可以將這些重要信息有效地關聯(lián)起來。
    的頭像 發(fā)表于 11-19 18:17 ?2273次閱讀

    一文讀懂儲能變流器PCS

    性能起著至關重要的作用。一、PCS的定義與核心功能儲能變流器(PowerConversionSystem,簡稱PCS)是儲能系統(tǒng)的核心設備,負責實現(xiàn)電能形式的雙向
    的頭像 發(fā)表于 08-14 11:15 ?4353次閱讀
    一文讀懂儲<b class='flag-5'>能變</b>流器PCS

    自動駕駛Transformer大模型會取代深度學習嗎?

    [首發(fā)于智駕最前沿微信公眾號]近年來,隨著ChatGPT、Claude、文心一言等大語言模型在生成文本、對話交互等領域的驚艷表現(xiàn),“Transformer架構是否正在取代傳統(tǒng)深度學習”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?4184次閱讀
    自動駕駛<b class='flag-5'>中</b><b class='flag-5'>Transformer</b>大模型會取代深度學習嗎?

    如何實現(xiàn)高效雙向電能變

    隨著電動汽車、家庭和工商業(yè)儲能產品快速普及,雙向電能變換系統(tǒng)的熱度也在不斷攀升。作為電網與電池的功率橋梁,雙向電能變換系統(tǒng)基于一套硬件電路就能控制電池充放電,實現(xiàn)能量雙向流動,相比傳統(tǒng)單向變換器可大幅降低硬件成本,減小設備體積。
    的頭像 發(fā)表于 07-23 11:40 ?1556次閱讀

    能變流器的靜電與浪涌防護技術解析

    講解一、儲能變流器(PCS)儲能變流器(PowerConversionSystem,PCS)又稱功率轉換系統(tǒng),是儲能系統(tǒng)實現(xiàn)能量雙向轉換的核心環(huán)節(jié),完整的電化學儲能系統(tǒng)主要由電池組、電池管理系統(tǒng)(BMS)、能量管理系統(tǒng)(EMS
    的頭像 發(fā)表于 06-12 18:28 ?1371次閱讀
    儲<b class='flag-5'>能變</b>流器的靜電與浪涌防護技術解析

    Transformer架構編碼器的工作流程

    編碼器是Transformer體系結構的基本組件。編碼器的主要功能是將輸入標記轉換為上下文表示。與早期獨立處理token的模型不同,Transformer編碼器根據(jù)整個序列捕獲每個token的上下文。
    的頭像 發(fā)表于 06-10 14:27 ?1066次閱讀
    <b class='flag-5'>Transformer</b>架構<b class='flag-5'>中</b>編碼器的工作流程

    Transformer架構概述

    由于Transformer模型的出現(xiàn)和快速發(fā)展,深度學習領域正在經歷一場翻天覆地的變化。這些突破性的架構不僅重新定義了自然語言處理(NLP)的標準,而且拓寬了視野,徹底改變了AI的許多方面。
    的頭像 發(fā)表于 06-10 14:24 ?1288次閱讀
    <b class='flag-5'>Transformer</b>架構概述

    快手上線鴻蒙應用高性能解決方案:數(shù)據(jù)反序列化性能提升90%

    了其數(shù)據(jù)反序列化性能,在典型場景下能夠降低約90%的數(shù)據(jù)轉換耗時,為鴻蒙應用帶來了更流暢的用戶體驗和更敏捷的交互響應。 在鴻蒙應用開發(fā)過程,“class-transformer”三方庫被廣泛應用于將
    發(fā)表于 05-15 10:01

    數(shù)據(jù)橋梁,智能互聯(lián) | 工業(yè)協(xié)議網關在智能變電站的應用

    自動化、智能化水平不斷提升。傳統(tǒng)電力系統(tǒng)存在的設備通信協(xié)議不兼容、數(shù)據(jù)采集效率低、安全性不足等問題在智能變電站的建設和升級尤為突出。
    的頭像 發(fā)表于 03-14 17:25 ?1199次閱讀
    數(shù)據(jù)橋梁,智能互聯(lián) | 工業(yè)協(xié)議網關在智<b class='flag-5'>能變</b>電站<b class='flag-5'>中</b>的應用

    探究智能變電站綜自系統(tǒng)的設計與選型

    在智能電網相應體系,智能變電站占據(jù)著關鍵性地位,對于智能電網的正常運行和良好發(fā)展具有至關重要的影響。文中簡述了智能變電站綜合自動化系統(tǒng)的概念,并結合相關案例,探究了智能變電站綜合自動
    的頭像 發(fā)表于 03-14 11:05 ?957次閱讀
    探究智<b class='flag-5'>能變</b>電站綜自系統(tǒng)的設計與選型

    SiC模塊解決儲能變流器PCSSiC MOSFET雙極性退化失效痛點

    碳化硅(SiC) MOSFET的雙極性退化(Bipolar Degradation)是其在實際應用面臨的重要可靠性問題,尤其在儲能變流器(PCS)等高功率、高頻應用場景矛盾尤為突出。在儲
    的頭像 發(fā)表于 03-09 06:44 ?1770次閱讀
    SiC模塊解決儲<b class='flag-5'>能變</b>流器PCS<b class='flag-5'>中</b>SiC MOSFET雙極性退化失效痛點

    CUBEMX在線升級,保存在軟件子目錄下的工程文件夾自動給刪掉了,為什么?

    這是識別了不是軟件的文件夾自動刪掉?我已經重新試過一次了,退回6.12版本然后在線升級,果然新建的工程文件升級后 被刪掉
    發(fā)表于 03-07 08:08