国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何在不增加額外參數(shù)量的前提下把模型的表達(dá)能力挖掘到極致

電子工程師 ? 來源:機(jī)器之心 ? 作者:機(jī)器之心 ? 2022-08-08 16:25 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

今天跟大家分享一篇來自CMU等機(jī)構(gòu)的論文《Sliced Recursive Transformer》,該論文已被 ECCV 2022 接收。

目前 vision transformer 在不同視覺任務(wù)上如分類、檢測(cè)等都展示出了強(qiáng)大的性能,但是其巨大的參數(shù)量和計(jì)算量阻礙了該模型進(jìn)一步在實(shí)際場(chǎng)景中的應(yīng)用。基于這個(gè)考慮,本文重點(diǎn)研究了如何在不增加額外參數(shù)量的前提下把模型的表達(dá)能力挖掘到極致,同時(shí)還要保證模型計(jì)算量在合理范圍內(nèi),從而可以在一些存儲(chǔ)容量小,計(jì)算能力弱的嵌入式設(shè)備上部署。

基于這個(gè)動(dòng)機(jī),Zhiqiang Shen、邢波等研究者提出了一個(gè) SReT 模型,通過循環(huán)遞歸結(jié)構(gòu)來強(qiáng)化每個(gè) block 的特征表達(dá)能力,同時(shí)又提出使用多個(gè)局部 group self-attention 來近似 vanilla global self-attention,在顯著降低計(jì)算量 FLOPs 的同時(shí),模型沒有精度的損失。

6f84e69e-16c2-11ed-ba43-dac502259ad0.png

論文地址:https://arxiv.org/abs/2111.05297

代碼和模型:https://github.com/szq0214/SReT

總結(jié)而言,本文主要有以下兩個(gè)創(chuàng)新點(diǎn):

使用類似 RNN 里面的遞歸結(jié)構(gòu)(recursive block)來構(gòu)建 ViT 主體,參數(shù)量不漲的前提下提升模型表達(dá)能力;

使用 CNN 中 group-conv 類似的 group self-attention 來降低 FLOPs 的同時(shí)保持模型的高精度

此外,本文還有其他一些小的改動(dòng):

網(wǎng)絡(luò)最前面使用三層連續(xù)卷積,卷積核為 3x3,結(jié)構(gòu)直接使用了研究者之前 DSOD 里面的 stem 結(jié)構(gòu);

Knowledge distillation 只使用了單獨(dú)的 soft label,而不是 DeiT 里面 hard 形式的 label 加 one-hot ground-truth,因?yàn)檠芯空哒J(rèn)為 soft label 包含的信息更多,更有利于知識(shí)蒸餾;

使用可學(xué)習(xí)的 residual connection 來提升模型表達(dá)能力;

如下圖所示,本文所提出的模型在參數(shù)量(Params)和計(jì)算量(FLOPs)方面相比其他模型都有明顯的優(yōu)勢(shì):

6f9bf410-16c2-11ed-ba43-dac502259ad0.png

下面我們來解讀這篇文章: 1.ViT 中的遞歸模塊 遞歸操作的基本組成模塊如下圖:

6fac3848-16c2-11ed-ba43-dac502259ad0.png

該模塊非常簡單明了,類似于 RNN 結(jié)構(gòu),將模塊當(dāng)前 step 的輸出作為下個(gè) step 的輸入重新輸進(jìn)該模塊,從而增強(qiáng)模型特征表達(dá)能力。 研究者展示了將該設(shè)計(jì)直接應(yīng)用在 DeiT 上的結(jié)果,如下所示:

6fb76088-16c2-11ed-ba43-dac502259ad0.png

可以看到在加入額外一次簡單遞歸操作之后就可以得到將近 2% 的精度提升。 當(dāng)然具體到全局網(wǎng)絡(luò)結(jié)構(gòu)層面還有不同的遞歸構(gòu)建方法,如下圖:

6fcb1b1e-16c2-11ed-ba43-dac502259ad0.png

其中 NLL 層(Non-linear Projection Layer)是用來保證每個(gè)遞歸模塊輸入輸出不完全一致。論文提出使用這個(gè)模塊的主要原因是發(fā)現(xiàn)在上述 Table 1 里面更多次數(shù)的遞歸操作并沒有進(jìn)一步提升性能,說明網(wǎng)絡(luò)可能學(xué)到了一個(gè)比較簡單的狀態(tài),而 NLL 層可以強(qiáng)制模型輸入輸出不一致從而緩解這種情況。同時(shí),研究者從實(shí)驗(yàn)結(jié)果發(fā)現(xiàn)上圖 (1) internal loop 相比 external loop 設(shè)計(jì)擁有更好的 accuracy-FLOPs 結(jié)果。 2. 分組的 Group Self-attention 模塊 如下圖所示,研究者提出了一種分組的 group self-attention 策略來降低模型的 FLOPs,同時(shí)保證 self-attention 的全局注意力,從而使得模型沒有明顯精度損失:

6fd2573a-16c2-11ed-ba43-dac502259ad0.png

Group Self-attention 模塊具體形式如下:

6fe58ecc-16c2-11ed-ba43-dac502259ad0.png

Group self-attention 的缺點(diǎn)是只有局部區(qū)域會(huì)相互作用,研究者提出通過使用 Permutation 操作來近似全局 self-attention 的機(jī)制,同時(shí)通過 Inverse Permutation 來復(fù)原和保留 tokens 的次序信息,針對(duì)這個(gè)部分的消融實(shí)驗(yàn)如下所示:

6fee80d6-16c2-11ed-ba43-dac502259ad0.png

其中 P 表示加入 Permutation,I 表示加入 Inverse Permutation,-L 表示如果 group 數(shù)為 1,就不使用 P 和 I(比如模型最后一個(gè) stage)。根據(jù)上述表格的結(jié)果,研究者最后采用了 [8, 2][4,1][1,1] 這種分組設(shè)計(jì)。 3. 其他設(shè)計(jì) 可學(xué)習(xí)的殘差結(jié)構(gòu) (LRC):

6ffd0804-16c2-11ed-ba43-dac502259ad0.png

研究者嘗試了上圖三種結(jié)構(gòu),圖(3)結(jié)果最佳。具體而言,研究者在每個(gè)模塊里面添加了 6 個(gè)額外參數(shù)(4+2,2 個(gè)在 NLL 層),這些參數(shù)會(huì)跟模型其他參數(shù)一起學(xué)習(xí),從而使網(wǎng)絡(luò)擁有更強(qiáng)的表達(dá)能力,參數(shù)初始化都為 1,在訓(xùn)練過程 6 個(gè)參數(shù)的數(shù)值變化情況如下所示:

7009c85a-16c2-11ed-ba43-dac502259ad0.png

Stem 結(jié)構(gòu)組成:

702da22a-16c2-11ed-ba43-dac502259ad0.png

如上表所示,Stem 由三個(gè) 3x3 的連續(xù)卷積組成,每個(gè)卷積 stride 為 2。 整體網(wǎng)絡(luò)結(jié)構(gòu): 研究者進(jìn)一步去掉了 class token 和 distillation token,并且發(fā)現(xiàn)精度有少量提升。

70388b2c-16c2-11ed-ba43-dac502259ad0.png

消融實(shí)驗(yàn):

7045dea8-16c2-11ed-ba43-dac502259ad0.png

模型混合深度訓(xùn)練: 研究者進(jìn)一步發(fā)現(xiàn)分組遞歸設(shè)計(jì)還有一個(gè)好處就是:可以支持模型混合深度訓(xùn)練,這種訓(xùn)練方式可以大大降低深度網(wǎng)絡(luò)結(jié)構(gòu)優(yōu)化復(fù)雜度,研究者展示了 108 層不同模型結(jié)構(gòu)優(yōu)化過程的 landscape 可視化,如下圖所示,可以很明顯的看到混合深度結(jié)構(gòu)優(yōu)化過程困難程度顯著低于另外兩種結(jié)構(gòu)。

7050dbc8-16c2-11ed-ba43-dac502259ad0.png

最后,分組 group self-attention 算法 PyTorch 偽代碼如下:

705f16ca-16c2-11ed-ba43-dac502259ad0.png

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3751

    瀏覽量

    52099
  • 遞歸
    +關(guān)注

    關(guān)注

    0

    文章

    29

    瀏覽量

    9293
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    355

    瀏覽量

    23417

原文標(biāo)題:ECCV 2022 | 視覺Transformer上進(jìn)行遞歸!SReT:不增參數(shù),計(jì)算量還少!

文章出處:【微信號(hào):CVer,微信公眾號(hào):CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    從數(shù)據(jù)模型:如何預(yù)測(cè)細(xì)節(jié)距鍵合的剪切力?

    在微電子封裝領(lǐng)域,細(xì)節(jié)距鍵合工藝的開發(fā)與質(zhì)量控制面臨著巨大挑戰(zhàn)。工程師們常常需要在缺乏大量破壞性測(cè)試的前提下,快速評(píng)估或預(yù)測(cè)一個(gè)鍵合點(diǎn)的剪切力性能。能否根據(jù)焊球的表觀尺寸,通過一個(gè)可靠的數(shù)學(xué)模型
    發(fā)表于 01-08 09:45

    何在NVIDIA Jetson AGX Thor上部署1200億參數(shù)模型

    我們將嘗試能否在 Jetson AGX Thor 上部署并成功運(yùn)行高達(dá) 1,200 億參數(shù)量的 gpt-oss-120b 大模型
    的頭像 發(fā)表于 12-26 17:06 ?4816次閱讀
    如<b class='flag-5'>何在</b>NVIDIA Jetson AGX Thor上部署1200億<b class='flag-5'>參數(shù)</b>大<b class='flag-5'>模型</b>

    從EtherNet/IPDeviceNet:一場(chǎng)驅(qū)動(dòng)智能倉儲(chǔ)升級(jí)的“協(xié)議融合”實(shí)踐

    控制系統(tǒng)核心為三套羅克韋爾ControlLogix系列PLC(采用EtherNet/IP協(xié)議),而新增的智能視覺分揀設(shè)備(品牌為康耐視)僅支持DeviceNet接口。這種新舊設(shè)備協(xié)議兼容的困境,正是當(dāng)前制造業(yè)智能化改造中典型場(chǎng)景——如何在保障現(xiàn)有控制系統(tǒng)投資
    的頭像 發(fā)表于 12-17 15:32 ?281次閱讀
    從EtherNet/IP<b class='flag-5'>到</b>DeviceNet:一場(chǎng)驅(qū)動(dòng)智能倉儲(chǔ)升級(jí)的“協(xié)議融合”實(shí)踐

    亞馬遜云科技擴(kuò)展模型選擇 Amazon Bedrock新增18款開放權(quán)重模型

    快速、輕松地評(píng)估、測(cè)試和采用新模型,并可在無需重寫代碼的情況下靈活切換,從而在不影響生產(chǎn)系統(tǒng)的前提下找到最適合業(yè)務(wù)場(chǎng)景的模型
    的頭像 發(fā)表于 12-13 13:53 ?770次閱讀

    中科曙光助力首個(gè)地質(zhì)大模型“坤樞”上線

    近日,首個(gè)地質(zhì)領(lǐng)域?qū)S么笳Z言模型“坤樞”在河南鄭州正式上線,該大模型的部署將有助于夯實(shí)地質(zhì)產(chǎn)業(yè)數(shù)字化基礎(chǔ),在保障國家能源資源信息安全前提下,完成多項(xiàng)地質(zhì)相關(guān)任務(wù)。而在該模型誕生過程中,
    的頭像 發(fā)表于 10-14 16:12 ?782次閱讀

    何在保證監(jiān)測(cè)效果的前提下降低電能質(zhì)量在線監(jiān)測(cè)裝置的運(yùn)行和維護(hù)成本?

    在保證監(jiān)測(cè)效果(核心是 數(shù)據(jù)精度達(dá)標(biāo)、數(shù)據(jù)完整性可靠、事件捕捉及時(shí) )的前提下降低運(yùn)行和維護(hù)成本,需圍繞 “全生命周期成本優(yōu)化” 展開,從 選型源頭、運(yùn)行管控、維護(hù)模式、數(shù)據(jù)價(jià)值挖掘 四個(gè)關(guān)鍵環(huán)節(jié)
    的頭像 發(fā)表于 09-03 17:29 ?913次閱讀
    如<b class='flag-5'>何在</b>保證監(jiān)測(cè)效果的<b class='flag-5'>前提下</b>降低電能質(zhì)量在線監(jiān)測(cè)裝置的運(yùn)行和維護(hù)成本?

    何在保證數(shù)據(jù)安全的前提下優(yōu)化通信協(xié)議?

    產(chǎn)品實(shí)拍圖 在保證數(shù)據(jù)安全的前提下優(yōu)化通信協(xié)議,核心是 **“安全機(jī)制輕量化、安全與效率協(xié)同設(shè)計(jì)、按需適配場(chǎng)景風(fēng)險(xiǎn)”**—— 既不因過度安全(如復(fù)雜加密、冗余校驗(yàn))犧牲傳輸效率,也不因追求效率(如
    的頭像 發(fā)表于 08-27 09:55 ?723次閱讀
    如<b class='flag-5'>何在</b>保證數(shù)據(jù)安全的<b class='flag-5'>前提下</b>優(yōu)化通信協(xié)議?

    在MCU未損壞的前提下,當(dāng)編程新的Config設(shè)置值時(shí),為什么MCU上電后總是會(huì)復(fù)位呢?

    在MCU未損壞的前提下,當(dāng)編程新的Config設(shè)置值時(shí),為什么MCU上電后總是會(huì)復(fù)位?
    發(fā)表于 08-27 07:04

    基于NVIDIA Llama Nemotron Super v1.5模型構(gòu)建AI智能體

    AI 智能體現(xiàn)在已經(jīng)能夠解決多步驟問題、編寫生產(chǎn)級(jí)代碼并在多個(gè)領(lǐng)域擔(dān)任通用助手。但要充分發(fā)揮其潛力,還需要在控制成本的前提下加入先進(jìn)的邏輯推理模型
    的頭像 發(fā)表于 08-05 16:17 ?1400次閱讀
    基于NVIDIA Llama Nemotron Super v1.5<b class='flag-5'>模型</b>構(gòu)建AI智能體

    芯盾時(shí)代再度中標(biāo)某省級(jí)銀行

    芯盾時(shí)代再度中標(biāo)某省級(jí)銀行!芯盾時(shí)代通過自研的智能風(fēng)控決策平臺(tái)(IRD),結(jié)合AI模型、規(guī)則引擎等,完善客戶交易全周期防護(hù)能力,在保障數(shù)據(jù)隱私的前提下提升模型迭代效率,進(jìn)一步提升銀行全
    的頭像 發(fā)表于 07-25 15:26 ?1154次閱讀

    【「DeepSeek 核心技術(shù)揭秘」閱讀體驗(yàn)】第三章:探索 DeepSeek - V3 技術(shù)架構(gòu)的奧秘

    數(shù)據(jù)中挖掘有價(jià)值信息,這也讓我意識(shí)架構(gòu)設(shè)計(jì)對(duì)模型性能起著根本性作用,是 AI 具備強(qiáng)大能力的 “骨骼” 支撐。 二、流水線并行 書中關(guān)于流水線并行的內(nèi)容,展現(xiàn)了提升計(jì)算效率的巧妙思路
    發(fā)表于 07-20 15:07

    芯盾時(shí)代助力四川銀行電子渠道實(shí)時(shí)交易監(jiān)測(cè)系統(tǒng)升級(jí)

    芯盾時(shí)代再度中標(biāo)四川銀行!芯盾時(shí)代通過自研的智能風(fēng)控決策平臺(tái)(IRD),結(jié)合AI模型、規(guī)則引擎等,完善客戶延遲支付規(guī)則的布控能力,在保障數(shù)據(jù)隱私的前提下提升模型迭代效率,進(jìn)一步提升電子
    的頭像 發(fā)表于 06-05 17:38 ?1296次閱讀

    如何選擇適合的微功耗開關(guān)和鎖存器

    在電子器件領(lǐng)域快速發(fā)展的背景下,如何在不影響性能的前提下實(shí)現(xiàn)功耗優(yōu)化,已成為工程師面臨的重要挑戰(zhàn)。
    的頭像 發(fā)表于 05-16 09:50 ?1000次閱讀
    如何選擇適合的微功耗開關(guān)和鎖存器

    永磁同步電機(jī)伺服系統(tǒng)PI參數(shù)整定

    了合理有效的 PI 控制器參數(shù)整定方法,在滿足系統(tǒng)穩(wěn)定的前提下實(shí)現(xiàn)了良好的動(dòng)態(tài)性能 。實(shí)驗(yàn)結(jié)果驗(yàn)證 了控制指標(biāo)設(shè)定的合理性和整定方法的有效性。*附件:永磁同步電機(jī)伺服系統(tǒng)PI參數(shù)整定.pdf
    發(fā)表于 03-20 12:59

    優(yōu)刻得安全屋+DeepSeek:解鎖數(shù)據(jù)安全流通與AI賦能的創(chuàng)新場(chǎng)景

    隨著數(shù)據(jù)要素市場(chǎng)化進(jìn)程加速,如何在保障隱私安全的前提下充分釋放數(shù)據(jù)價(jià)值,并基于當(dāng)下大熱的開源模型DeepSeek實(shí)現(xiàn)智能化轉(zhuǎn)型,成為數(shù)字經(jīng)濟(jì)高質(zhì)量發(fā)展的核心命題。近日,優(yōu)刻得數(shù)據(jù)安全流通平臺(tái)“安全屋
    的頭像 發(fā)表于 03-11 16:00 ?1101次閱讀
    優(yōu)刻得安全屋+DeepSeek:解鎖數(shù)據(jù)安全流通與AI賦能的創(chuàng)新場(chǎng)景