国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機(jī)器學(xué)習(xí)中的Multi-Task多任務(wù)學(xué)習(xí)

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 作者:三和廠妹 ? 2021-01-07 14:39 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

概念

當(dāng)在一個(gè)任務(wù)中要優(yōu)化多于一個(gè)的目標(biāo)函數(shù)[1] ,就可以叫多任務(wù)學(xué)習(xí)

一些例外

「一個(gè)目標(biāo)函數(shù)的多任務(wù)」:很多任務(wù)中把loss加到一起回傳,實(shí)質(zhì)優(yōu)化的是一個(gè)目標(biāo)函數(shù), 但優(yōu)化的是多個(gè)任務(wù),loss相加是多任務(wù)學(xué)習(xí)的一種正則策略,對(duì)多個(gè)任務(wù)的參數(shù)起一種類似與均值約束的作用[2],所以也叫multi-task

「多個(gè)目標(biāo)函數(shù)的單任務(wù)」:一些NLP中用main-task和auxiliary-task 輔助任務(wù),很多輔助任務(wù)的loss并不重要,個(gè)人覺得這種雖然是多個(gè)loss,但是就是為了main-task ,不應(yīng)該算多任務(wù)

動(dòng)機(jī)

應(yīng)用上節(jié)省資源,一個(gè)模型跑多個(gè)任務(wù),單倍的時(shí)間雙倍的快樂

感覺上非常的直觀,好不容易花了30分鐘都出門了,肯定多逛幾個(gè)個(gè)商場,順便剪個(gè)頭發(fā)做個(gè)指甲

從模型的角度,學(xué)習(xí)得的底層的概率分布通常是對(duì)多個(gè)任務(wù)都是有效的

兩種常見方式

參數(shù)的硬共享機(jī)制:從幾十年前開始到現(xiàn)在這種方式還在流行(Multitask Learning. Autonomous Agents and Multi-Agent Systems[3]),一般認(rèn)為一個(gè)模型中任務(wù)越多,通過參數(shù)共享降低噪聲導(dǎo)致過擬合的風(fēng)險(xiǎn)更低,在參數(shù)硬共享機(jī)制中l(wèi)oss直接相加就是一種最簡單的均值約束。

參數(shù)的軟共享機(jī)制:每個(gè)任務(wù)都由自己的模型,自己的參數(shù)。對(duì)模型間參數(shù)的距離進(jìn)行正則化來保障參數(shù)空間的相似。

混合方式:前兩種的混合

為什么會(huì)有效

1. 不同任務(wù)的噪聲能有更好的泛化效果

由于所有任務(wù)都或多或少存在一些噪音,例如,當(dāng)我們訓(xùn)練任務(wù)A上的模型時(shí),我們的目標(biāo)在于得到任務(wù)A的一個(gè)好的表示,而忽略了數(shù)據(jù)相關(guān)的噪音以及泛化性能。由于不同的任務(wù)有不同的噪音模式,同時(shí)學(xué)習(xí)到兩個(gè)任務(wù)可以得到一個(gè)更為泛化的表示

2. 輔助特征選擇作用

如果主任務(wù)是那種,噪音嚴(yán)重,數(shù)據(jù)量小,數(shù)據(jù)維度高,則對(duì)于模型來說區(qū)分相關(guān)與不相關(guān)特征變得困難。其他輔助任務(wù)有助于將模型注意力集中在確實(shí)有影響的那些特征上。

3. 特征交流機(jī)制

在不同的任務(wù)之間的特征交互交流,對(duì)于任務(wù)B來說很容易學(xué)習(xí)到某些特征G,而這些特征對(duì)于任務(wù)A來說很難學(xué)到。這可能是因?yàn)槿蝿?wù)A與特征G的交互方式更復(fù)雜,或者因?yàn)槠渌卣髯璧K了特征G的學(xué)習(xí)。

4. 相互強(qiáng)調(diào)(監(jiān)督)機(jī)制

多任務(wù)學(xué)習(xí)更傾向于學(xué)習(xí)到大部分模型都強(qiáng)調(diào)的部分。學(xué)到的空間更泛化,滿足不同的任務(wù)。由于一個(gè)對(duì)足夠多的訓(xùn)練任務(wù)都表現(xiàn)很好的假設(shè)空間,對(duì)來自于同一環(huán)境的新任務(wù)也會(huì)表現(xiàn)很好,所以這樣有助于模型展示出對(duì)新任務(wù)的泛化能力(Deep Multi-Task Learning with Low Level Tasks Supervised at Lower Layers[4]、Emotion-Cause Pair Extraction: A New Task to Emotion Analysis in Texts[5]),非常適合遷移學(xué)習(xí)場景。

5. 表示偏置機(jī)制

如歸約遷移通過引入歸約偏置來改進(jìn)模型,使得模型更傾向于某些假設(shè),能起到一種正則效果。常見的一種歸約偏置是L1正則化,它使得模型更偏向于那些稀疏的解。在多任務(wù)學(xué)習(xí)場景中,這會(huì)導(dǎo)致模型更傾向于那些可以同時(shí)解釋多個(gè)任務(wù)的解。

為什么無效

先說是不是,再問為什么.

在Identifying beneficial task relations for multi-task learning in deep neural networks[6]中,作者探究到底是什么讓multi-task work, 作者使用嚴(yán)格意義上相同的參數(shù)用NLP任務(wù)做了對(duì)比實(shí)驗(yàn),圖中分別是兩個(gè)任務(wù)結(jié)合時(shí)與單任務(wù)loss的對(duì)比,大部分多任務(wù)的效果比不上單任務(wù),作者的結(jié)論是單任務(wù)的主要特征在起作用,那些多任務(wù)結(jié)合效果好的情況,是「主任務(wù)比較難學(xué)(梯度下降比較緩慢),輔助任務(wù)比價(jià)好學(xué)的時(shí)候,多任務(wù)會(huì)有好效果」

73f3b0ce-5036-11eb-8b86-12bb97331649.png

為什么會(huì)無效?因?yàn)樗杏行У脑蚨加兴呢?fù)向效果

不同任務(wù)的噪聲提高泛化,在模型容量小的時(shí)候引入的噪聲也無法忽視。

特征的選擇,交流這些起作用的機(jī)制會(huì)產(chǎn)生一種負(fù)遷移(Negative Transfer),共享的信息交流的信息反而是一種誤導(dǎo)信息

...

Muti-task的一些思路

1. 對(duì)任務(wù)間的不同強(qiáng)制加稀疏性約束的正則化項(xiàng)

如塊稀疏正則化,對(duì)于不同任務(wù)的參數(shù),加l1正則,或者l1/lx, x>1等的正則,起任務(wù)參數(shù)的選擇,讓模型自動(dòng)去選擇應(yīng)該共享哪些參數(shù), 在keras的multi-task框架中,就是多個(gè)任務(wù)的loss相加后,用一個(gè)優(yōu)化器優(yōu)化,就是這種思路

2. 對(duì)中間層添加矩陣先驗(yàn),可以學(xué)習(xí)任務(wù)間的關(guān)系

3. 共享合適的相關(guān)結(jié)構(gòu)

高層次監(jiān)督(High Supervision),共享大部分結(jié)構(gòu),后面直接輸出分叉那種共享(就是大多數(shù)人入手的multi-task),個(gè)人覺得除非有很精致的一些調(diào)整,感覺效果很難超多個(gè)single-task.

低層次監(jiān)督(Low Supervision),Deep Multi-Task Learning with Low Level Tasks Supervised at Lower Layers中,在NLP中,作者使用deep bi-RNN低層開始對(duì)各個(gè)任務(wù)分別建模,不共享的部分模型更新時(shí)不受其他任務(wù)影響,效果不錯(cuò)。

4. 建模任務(wù)之間的關(guān)系

建模任務(wù)之間的關(guān)系有非常多的方式,如,加各種約束項(xiàng),這個(gè)約束項(xiàng),讓不同任務(wù)的參數(shù)空間,盡量平均, 有很多方式花式拓展,正則也是一種約束項(xiàng),loss相加也是一種建立任務(wù)之間關(guān)系的約束項(xiàng)目,如 Learning Multiple Tasks with Kernel Methods[7]對(duì)模型聚類 ,a是任務(wù)參數(shù),讓各種任務(wù)參數(shù)空間盡量靠近

a是各個(gè)任務(wù)的參數(shù)

特征交互,在 Emotion-Cause Pair Extraction: A New Task to Emotion Analysis in Texts 中,作者通過不同任務(wù)的高層特征交互,同時(shí)完成情感向判斷和情感向原因提取,這跟有些多模態(tài)特征fusion的方式很相似,

74191f6c-5036-11eb-8b86-12bb97331649.png

Cross-Stitch Networks for Multi-Task Learning[8]將兩個(gè)獨(dú)立的網(wǎng)絡(luò)用參數(shù)的軟共享方式連接起來, 用所謂的十字繡單元來決定怎么將這些任務(wù)相關(guān)的網(wǎng)絡(luò)利用其他任務(wù)中學(xué)到的知識(shí),并與前面層的輸出進(jìn)行線性組合。

74730a0e-5036-11eb-8b86-12bb97331649.png

串行的聯(lián)合多任務(wù)模型(A Joint Many-Task Model)

NLP 領(lǐng)域中,各個(gè)任務(wù)間經(jīng)常是有層級(jí)關(guān)系,A Joint Many-Task Model: Growing a Neural Network for Multiple NLP Tasks[9]中在多任務(wù)并行的同時(shí),加了串行結(jié)構(gòu),例如具體任務(wù):詞性分析 POS->語塊分析 CHUNK->依存句法分析 DEP->文本語義相關(guān) Relatedness->文本蘊(yùn)涵 Entailment,每個(gè)子任務(wù)都偶有自己的loss, 然后又會(huì)作為其他任務(wù)的輸入

74b6845a-5036-11eb-8b86-12bb97331649.png

5. 用loss調(diào)整任務(wù)之間的關(guān)系

Multi-Task Learning Using Uncertainty to Weigh Losses for Scene Geometry and Semantics[10] 用同方差不確定性對(duì)損失進(jìn)行加權(quán)(Weighting losses with Uncertainty),作者認(rèn)為最佳權(quán)值與不同任務(wù)的衡量規(guī)模和噪聲相關(guān),而噪聲中除了認(rèn)知不確定性,異方差不確定性,這些取決于數(shù)據(jù)的不確定性外,作者把同方差不確定性作為噪聲來對(duì)多任務(wù)學(xué)習(xí)中的權(quán)重進(jìn)行優(yōu)化,作者根據(jù)噪聲調(diào)整每個(gè)任務(wù)在代價(jià)函數(shù)中的相對(duì)權(quán)重,噪聲大則降低權(quán)重,反之。

GradNorm: Gradient Normalization for Adaptive Loss Balancing in Deep Multitask Networks[11] 基于不同任務(wù)loss的降低速度來動(dòng)態(tài)調(diào)整權(quán)值, 作者定義了另外一個(gè)專門針對(duì)權(quán)值的優(yōu)化函數(shù)

是每個(gè)任務(wù)的loss相對(duì)第一步loss的優(yōu)化程度, 是每一步 對(duì) task 任務(wù)的梯度,即如果某個(gè)任務(wù)的優(yōu)化程度小,這個(gè)loss會(huì)超那么就調(diào)大這個(gè)任務(wù)的權(quán)值優(yōu)化,達(dá)到個(gè)loss學(xué)習(xí)程度的平衡

應(yīng)用|適用任務(wù)

輔助任務(wù),相關(guān)性任務(wù),對(duì)抗性任務(wù)....等[12]

責(zé)任編輯:xj

原文標(biāo)題:Multi-Task 多任務(wù)學(xué)習(xí), 那些你不知道的事

文章出處:【微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39755

    瀏覽量

    301356
  • 多任務(wù)
    +關(guān)注

    關(guān)注

    0

    文章

    18

    瀏覽量

    9328
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8553

    瀏覽量

    136928

原文標(biāo)題:Multi-Task 多任務(wù)學(xué)習(xí), 那些你不知道的事

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    嵌入式單片機(jī)開發(fā)學(xué)習(xí)路徑

    項(xiàng)目 通過完成一些簡單的項(xiàng)目來鞏固所學(xué)知識(shí)。例如,制作一個(gè)簡單的LED閃爍電路或溫度傳感器測(cè)量系統(tǒng)。 4. 高級(jí)進(jìn)階 4.1 操作系統(tǒng)學(xué)習(xí) 學(xué)習(xí)嵌入式操作系統(tǒng)(如FreeRTOS),理解多任務(wù)
    發(fā)表于 02-09 15:42

    人工智能與機(jī)器學(xué)習(xí)在這些行業(yè)的深度應(yīng)用

    自人工智能和機(jī)器學(xué)習(xí)問世以來,多個(gè)在線領(lǐng)域的數(shù)字化格局迎來了翻天覆地的變化。這些技術(shù)從誕生之初就為企業(yè)賦予了競爭優(yōu)勢(shì),而在線行業(yè)正是受其影響最為顯著的領(lǐng)域。人工智能(AI)與機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 02-04 14:44 ?468次閱讀

    強(qiáng)化學(xué)習(xí)會(huì)讓自動(dòng)駕駛模型學(xué)習(xí)更快嗎?

    是一種讓機(jī)器通過“試錯(cuò)”學(xué)會(huì)決策的辦法。與監(jiān)督學(xué)習(xí)不同,監(jiān)督學(xué)習(xí)是有人提供示范答案,讓模型去模仿;而強(qiáng)化學(xué)習(xí)不會(huì)把每一步的“正確答案”都告訴你,而是把環(huán)境、動(dòng)作和結(jié)果連起來,讓
    的頭像 發(fā)表于 01-31 09:34 ?641次閱讀
    強(qiáng)化<b class='flag-5'>學(xué)習(xí)</b>會(huì)讓自動(dòng)駕駛模型<b class='flag-5'>學(xué)習(xí)</b>更快嗎?

    機(jī)器學(xué)習(xí)和深度學(xué)習(xí)需避免的 7 個(gè)常見錯(cuò)誤與局限性

    無論你是剛?cè)腴T還是已經(jīng)從事人工智能模型相關(guān)工作一段時(shí)間,機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中都存在一些我們需要時(shí)刻關(guān)注并銘記的常見錯(cuò)誤。如果對(duì)這些錯(cuò)誤置之不理,日后可能會(huì)引發(fā)諸多麻煩!只要我們密切關(guān)注數(shù)據(jù)、模型架構(gòu)
    的頭像 發(fā)表于 01-07 15:37 ?184次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>和深度<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>中</b>需避免的 7 個(gè)常見錯(cuò)誤與局限性

    一文說透了如何實(shí)現(xiàn)單片機(jī)的多任務(wù)并發(fā)!

    在嵌入式系統(tǒng)開發(fā)多任務(wù)并發(fā)是非常常見的,對(duì)于處理復(fù)雜的應(yīng)用場景、提升系統(tǒng)的并發(fā)能力、提高系統(tǒng)的實(shí)時(shí)性等方面都有很大好處。在單片機(jī)實(shí)現(xiàn)多任務(wù)并發(fā)是非常重要的,本文將為大家介紹如何在
    發(fā)表于 01-06 06:46

    分享一個(gè)嵌入式開發(fā)學(xué)習(xí)路線

    拓展期(3-4個(gè)月) 學(xué)習(xí)嵌入式操作系統(tǒng)(RTOS)和物聯(lián)網(wǎng)通信技術(shù),能開發(fā)“多任務(wù)、聯(lián)網(wǎng)”的復(fù)雜項(xiàng)目,理解企業(yè)級(jí)嵌入式開發(fā)的“架構(gòu)思維”。這一階段的學(xué)習(xí)需要一定的自律和毅力,但與學(xué)歷無關(guān)。 嵌入式
    發(fā)表于 12-04 11:01

    多任務(wù)系統(tǒng),如何平衡任務(wù)調(diào)度以防止因高負(fù)載導(dǎo)致的再次進(jìn)入低功耗模式的延遲?

    多任務(wù)系統(tǒng),如何平衡任務(wù)調(diào)度以防止因高負(fù)載導(dǎo)致的再次進(jìn)入低功耗模式的延遲?
    發(fā)表于 12-04 06:37

    學(xué)習(xí)RTOS的意義?

    RTOS實(shí)現(xiàn)多任務(wù)管理。 嵌入式操作系統(tǒng)有眾多的軟件組件,可以極大的加速項(xiàng)目進(jìn)度,避免重復(fù)造車輪。 2.技能需要 掌握操作系統(tǒng),和基于RTOS的編程,實(shí)現(xiàn)更好的職業(yè)規(guī)劃,對(duì)個(gè)人發(fā)展是必不可少的。 在招聘網(wǎng)
    發(fā)表于 11-27 08:16

    一句話,多個(gè)命令同時(shí)執(zhí)行,AI語音模組也能多任務(wù)處理?

    、 Ai-WV02-32S ? 將語音識(shí)別、喚醒、語義理解等核心功能, 濃縮在一顆小小的模組。 安信可AI語音模組支持 MCP 協(xié)議(Multi Command Processing,多命令并行處理) ,讓語音交互從“單線程”進(jìn)化為真正的“
    的頭像 發(fā)表于 10-31 14:45 ?521次閱讀
    一句話,多個(gè)命令同時(shí)執(zhí)行,AI語音模組也能<b class='flag-5'>多任務(wù)</b>處理?

    愛普科技PSRAM加速wisun無線模塊多任務(wù)處理

    愛普科技256Mb PSRAM(如APS256XXN-OBR-BG)為WiSUN無線模塊提供高速數(shù)據(jù)緩存與臨時(shí)存儲(chǔ)解決方案,其166MHz速率、1.8V低功耗及小尺寸封裝顯著提升模塊在智能電網(wǎng)、工業(yè)自動(dòng)化多任務(wù)處理能力和穩(wěn)定性。
    的頭像 發(fā)表于 10-14 09:25 ?382次閱讀
    愛普科技PSRAM加速wisun無線模塊<b class='flag-5'>多任務(wù)</b>處理

    Task任務(wù):LuatOS實(shí)現(xiàn)“任務(wù)級(jí)并發(fā)”的核心引擎

    Task任務(wù)通過其強(qiáng)大的并發(fā)處理能力,使LuatOS能夠在單線程環(huán)境模擬多線程執(zhí)行,通過協(xié)程的掛起與恢復(fù)機(jī)制,實(shí)現(xiàn)任務(wù)級(jí)的并行操作,顯著提升系統(tǒng)效能。 sys核心庫是LuatOS運(yùn)行
    的頭像 發(fā)表于 08-28 13:49 ?507次閱讀
    <b class='flag-5'>Task</b><b class='flag-5'>任務(wù)</b>:LuatOS實(shí)現(xiàn)“<b class='flag-5'>任務(wù)</b>級(jí)并發(fā)”的核心引擎

    揭秘LuatOS Task多任務(wù)管理的“智能中樞”

    Task任務(wù)作為LuatOS的核心組成部分,通過智能化的任務(wù)管理機(jī)制,實(shí)現(xiàn)任務(wù)的創(chuàng)建、調(diào)度與協(xié)同運(yùn)行,讓復(fù)雜應(yīng)用得以高效并行處理,滿足實(shí)時(shí)場景下的嚴(yán)苛需求。 sys核心庫是LuatOS
    的頭像 發(fā)表于 08-28 13:48 ?634次閱讀
    揭秘LuatOS <b class='flag-5'>Task</b>:<b class='flag-5'>多任務(wù)</b>管理的“智能中樞”

    FPGA在機(jī)器學(xué)習(xí)的具體應(yīng)用

    ,越來越多地被應(yīng)用于機(jī)器學(xué)習(xí)任務(wù)。本文將探討 FPGA 在機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 07-16 15:34 ?2885次閱讀

    快速入門——LuatOS:sys庫多任務(wù)管理實(shí)戰(zhàn)攻略!

    在嵌入式開發(fā)多任務(wù)管理是提升系統(tǒng)效率的關(guān)鍵。本教程專為快速入門設(shè)計(jì),聚焦LuatOS的sys庫,通過實(shí)戰(zhàn)案例帶你快速掌握多任務(wù)創(chuàng)建、調(diào)度與同步技巧。無論你是零基礎(chǔ)新手還是希望快速提升開發(fā)效率
    的頭像 發(fā)表于 05-29 14:36 ?818次閱讀
    快速入門——LuatOS:sys庫<b class='flag-5'>多任務(wù)</b>管理實(shí)戰(zhàn)攻略!

    使用MATLAB進(jìn)行無監(jiān)督學(xué)習(xí)

    無監(jiān)督學(xué)習(xí)是一種根據(jù)未標(biāo)注數(shù)據(jù)進(jìn)行推斷的機(jī)器學(xué)習(xí)方法。無監(jiān)督學(xué)習(xí)旨在識(shí)別數(shù)據(jù)隱藏的模式和關(guān)系,無需任何監(jiān)督或關(guān)于結(jié)果的先驗(yàn)知識(shí)。
    的頭像 發(fā)表于 05-16 14:48 ?1433次閱讀
    使用MATLAB進(jìn)行無監(jiān)督<b class='flag-5'>學(xué)習(xí)</b>