国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

模型集成是一種提升模型能力的常用方法

新機(jī)器視覺(jué) ? 來(lái)源:AI公園 ? 作者:AI公園 ? 2021-01-27 11:31 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導(dǎo)讀

模型集成是一種提升模型能力的常用方法,但通常也會(huì)帶來(lái)推理時(shí)間的增加,在物體檢測(cè)上效果如何,可以看看。

8c5baf2e-6042-11eb-8b86-12bb97331649.png

介紹

集成機(jī)器學(xué)習(xí)模型是一種常見(jiàn)的提升模型能力的方式,并已在多個(gè)場(chǎng)景中使用,因?yàn)樗鼈兘Y(jié)合了多個(gè)模型的決策,以提高整體性能,但當(dāng)涉及到基于DNN(深度神經(jīng)網(wǎng)絡(luò))的目標(biāo)檢測(cè)模型時(shí),它并不僅僅是合并結(jié)果那么簡(jiǎn)單。

集成的需求

為了在任何模型中獲得良好的結(jié)果,都需要滿足某些標(biāo)準(zhǔn)(數(shù)據(jù)、超參數(shù))。但在真實(shí)場(chǎng)景中,你可能會(huì)得到糟糕的訓(xùn)練數(shù)據(jù),或者很難找到合適的超參數(shù)。在這些情況下,綜合多個(gè)性能較差的模型可以幫助你獲得所需的結(jié)果。在某種意義上,集成學(xué)習(xí)可以被認(rèn)為是一種通過(guò)執(zhí)行大量額外計(jì)算來(lái)彌補(bǔ)學(xué)習(xí)算法不足的方法。另一方面,另一種選擇是在一個(gè)非集成系統(tǒng)上做更多的學(xué)習(xí)。對(duì)于計(jì)算、存儲(chǔ)或通信資源的相同增加,集成系統(tǒng)使用兩種或兩種以上的方法可能會(huì)比使用單一方法增加資源的方法更有效地提高整體精度。

看起來(lái)挺好,有沒(méi)有缺點(diǎn)呢?

更難調(diào)試或理解預(yù)測(cè),因?yàn)轭A(yù)測(cè)框是根據(jù)多個(gè)模型繪制的。

推理時(shí)間根據(jù)模型和使用的模型數(shù)量而增加。

嘗試不同的模型以獲得合適的模型集合是一件耗時(shí)的事情。

不同的模型集成

OR方法:如果一個(gè)框是由至少一個(gè)模型生成的,就會(huì)考慮它。

AND方法:如果所有模型產(chǎn)生相同的框,則認(rèn)為是一個(gè)框(如果IOU >0.5)。

一致性方法:如果大多數(shù)模型產(chǎn)生相同的框,則認(rèn)為是一個(gè)框,即如果有m個(gè)模型,(m/2 +1)個(gè)模型產(chǎn)生相同的框,則認(rèn)為這個(gè)框有效。

加權(quán)融合:這是一種替代NMS的新方法,并指出了其不足之處。

8f114b52-6042-11eb-8b86-12bb97331649.png

不同的集成方法

在上面的例子中,OR方法的預(yù)測(cè)得到了所有需要的對(duì)象框,但也得到了一個(gè)假陽(yáng)性結(jié)果,一致性的方法漏掉了馬,AND方法同時(shí)漏掉了馬和狗。

驗(yàn)證

為了計(jì)算不同的集成方法,我們將跟蹤以下參數(shù):

True positive:預(yù)測(cè)框與gt匹配

False Positives:預(yù)測(cè)框是錯(cuò)誤的

False Negatives:沒(méi)有預(yù)測(cè),但是存在gt。

Precision:度量你的預(yù)測(cè)有多準(zhǔn)確。也就是說(shuō),你的預(yù)測(cè)正確的百分比[TP/ (TP + FP)]

Recall:度量gt被預(yù)測(cè)的百分比[TP/ (TP + FN)]

Average Precision:precision-recall圖的曲線下面積

使用的模型

為了理解集成是如何起作用的,我們提供了用于實(shí)驗(yàn)的獨(dú)立模型的結(jié)果。

1. YoloV3:

903377bc-6042-11eb-8b86-12bb97331649.png

2. Faster R-CNN — ResNeXt 101 [X101-FPN]:

90fec3a4-6042-11eb-8b86-12bb97331649.png

集成實(shí)驗(yàn)

1. OR — [YoloV3, X101-FPN]

91b45714-6042-11eb-8b86-12bb97331649.png

如果你仔細(xì)觀察,F(xiàn)Ps的數(shù)量增加了,這反過(guò)來(lái)降低了精度。與此同時(shí),TPs數(shù)量的增加反過(guò)來(lái)又增加了召回。這是使用OR方法時(shí)可以觀察到的一般趨勢(shì)。

2. AND — [YoloV3, X101-FPN]

91f8a054-6042-11eb-8b86-12bb97331649.png

與我們使用OR方法觀察到的情況相反,在AND方法中,我們最終獲得了較高的精度和較低的召回率,因?yàn)閹缀跛械募訇?yáng)性都被刪除了,因?yàn)閅oloV3和X101的大多數(shù)FPs是不同的。

檢測(cè)框加權(quán)融合

在NMS方法中,如果框的IoU大于某個(gè)閾值,則認(rèn)為框?qū)儆趩蝹€(gè)物體。因此,框的過(guò)濾過(guò)程取決于這個(gè)單一IoU閾值的選擇,這影響了模型的性能。然而,設(shè)置這個(gè)閾值很棘手:如果有多個(gè)物體并排存在,那么其中一個(gè)就會(huì)被刪除。NMS丟棄了冗余框,因此不能有效地從不同的模型中產(chǎn)生平均的局部預(yù)測(cè)。

9281237a-6042-11eb-8b86-12bb97331649.png

NMS和WBF之間的主要區(qū)別是,WBF利用所有的框,而不是丟棄它們。在上面的例子中,紅框是ground truth,藍(lán)框是多個(gè)模型做出的預(yù)測(cè)。請(qǐng)注意,NMS是如何刪除冗余框的,但WBF通過(guò)考慮所有預(yù)測(cè)框創(chuàng)建了一個(gè)全新的框(融合框)。

3. Weighted Boxes Fusion — [Yolov3, X101-FPN]

92b348f0-6042-11eb-8b86-12bb97331649.png

YoloV3和X101-FPN的權(quán)重比分別為2:1。我們也試著增加有利于X101-FPN的比重(因?yàn)樗男阅芨?,但在性能上沒(méi)有看到任何顯著的差異。從我們讀過(guò)的加權(quán)融合論文中,作者注意到了AP的增加,但如你所見(jiàn),WBF YoloV3和X101-FPN并不比OR方法好很多。我們注意到的是,大部分的實(shí)驗(yàn)涉及至少3個(gè)或更多模型。

4. Weighted Boxes Fusion — [Yolov3, X101, R101, R50]

93703e10-6042-11eb-8b86-12bb97331649.png

在最后的實(shí)驗(yàn)中,我們使用了YoloV3以及我們?cè)贒etectron2中訓(xùn)練的3個(gè)模型[ResNeXt101-FPN, ResNet101-FPN, ResNet50-FPN]。顯然,召回率有一個(gè)跳躍(約為傳統(tǒng)方法的0.3),但AP的跳躍并不大。另外,需要注意的是,當(dāng)你向WF方法添加更多模型時(shí),誤報(bào)的數(shù)量會(huì)激增。

總結(jié)

當(dāng)使用相互補(bǔ)充的模型時(shí),集成是提高性能的一種很好的方法,但它也會(huì)以速度為代價(jià)來(lái)完成推理。根據(jù)需求,可以決定有多少個(gè)模型,采用哪種方法,等等。但從我們進(jìn)行的實(shí)驗(yàn)來(lái)看,性能提升的數(shù)量似乎與一起運(yùn)行這些模型所需的資源和推斷時(shí)間不成比例。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:目標(biāo)檢測(cè)多模型集成方法總結(jié)

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的般化建議

    :Dropout層隨機(jī)跳過(guò)神經(jīng)網(wǎng)絡(luò)模型中某些神經(jīng)元之間的連接,通過(guò)隨機(jī)制造缺陷進(jìn)行訓(xùn)練提升整個(gè)神經(jīng)網(wǎng)絡(luò)的魯棒性。 6)指定合理的學(xué)習(xí)率策略:旦神經(jīng)網(wǎng)絡(luò)的準(zhǔn)確率飽和,那么學(xué)習(xí)率應(yīng)當(dāng)適當(dāng)?shù)臏p少,使得
    發(fā)表于 10-28 08:02

    什么是AI模型的推理能力

    NVIDIA 的數(shù)據(jù)工廠團(tuán)隊(duì)為 NVIDIA Cosmos Reason 等 AI 模型奠定了基礎(chǔ),該模型近日在 Hugging Face 的物理推理模型排行榜中位列榜首。
    的頭像 發(fā)表于 09-23 15:19 ?1278次閱讀

    小白學(xué)大模型:國(guó)外主流大模型匯總

    )領(lǐng)域。論文的核心是提出了一種名為T(mén)ransformer的全新模型架構(gòu),它完全舍棄了以往序列模型(如循環(huán)神經(jīng)網(wǎng)絡(luò)RNNs和卷積神經(jīng)網(wǎng)絡(luò)CNNs)中常用的循環(huán)和卷積結(jié)構(gòu)
    的頭像 發(fā)表于 08-27 14:06 ?961次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:國(guó)外主流大<b class='flag-5'>模型</b>匯總

    模型工具的 “京東答案”

    隨著大模型技術(shù)的迅猛發(fā)展,AI工具已成為重要的輔助生產(chǎn)力工具和工作伙伴。它能夠顯著提升工作效率、幫助解決業(yè)務(wù)痛點(diǎn),甚至能通過(guò)知識(shí)延展與智能協(xié)同,幫助團(tuán)隊(duì)突破傳統(tǒng)認(rèn)知邊界。掌握大模型工具的應(yīng)用
    的頭像 發(fā)表于 08-25 16:09 ?572次閱讀

    模型捉蟲(chóng)行家MV:致力全流程模型動(dòng)態(tài)測(cè)試

    隨著基于模型設(shè)計(jì)(MBD)開(kāi)發(fā)量的增長(zhǎng),其對(duì)應(yīng)的測(cè)試需求也顯著提升。此前,在《您的模型診斷專家MI:助力把好模型質(zhì)量關(guān)》文中詳述了
    的頭像 發(fā)表于 07-09 16:37 ?885次閱讀
    <b class='flag-5'>模型</b>捉蟲(chóng)行家MV:致力全流程<b class='flag-5'>模型</b>動(dòng)態(tài)測(cè)試

    模型推理顯存和計(jì)算量估計(jì)方法研究

    (如全連接層、卷積層等)確定所需的顯存大??; (3)將各層顯存大小相加,得到模型總的顯存需求。 基于神經(jīng)網(wǎng)絡(luò)剪枝的顯存估計(jì) 神經(jīng)網(wǎng)絡(luò)剪枝是一種減少模型參數(shù)數(shù)量的技術(shù),可以降低顯存需求。通過(guò)剪枝,可以
    發(fā)表于 07-03 19:43

    從FA模型切換到Stage模型時(shí):module的切換說(shuō)明

    mainAbility。mainElement標(biāo)簽名稱變更,Stage模型不在使用“.”符號(hào)。 package標(biāo)識(shí)HAP的包結(jié)構(gòu)名稱,在應(yīng)用內(nèi)保證唯性。/Stage模型使用name來(lái)保證應(yīng)用唯
    發(fā)表于 06-05 08:16

    FA模型訪問(wèn)Stage模型DataShareExtensionAbility說(shuō)明

    解決方案,讓開(kāi)發(fā)者平滑過(guò)渡到API 9(含)之后的版本。 基本原理 一種兼容方法是DataAbilityHelper根據(jù)傳入的URI的前綴是DataAbility還是DataShare來(lái)決定是否調(diào)
    發(fā)表于 06-04 07:53

    Stage模型綁定FA模型ServiceAbility的方法

    Stage模型綁定FA模型ServiceAbility 本小節(jié)介紹Stage模型的兩應(yīng)用組件如何綁定FA模型ServiceAbility
    發(fā)表于 06-04 06:54

    Stage模型啟動(dòng)FA模型PageAbility方法

    Stage模型啟動(dòng)FA模型PageAbility 本小節(jié)介紹Stage模型的兩應(yīng)用組件如何啟動(dòng)FA模型的PageAbility組件。 U
    發(fā)表于 06-04 06:36

    如何使用Docker部署大模型

    隨著深度學(xué)習(xí)和大模型的快速發(fā)展,如何高效地部署這些模型成為了個(gè)重要的挑戰(zhàn)。Docker 作為一種輕量級(jí)的容器化技術(shù),能夠?qū)?b class='flag-5'>模型及其依賴環(huán)境
    的頭像 發(fā)表于 05-24 16:39 ?1115次閱讀

    KaihongOS操作系統(tǒng)FA模型與Stage模型介紹

    FA模型與Stage模型介紹 KaihongOS操作系統(tǒng)中,F(xiàn)A模型(Feature Ability)和Stage模型是兩不同的應(yīng)用
    發(fā)表于 04-24 07:27

    百度發(fā)布文心大模型4.5和文心大模型X1

    文心大模型4.5是百度自主研發(fā)的新代原生多模態(tài)基礎(chǔ)大模型,通過(guò)多個(gè)模態(tài)聯(lián)合建模實(shí)現(xiàn)協(xié)同優(yōu)化,多模態(tài)理解能力優(yōu)秀;具備更精進(jìn)的語(yǔ)言能力,理解
    的頭像 發(fā)表于 03-18 16:29 ?909次閱讀

    一種基于基礎(chǔ)模型對(duì)齊的自監(jiān)督三維空間理解方法

    三維空間理解是推動(dòng)自動(dòng)駕駛、具身智能等領(lǐng)域中智能系統(tǒng)實(shí)現(xiàn)環(huán)境感知、交互的核心任務(wù),其中3D語(yǔ)義占據(jù)預(yù)測(cè) (Semantic Occupancy Prediction) 對(duì)三維場(chǎng)景進(jìn)行精準(zhǔn)的體素級(jí)建模。然而,當(dāng)前主流方法嚴(yán)重依賴大規(guī)模標(biāo)注數(shù)據(jù),制約了模型的可擴(kuò)展性和泛化
    的頭像 發(fā)表于 03-18 15:01 ?974次閱讀
    <b class='flag-5'>一種</b>基于基礎(chǔ)<b class='flag-5'>模型</b>對(duì)齊的自監(jiān)督三維空間理解<b class='flag-5'>方法</b>

    ?VLM(視覺(jué)語(yǔ)言模型)?詳細(xì)解析

    視覺(jué)語(yǔ)言模型(Visual Language Model, VLM)是一種結(jié)合視覺(jué)(圖像/視頻)和語(yǔ)言(文本)處理能力的多模態(tài)人工智能模型,能夠理解并生成與視覺(jué)內(nèi)容相關(guān)的自然語(yǔ)言。以下
    的頭像 發(fā)表于 03-17 15:32 ?8849次閱讀
    ?VLM(視覺(jué)語(yǔ)言<b class='flag-5'>模型</b>)?詳細(xì)解析