国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

目標檢測模型和Objectness的知識

電子設計 ? 來源:電子設計 ? 作者:電子設計 ? 2022-02-12 17:00 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者:Nathan Zhao
編譯:ronghuaiyang

導讀

在本文中,我們將討論目標檢測模型和Objectness的基礎知識。

什么是物體檢測模型?

物體檢測模型本質上,正如其名稱所示,檢測物體。這意味著給定一個圖像,它可以告訴你物體在哪里,以及這個物體是什么。例如,在上面的圖像中,我們有許多物體,并且使用物體檢測模型,我們已經檢測出不同的物體在圖像中的位置。

這類模型有很多應用。舉幾個例子,物體檢測在以下方面很有用:

自動駕駛汽車,可以檢測到乘客、其他車輛、紅綠燈和停車標志。

安保,模型可以探測到公共區域的槍支或炸彈,并向附近的警察報警。

總的來說,這類模型非常有用,在過去幾年里,機器學習社區已經對它們進行了大量的研究。

物體檢測中區域建議的介紹

首先,讓我們了解一下物體檢測模型是如何工作的。首先,我們必須給出一個物體的建議位置。我們把這個建議的位置稱為我們感興趣的區域,通常顯示在一個邊界框(也稱為圖像窗口)中。根據物體檢測模型的類型,我們可以通過許多不同的方式來實現這一點。

樸素方法:我們將圖像分割成多個部分,并對每個部分進行分類。這種方法效率低下是因為必須對每個生成的窗口應用分類網絡(CNN),導致計算時間長。

滑動窗口方法:我們預先確定好窗口比例(或“錨”),然后滑過圖像。對于每個窗口,我們處理它并繼續滑動。與樸素方法類似,這種方法生成的窗口較多,處理時間也比較長。

選擇性搜索:使用顏色相似度,紋理相似度,和一些其他的圖像細節,我們可以用算法將圖像分割成區域。雖然選擇性搜索算法本身是耗時的,但這使得分類網絡的應用需求較少。

區域建議網絡:我們創建一個單獨的網絡來確定圖像中感興趣的區域。這使得我們的模型工作得更快,但也使得我們最終模型的準確性依賴于多個網絡。

上面列出的這些不同選項之間有一些區別,但一般來說,當我們加快網絡的處理時間時,我們往往會犧牲模型的準確性。

區域建議機制的主要問題是,如果建議的區域不包含物體,那么你的分類網絡也會去分類這個區域,并給出一個錯誤的標記。

那么,什么是Objectness?

Objectness本質上是物體存在于感興趣區域內的概率的度量。如果我們Objectness很高,這意味著圖像窗口可能包含一個物體。這允許我們快速地刪除不包含任何物體的圖像窗口。

如果一幅圖像具有較高的Objectness,我們期望它具有:

在整個圖像中具有唯一性

物體周圍有嚴格的邊界

與周圍環境的外觀不同

例如,在上面的圖像中,我們期望紅色框具有較低的Objectness,藍色框具有中等的Objectness,綠色框具有較高的Objectness。這是因為綠色的框“緊密”地圍繞著我們的物體,而藍色的框則很松散,而紅色的框根本不包含任何物體。

我們如何度量Objectness?

有大量的參數影響圖像窗口的objectness。

多尺度顯著性:這本質上是對圖像窗口的外觀獨特性的度量。與整個圖像相比,框中唯一性像素的密度越高,該值就越高。

顏色對比度:框內像素與建議圖像窗口周圍區域的顏色對比度越大,該值越大。

邊緣密度:我們定義邊緣為物體的邊界,這個值是圖像窗口邊界附近的邊緣的度量值。一個有趣的算法可以找到這些邊緣:https://cv-tricks.com/opencv-dnn/edge-detection-hed/。

超像素跨越:我們定義超像素是幾乎相同顏色的像素團。如果該值很高,則框內的所有超像素只包含在其邊界內。

超像素區域以不同顏色顯示。請注意,框內的超像素大部分不會泄漏到圖像窗口之外。因此,這個“超素跨界”值將會很高。

以上參數值越高,objectness越高。試著將上述參數與我們前面列出的具有高objectness的圖像的期望聯系起來。

英文原文:https://medium.com/@zhao.nathan/understanding-objectness-in-object-detection-models-5d8c9d032488
本文轉自:AI公園,作者:Nathan Zhao,編譯:ronghuaiyang,
轉載此文目的在于傳遞更多信息,版權歸原作者所有。

審核編輯:何安

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 物體檢測
    +關注

    關注

    0

    文章

    8

    瀏覽量

    9349
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    YOLO5目標檢測方案-基于米爾RK3576開發板

    本文基于米爾MYD-LR3576開發板,詳細記錄了如何利用500萬像素USB攝像頭實現640×640分辨率的YOLO5s目標檢測,并將結果實時輸出至1080P屏幕的全流程。通過系統級的軟硬件協同優化
    發表于 01-22 19:21

    廣和通發布端側目標檢測模型FiboDet

    為提升端側設備視覺感知與決策能力,廣和通全自研端側目標檢測模型FiboDet應運而生。該模型基于廣和通在邊緣計算與人工智能領域的深度積累,面向工業、交通、零售等多個行業提供高性能、低功
    的頭像 發表于 09-26 13:39 ?1605次閱讀

    知識分享 | 使用MXAM進行AUTOSAR模型的靜態分析:Embedded Coder與TargetLink模型

    知識分享在知識分享欄目中,我們會定期與讀者分享來自MES模賽思的基于模型的軟件開發相關Know-How干貨,關注公眾號,隨時掌握基于模型的軟件設計的技術
    的頭像 發表于 08-27 10:04 ?719次閱讀
    <b class='flag-5'>知識</b>分享 | 使用MXAM進行AUTOSAR<b class='flag-5'>模型</b>的靜態分析:Embedded Coder與TargetLink<b class='flag-5'>模型</b>

    潤和軟件“潤知“知識處理大模型榮登“2025中國大模型TOP30”榜單

    知識處理大模型成功入選。這一榮譽不僅體現了潤和軟件在多模態大模型技術上的領先地位,也標志著其在推動企業智能化轉型方面邁出了堅實一步。 ?潤和軟件“潤知”知識處理大
    的頭像 發表于 08-22 10:13 ?4192次閱讀

    AIcube1.4目標檢測模型導入yolotxt格式數據集后一直顯示數據正在解析,為什么?

    AIcube1.4目標檢測模型導入yolotxt格式數據集后一直顯示數據正在解析 數據有問題,把數據情況說的詳細點
    發表于 08-13 07:16

    使用aicube進行目標檢測識別數字項目的時候,在評估環節卡住了,怎么解決?

    使用aicube進行目標檢測識別數字項目的時候,前面一切正常 但是在評估環節卡住了,一直顯示正在測試,但是完全沒有測試結果, 在部署完模型后在k230上運行也沒有任何識別結果 期待結果和實際結果
    發表于 08-13 06:45

    【VisionFive 2單板計算機試用體驗】在 VisionFive 2 上為目標檢測準備軟件環境并運行 MobileNet-SSD 模型

    目標: 本教程將實現在 StarFive VisionFive 2 開發板上為目標檢測應用準備所需軟件環境,并最終運行一個基于 MobileNet-SSD 的目標
    發表于 07-10 19:51

    基于FPGA的SSD目標檢測算法設計

    隨著人工智能的發展,神經網絡正被逐步應用于智能安防、自動駕駛、醫療等各行各業。目標識別作為人工智能的一項重要應用也擁有著巨大的前景,隨著深度學習的普及和框架的成熟,卷積神經網絡模型的識別精度越來越高
    的頭像 發表于 07-10 11:12 ?2547次閱讀
    基于FPGA的SSD<b class='flag-5'>目標</b><b class='flag-5'>檢測</b>算法設計

    模型在半導體行業的應用可行性分析

    有沒有這樣的半導體專用大模型,能縮短芯片設計時間,提高成功率,還能幫助新工程師更快上手。或者軟硬件可以在設計和制造環節確實有實際應用。會不會存在AI缺陷檢測。 能否應用在工藝優化和預測性維護中
    發表于 06-24 15:10

    請問嘉楠平臺k230訓練的跌倒檢測模型里面的設置是怎么樣的?

    我想要了解K230所使用的跌倒檢測模型中的設置,例如人體檢測是如何實現的,在模型檢測中,人體的節點是多少。或者想請教一下相關的文檔或者內容在
    發表于 06-23 07:05

    基于LockAI視覺識別模塊:C++目標檢測

    /LockzhinerAI/LockzhinerVisionModule/tree/master/Cpp_example/D01_test_detection 1. 基礎知識講解 1.1 目標檢測的基本介紹
    發表于 06-06 14:43

    基于LockAI視覺識別模塊:C++目標檢測

    本文檔基于瑞芯微RV1106的LockAI凌智視覺識別模塊,通過C++語言做的目標檢測實驗。本文檔展示了如何使用lockzhiner_vision_module::PaddleDet類進行目標
    的頭像 發表于 06-06 13:56 ?839次閱讀
    基于LockAI視覺識別模塊:C++<b class='flag-5'>目標</b><b class='flag-5'>檢測</b>

    labview調用yolo目標檢測、分割、分類、obb

    labview調用yolo目標檢測、分割、分類、obb、pose深度學習,支持CPU和GPU推理,32/64位labview均可使用。 (yolov5~yolov12)
    發表于 03-31 16:28

    軒轅智駕紅外目標檢測算法在汽車領域的應用

    在 AI 技術蓬勃發展的當下,目標檢測算法取得了重大突破,其中紅外目標檢測算法更是在汽車行業掀起了波瀾壯闊的變革,從根本上重塑著汽車的安全性能、駕駛體驗與產業生態。
    的頭像 發表于 03-27 15:55 ?953次閱讀

    如何使用OpenVINO?運行對象檢測模型

    無法確定如何使用OpenVINO?運行對象檢測模型
    發表于 03-06 07:20