国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

GitHub nanodet開源移動端實時的Anchor-free檢測模型,上線僅兩天Star量已經超過200

智能感知與物聯網技術研究所 ? 來源:通信信號處理研究所 ? 作者:通信信號處理研究 ? 2020-12-03 16:06 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

目標檢測一直是計算機視覺領域的一大難題,其目標是找出圖像中的所有感興趣區域,并確定這些區域的位置和類別。目標檢測中的深度學習方法已經發展了很多年,并出現了不同類型的檢測方法。 目前,深度學習目標檢測方法主要分為兩大類,分別是兩階段式和單階段式目標檢測算法。兩階段式目標檢測框架首先生成候選區域,然后將其分類成不同的目標類別,代表模型有 R-CNN、Fast R-CNN 等;單階段式目標檢測框架將目標檢測任務視為一個統一的端到端回歸問題,代表模型有 MultiBox、YOLO、SSD 等。這類框架通常結構更簡單,檢測速度也更快。 深度學習目標檢測方法還可劃分為 Anchor-base 和 Anchor-free 兩大類,今年又出現了將 Transformer 用于目標檢測的嘗試,各種方法百花齊放。但是,在移動端目標檢測算法上,YOLO 系列和 SSD 等 Anchor-base 的模型一直占據主導地位。

近日,GitHub 上出現了一個項目 nanodet,它開源了一個移動端實時的 Anchor-free 檢測模型,希望能夠提供不亞于 YOLO 系列的性能,而且同樣方便訓練和移植。該項目上線僅兩天,Star 量已經超過 200。

項目地址:https://github.com/RangiLyu/nanodet NanoDet 模型介紹 NanoDet 是一個速度超快和輕量級的移動端 Anchor-free 目標檢測模型。該模型具備以下優勢:

超輕量級:模型文件大小僅 1.8m;

速度超快:在移動 ARM CPU 上的速度達到 97fps(10.23ms);

訓練友好:GPU 內存成本比其他模型低得多。GTX1060 6G 上的 Batch-size 為 80 即可運行;

方便部署:提供了基于 ncnn 推理框架的 C++ 實現和 Android demo。

模型性能 目前開源的 NanoDet-m 模型在 320x320 輸入分辨率的情況下,整個模型的 Flops 只有 0.72B,而 yolov4-tiny 則有 6.96B,小了將近十倍。模型的參數量也只有 0.95M,權重文件在使用 ncnn optimize 進行 16 位存儲之后,只有 1.8mb。 盡管模型非常的輕量,但是它的性能不容小覷。在與其他模型進行比較時,項目作者選擇使用 COCO mAP (0.5:0.95) 作為評估指標,兼顧檢測和定位的精度,在 COCO val 5000 張圖片上測試,并且沒有使用 Testing-Time-Augmentation。在這種設置下,320 分辨率輸入能夠達到 20.6 的 mAP,比 tiny-yolov3 高 4 分,只比 yolov4-tiny 低 1 個百分點。在將輸入分辨率與 YOLO 保持一致,都使用 416 輸入的情況下,NanoDet 與 yolov4-tiny 得分持平。具體結果如下表所示:

以上性能基于 ncnn 和麒麟 980 (4xA76+4xA55) ARM CPU 獲得。 此外,項目作者將 ncnn 部署到手機(基于 ARM 架構的 CPU 麒麟 980,4 個 A76 核心和 4 個 A55 核心)上之后跑了一下 benchmark,模型前向計算時間只要 10 毫秒左右,而 yolov3 和 v4 tiny 均在 30 毫秒的量級。在安卓攝像頭 demo app 上,算上圖片預處理、檢測框后處理以及繪制檢測框的時間,NanoDet 也能輕松跑到 40+FPS。

NanoDet 和 yolov4-tiny 的性能對比。 最后,該項目提供了 Android demo、C++ demo 和 Python demo。NanoDet 在安卓端的目標檢測結果如下所示:

NanoDet 方法 NanoDet 是一種 FCOS 式的單階段 anchor-free 目標檢測模型,它使用 ATSS 進行目標采樣,使用 Generalized Focal Loss 損失函數執行分類和邊框回歸(box regression)。 據項目作者介紹,該項目的主要目的是希望開源一個移動端實時的 Anchor-free 檢測模型,能夠提供不亞于 YOLO 系列的性能,并且方便訓練和移植。為此,他參考了以下研究: 最終得到的 NanoDet 模型架構如下:

損失函數 項目作者想要實現一個 FCOS 式的 anchor-free 目標檢測模型,但將 FCOS 輕量化處理時,由于 FCOS 的 centerness 分支在輕量級的模型上很難收斂,模型效果不如預期。 最終,NanoDet 使用了李翔等人提出的 Generalized Focal Loss 損失函數。該函數能夠去掉 FCOS 的 Centerness 分支,省去這一分支上的大量卷積,從而減少檢測頭的計算開銷,非常適合移動端的輕量化部署。

圖源:https://arxiv.org/pdf/2006.04388.pdf 檢測頭輕量化 找到合適的損失函數后,如何使其在輕量級模型上發揮作用呢? 首先需要優化的是檢測頭。 FCOS 系列使用了共享權重的檢測頭,即對 FPN 出來的多尺度 Feature Map 使用同一組卷積預測檢測框,然后每一層使用一個可學習的 Scale 值作為系數,對預測出來的框進行縮放。

圖源:https://openaccess.thecvf.com/content_ICCV_2019/papers/Tian_FCOS_Fully_Convolutional_One-Stage_Object_Detection_ICCV_2019_paper.pdf 這么做的好處是能夠將檢測頭的參數量降低為不共享權重狀態下的 1/5。這對于光是檢測頭就擁有數百通道卷積的大模型來說非常有用,但是對于輕量化模型來說,共享權重檢測頭并沒有很大的意義。由于移動端模型推理由 CPU 執行計算,共享權重并不會帶來推理過程的加速,而且在檢測頭非常輕量的情況下,共享權重使其檢測能力進一步下降,因此項目作者認為選擇對每一層特征使用一組卷積比較合適。 同時,FCOS 系列在檢測頭上使用了 Group Normalization(GN)作為歸一化方式,GN 對比 BN(Batch Normalization)有很多好處,但是卻有一個缺點:BN 在推理時能夠將其歸一化的參數直接融合進卷積中,可以省去這一步計算,而 GN 則不行。為了能夠節省歸一化操作的時間,項目作者選擇將 GN 替換為 BN。 FCOS 的檢測頭使用了 4 個 256 通道的卷積作為一個分支,也就是說在邊框回歸和分類兩個分支上一共有 8 個 c=256 的卷積,計算量非常大。為了將其輕量化,項目作者首先選擇用深度可分離卷積替換普通卷積,并且將卷積堆疊的數量從 4 個減少為 2 組。在通道數上,將 256 維壓縮至 96 維,之所以選擇 96,是因為需要將通道數保持為 8 或 16 的倍數,能夠享受到大部分推理框架的并行加速。 最后,項目作者借鑒了 YOLO 系列的做法,將邊框回歸和分類使用同一組卷積進行計算,然后 split 成兩份。最終得到的輕量化檢測頭如下圖所示:

FPN 層改進 目前針對 FPN 的改進有許多,如 EfficientDet 使用了 BiFPN,YOLO v4 和 v5 使用了 PAN,除此之外還有 BalancedFPN 等等。BiFPN 雖然性能強大,但是堆疊的特征融合操作會導致運行速度降低,而 PAN 只有自上而下和自下而上兩條通路,非常簡潔,是輕量級模型特征融合的好選擇。 原版的 PAN 和 YOLO 系列中的 PAN 都使用了 stride=2 的卷積進行大尺度 Feature Map 到小尺度的縮放。而該項目出于輕量化的考慮,選擇完全去掉 PAN 中的所有卷積,只保留從骨干網絡特征提取后的 1x1 卷積來進行特征通道維度的對齊,上采樣和下采樣均使用插值來完成。與 YOLO 使用的 concatenate 操作不同,項目作者選擇將多尺度的 Feature Map 直接相加,使整個特征融合模塊的計算量變得非常小。 最終得到的極小版 PAN 結構非常簡單:

NanoDet 使用的超輕量 PAN(圖源:https://zhuanlan.zhihu.com/p/306530300) 骨干網絡 項目作者選擇使用 ShuffleNetV2 1.0x 作為骨干網絡,他去掉了該網絡的最后一層卷積,并且抽取 8、16、32 倍下采樣的特征輸入到 PAN 中做多尺度的特征融合。整個骨干模型使用了 Torchvision 提供的代碼,能夠直接加載 Torchvision 上提供的 imagenet 預訓練權重,對加快模型收斂起到很大幫助。 目前,項目作者已將 Pytorch 訓練代碼、基于 NCNN 的 Linux 和 Windows C++ 部署代碼以及 Android 攝像頭 Demo 全部開源,并在 Readme 中提供了詳細教程,參見項目 GitHub 主頁。

責任編輯:PSY

原文標題:1.8M超輕量目標檢測模型NanoDet,比YOLO跑得快,上線兩天Star量超200

文章出處:【微信公眾號:通信信號處理研究所】歡迎添加關注!文章轉載請注明出處。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 檢測模型
    +關注

    關注

    0

    文章

    17

    瀏覽量

    7420
  • 移動端
    +關注

    關注

    0

    文章

    43

    瀏覽量

    4745
  • GitHub
    +關注

    關注

    3

    文章

    488

    瀏覽量

    18662

原文標題:1.8M超輕量目標檢測模型NanoDet,比YOLO跑得快,上線兩天Star量超200

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯網技術研究所】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    百度正式發布并開源新一代文檔解析模型PaddleOCR-VL-1.5

    1 月 29 日,百度正式發布并開源新一代文檔解析模型 PaddleOCR-VL-1.5。該模型 0.9B 參數的輕架構,在全球權威文
    的頭像 發表于 01-30 10:03 ?584次閱讀
    百度正式發布并<b class='flag-5'>開源</b>新一代文檔解析<b class='flag-5'>模型</b>PaddleOCR-VL-1.5

    月之暗面全新開源旗艦模型Kimi K2.5上線模力方舟

    模力方舟平臺現已上線來自月之暗面(Moonshot AI)發布的全新開源旗艦模型Kimi K2.5。
    的頭像 發表于 01-29 10:20 ?866次閱讀
    月之暗面全新<b class='flag-5'>開源</b>旗艦<b class='flag-5'>模型</b>Kimi K2.5<b class='flag-5'>上線</b>模力方舟

    壁仞科技壁礪166M產品適配騰訊混元開源翻譯模型1.5版本

    中文、英語、日語等常見語種,也包含捷克語、馬拉地語、愛沙尼亞語、冰島語等小語種。目前模型均已在騰訊混元官網上線,在Github和Huggingface等
    的頭像 發表于 01-05 15:39 ?299次閱讀
    壁仞科技壁礪166M產品適配騰訊混元<b class='flag-5'>開源</b>翻譯<b class='flag-5'>模型</b>1.5版本

    引領側大模型落地!Firefly-RK182X 開發套件上線發售

    海量參數的大模型給AI行業帶來顛覆性的體驗,然而在側設備中,由于有限的DRAM帶寬、硬件算力、存儲容量等瓶頸,讓側大模型長期停留在概念
    的頭像 發表于 11-26 16:33 ?2274次閱讀
    引領<b class='flag-5'>端</b>側大<b class='flag-5'>模型</b>落地!Firefly-RK182X 開發套件<b class='flag-5'>上線</b>發售

    訊飛實時語音轉寫大模型上線

    從全球協作,到國際交流,再到知識普惠,實時語音轉寫已經成為信息傳遞的重要工具。它讓跨越時空的交流更順暢,讓內容的獲取更高效。
    的頭像 發表于 09-26 16:08 ?976次閱讀

    廣和通發布側目標檢測模型FiboDet

    為提升側設備視覺感知與決策能力,廣和通全自研側目標檢測模型FiboDet應運而生。該模型基于廣和通在邊緣計算與人工智能領域的深度積累,面
    的頭像 發表于 09-26 13:39 ?1603次閱讀

    華為CANN與智譜GLM模型完成適配

    已于7月28日正式開源其新一代基座模型GLM-4.5,其GLM模型已完成與CANN的適配。這標志著國產大模型與計算架構在
    的頭像 發表于 08-11 11:00 ?2564次閱讀

    Arm率先適配騰訊混元開源模型,助力側AI創新開發

    共同賦能側人工智能 (AI) 部署,助力本土開發者實現 AI 應用創新! 這次的首日開源適配是雙方再次攜手提升側應用功能和用戶體驗的又一例證。去年,Arm 將 Arm KleidiAI 技術與騰訊混元自研的 Angel 機器
    的頭像 發表于 08-08 09:16 ?1384次閱讀
    Arm率先適配騰訊混元<b class='flag-5'>開源</b><b class='flag-5'>模型</b>,助力<b class='flag-5'>端</b>側AI創新開發

    【VisionFive 2單板計算機試用體驗】3、開源大語言模型部署

    , Gemma等開源模型。當然,一些閉源的(類似chatgpt, gemini)是不支持部署的。如下圖: 在側部署大模型,個人認為最大的好處:是可以避免因文本或圖片上傳而造成的信
    發表于 07-19 15:45

    微軟開源GitHub Copilot Chat,AI編程迎來新突破

    GitHub Copilot + vscode的組合我已經用了很久,我的代碼開發效率完全提升了一個level。幫我代碼提示,代碼不全,注釋理解生成代碼等等,這些我是我經常用到的功能。 在今天凌晨4點
    的頭像 發表于 07-02 09:34 ?1183次閱讀
    微軟<b class='flag-5'>開源</b><b class='flag-5'>GitHub</b> Copilot Chat,AI編程迎來新突破

    華為正式開源盤古7B稠密和72B混合專家模型

    關鍵舉措,推動大模型技術的研究與創新發展,加速推進人工智能在千行百業的應用與價值創造。 盤古Pro MoE 72B模型權重、基礎推理代碼,已正式上線開源平臺。 基于昇騰的超大規模MoE
    的頭像 發表于 06-30 11:19 ?1329次閱讀

    MediaTek璣9400率先完成阿里Qwen3模型部署

    通義大模型團隊在璣 9400 旗艦移動平臺上率先完成 Qwen3(千問 3)的側部署。未來,搭載璣 9400
    的頭像 發表于 05-08 10:11 ?1315次閱讀

    首創開源架構,璣AI開發套件讓側AI模型接入得心應手

    的自有模型移植,使首字詞生態速度比云端方案提升70%,賦能絕影多模態智能座艙強大的側運行能力,讓汽車擁有“有趣的靈魂”。 不僅如此,璣AI開發套件已經接入NVIDIA TAO生態
    發表于 04-13 19:52

    商湯科技日日新大模型SenseNova上線聲網云市場

    日前,商湯科技日日新大模型SenseNova即將正式上線聲網云市場,開發者和企業用戶可通過聲網的實時互動云服務進行調用,將商湯領先的模型能力集成到各類應用場景中,快速構建基于日日新大
    的頭像 發表于 04-08 17:24 ?1488次閱讀

    使用OpenVINO?模型的OpenCV進行人臉檢測檢測到多張人臉時,伺服電機和步入器電機都發生移動是為什么?

    使用OpenVINO?模型的 OpenCV* 進行人臉檢測。 使用 cv2.矩形 函數,能夠獲取檢測到的面部的坐標。 檢測到多張人臉時,多個坐標被捕獲到,伺服電機和步入器電機都發生
    發表于 03-07 06:35