国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

YOLOv6在LabVIEW中的推理部署(含源碼)

王立奇 ? 2024-11-06 16:07 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

??

前言

前面我們給大家介紹了使用OpenCV以及ONNX工具包實現yolov5在LabVIEW中的部署,有英偉達顯卡的朋友們可能已經感受過使用cuda加速時yolov5的速度,今天主要和大家分享在LabVIEW中使用純TensoRT工具包快速部署并實現yolov5的物體識別, 本博客中使用的智能工具包可到主頁置頂博客[https://blog.csdn.net/virobotics/article/details/129304465]
中安裝
。若配置運行過程中遇到困難,歡迎大家評論區留言,博主將盡力解決。

以下是YOLOv5的相關筆記總結,希望對大家有所幫助。

【YOLOv5】LabVIEW+OpenVINO讓你的YOLOv5在CPU上飛起來https://blog.csdn.net/virobotics/article/details/124951862
【YOLOv5】LabVIEW OpenCV dnn快速實現實時物體識別(Object Detection)https://blog.csdn.net/virobotics/article/details/124929483
【YOLOv5】手把手教你使用LabVIEW ONNX Runtime部署 TensorRT加速,實現YOLOv5實時物體識別(含源碼)https://blog.csdn.net/virobotics/article/details/124981658

一、關于YOLOv5

YOLOv5是在 COCO 數據集上預訓練的一系列對象檢測架構和模型。表現要優于谷歌開源的目標檢測框架 EfficientDet,在檢測精度和速度上相比yolov4都有較大的提高。本博客,我們以YOLOv5 6.1版本來介紹相關的部署開發。

在這里插入圖片描述
YOLOv5相比于前面yolo模型的主要特點是:
1、小目標的檢測精度上有明顯的提高;
2、能自適應錨框計算
3、具有數據增強功能,隨機縮放,裁剪,拼接等功能
4、靈活性極高、速度超快,模型超小、在模型的快速部署上具有極強優勢

關于YOLOv5的網絡結構解釋網上有很多,這里就不再贅述了,大家可以看其他大神對于YOLOv5網絡結構的解析。

二、YOLOv5模型的獲取

為方便使用, 博主已經將yolov5模型轉化為onnx格式 ,可在百度網盤下載
鏈接:[https://pan.baidu.com/s/15dwoBM4W-5_nlRj4G9EhRg?pwd=yiku]
提取碼:yiku

1.下載源碼

將Ultralytics開源的YOLOv5代碼Clone或下載到本地,可以直接點擊Download ZIP進行下載,

下載地址:[https://github.com/ultralytics/yolov5]
在這里插入圖片描述

2.安裝模塊

解壓剛剛下載的zip文件,然后安裝yolov5需要的模塊,記住cmd的工作路徑要在yolov5文件夾下:
在這里插入圖片描述
打開cmd切換路徑到yolov5文件夾下,并輸入如下指令,安裝yolov5需要的模塊

pip install -r requirements.txt

3.下載預訓練模型

打開cmd,進入python環境,使用如下指令下載預訓練模型:

import torch

# Model
model = torch.hub.load('ultralytics/yolov5', 'yolov5s')  # or yolov5n - yolov5x6, custom

成功下載后如下圖所示:
在這里插入圖片描述

4.轉換為onnx模型

將.pt文件轉化為.onnx文件,在cmd中輸入轉onnx的命令(記得將export.py和pt模型放在同一路徑下):

python export.py --weights yolov5s.pt --include onnx

如下圖所示為轉化成功界面
在這里插入圖片描述
其中yolov5s可替換為yolov5myolov5myolov5lyolov5x
在這里插入圖片描述

三、LabVIEW+TensorRT的yolov5部署實戰(yolov5_trt_img.vi)

如需要查看TensorRT工具包相關vi含義,可查看:[https://blog.csdn.net/virobotics/article/details/129492651]

1.onnx轉化為engine(onnx to engine.vi)

使用onnx_to_engine.vi,將該vi拖拽至前面板空白區域,創建并輸入onnx的路徑以及engine的路徑,type即精度,可選擇FP32或FP16,肉眼觀看精度無大差別。(一般FP16模型比FP32速度快一倍)
在這里插入圖片描述
轉換的完整程序如下:
在這里插入圖片描述

點擊運行,等待1~3分鐘,模型轉換成功,可在剛剛設定的路徑中找到我們轉化好的mobilenet.engine.

Q:為什么要轉換模型,不直接調用ONNX?> A:tensorRT內部加載ONNX后其實是做了一個轉換模型的工作,該過程時間長、占用內存巨大。因此不推薦每次初始化都加載ONNX模型,而是加載engine。

2.部署

模型初始化

  1. 加載yolov5s.engine文件
  2. 設置輸入輸出緩存
    ? 輸入大小為13640640
    ? 輸出大小為1
    25200*85
    在這里插入圖片描述

yolov5的預處理

  1. LetterBox
  2. blobFromImage,包含如下步驟:
1) img=img/255.0
2) img = img[None] #從(640,640,3)擴充維度至(1,640,640,3)
3) input=img.transpose(0,3,1,2) # BHWC to BCHW

1.png

在這里插入圖片描述

模型推理

  1. 推薦使用數據指針作為輸入給到run.vi
  2. 數據的大小為13640*640
    在這里插入圖片描述

獲取推理結果

  1. 循環外初始化一個25200*85的二維數組
  2. 此數組作為Get_Result的輸入,另一個輸入為index=0
  3. 輸出為25200*85的二維數組結果

在這里插入圖片描述

后處理

本范例中,后處理方式和使用onnx一樣

在這里插入圖片描述

完整源碼

在這里插入圖片描述

運行結果

1.png

項目源碼

源碼下載鏈接:https://pan.baidu.com/s/1y0scJ8tg5nzjJK4iPvNwNQ?pwd=yiku

附加說明

  • 操作系統:Windows10
  • python:3.6及以上
  • LabVIEW:2018及以上 64位版本
  • 視覺工具包:techforce_lib_opencv_cpu-1.0.0.98.vip
  • LabVIEW TensorRT工具包:virobotics_lib_tensorrt-1.0.0.22.vip
  • 運行結果所用顯卡:RTX3060

審核編輯 黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • LabVIEW
    +關注

    關注

    2017

    文章

    3688

    瀏覽量

    347076
  • 機器視覺
    +關注

    關注

    165

    文章

    4798

    瀏覽量

    126045
  • 目標檢測
    +關注

    關注

    0

    文章

    233

    瀏覽量

    16492
  • 深度學習
    +關注

    關注

    73

    文章

    5598

    瀏覽量

    124396
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    使用ROCm?優化并部署YOLOv8模型

    作者:AVNET 李鑫杰 一,YOLOv8介紹? YOLOv8 由 Ultralytics 于 2023 年 1 月 10 日發布,準確性和速度方面提供了前沿的性能。YOLOv8
    的頭像 發表于 09-24 18:32 ?854次閱讀
    使用ROCm?優化并<b class='flag-5'>部署</b><b class='flag-5'>YOLOv</b>8模型

    基于瑞芯微RK3576的 yolov5訓練部署教程

    5s、YOLOv5m、YOLOv5l、YOLOv5x 四個模型。YOLOv5 相比YOLOv4 而言,
    的頭像 發表于 09-11 16:43 ?2949次閱讀
    基于瑞芯微RK3576的 <b class='flag-5'>yolov</b>5訓練<b class='flag-5'>部署</b>教程

    K230,如何使用AI Demo的object_detect_yolov8n,YOLOV8多目標檢測模型?

    K230的AI開發教程文檔,可以看到有源碼的AI Demo,其中包括yolov8n模型,倉庫里可以看到
    發表于 08-07 06:48

    yolov5訓練部署全鏈路教程

    5m、YOLOv5l、YOLOv5x四個模型。YOLOv5相比YOLOv4而言,檢測平均精度降低不多的基礎上,具有均值權重文件更小,訓練時
    的頭像 發表于 07-25 15:22 ?1756次閱讀
    <b class='flag-5'>yolov</b>5訓練<b class='flag-5'>部署</b>全鏈路教程

    K230上部署yolov5時 出現the array is too big的原因?

    重現步驟 1將yolov5的kmodel放入k230的data數據 2使用yolo大作戰里的視頻流推理代碼 3運行 期待結果和實際結果 期待的結果 將目標檢測的框圈起來 實際看到的結果
    發表于 05-28 07:47

    labview調用yolov8/11目標檢測、分割、分類

    labview使用2020版本64位編輯,調用yolov8/11的onnx模型案例。 源碼: 通過網盤分享的文件:Labview_cls.zip等4個文件 鏈接: https
    發表于 04-21 19:37

    RV1126 yolov8訓練部署教程

    YOLOv8 是 ultralytics 公司 2023 年 1月 10 號開源的基于YOLOV5進行更新的 下一個重大更新版本,目前支持圖像分類、物體檢測和實例分割任務,鑒于Yolov
    的頭像 發表于 04-16 14:53 ?1454次閱讀
    RV1126 <b class='flag-5'>yolov</b>8訓練<b class='flag-5'>部署</b>教程

    RK3576 yolov11-seg訓練部署教程

    yolov11-seg 是YOLO(You Only Look Once)系列的最新成員,專為實時實例分割任務設計。它在保持YOLO家族高效推理速度的同時,通過創新的網絡結構和分割頭設計,實現了像素
    的頭像 發表于 04-16 09:43 ?2353次閱讀
    RK3576 <b class='flag-5'>yolov</b>11-seg訓練<b class='flag-5'>部署</b>教程

    OrinNano yolov11訓練部署教程

    ORinNano yolov11訓練部署教程
    的頭像 發表于 04-10 15:26 ?2584次閱讀
    OrinNano  <b class='flag-5'>yolov</b>11訓練<b class='flag-5'>部署</b>教程

    RK3576 yolov8訓練部署教程

    本章展示yolov8模型的EASY EAI Orin nano的部署過程。
    的頭像 發表于 04-02 16:04 ?1863次閱讀
    RK3576 <b class='flag-5'>yolov</b>8訓練<b class='flag-5'>部署</b>教程

    labview調用yolo目標檢測、分割、分類、obb

    labview調用yolo目標檢測、分割、分類、obb、pose深度學習,支持CPU和GPU推理,32/64位labview均可使用。 (yolov5~
    發表于 03-31 16:28

    【幸狐Omni3576邊緣計算套件試用體驗】RKNN 推理測試與圖像識別

    Python API 開發板上進行部署。 環境搭建 本節介紹了 RKNN 推理測試的開發環境搭建流程,包括 Ubuntu 系統、Conda 環境部署等。 Ubuntu 22.04
    發表于 03-20 16:14

    YOLOv5類rgb888p_size這個參數要與模型推理和訓練的尺寸一致嗎?一致會達到更好的效果?

    YOLOv5類rgb888p_size這個參數要與模型推理和訓練的尺寸一致嗎,一致會達到更好的效果
    發表于 03-11 08:12

    yolov5轉onnxcubeAI進行部署部署失敗的原因?

    第一個我是轉onnx時 想把權重文件變小點 就用了半精度 --half,則說17版本不支持半精度 后面則是沒有縮小的單精度 但是顯示哪里溢出了···· 也不說是哪里、、。。。 到底能不能部署yolov5這種東西啊?? 也沒看見幾個部署
    發表于 03-07 11:38

    為什么深度學習的Frame per Second高于OpenVINO?演示推理腳本?

    DL Workbench 上使用 Microsoft 通用對象上下文 (MS COCO) 數據集運行 YOLOv4 對象檢測模型,并獲得 50 - 60 FPS。 OpenVINO?演示推理腳本運行,并獲得更高的 FP
    發表于 03-06 07:27