伦伦影院久久影视,天天操天天干天天射,ririsao久久精品一区 ,一本大道香蕉大久在红桃,999久久久免费精品国产色夜,色悠悠久久综合88,亚洲国产精品久久无套麻豆,亚洲香蕉毛片久久网站,一本一道久久综合狠狠老

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

RK3576 yolov11-seg訓練部署教程

ljx2016 ? 來源:ljx2016 ? 作者:ljx2016 ? 2025-04-16 09:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1. yolov11-seg簡介

yolov11-seg 是YOLO(You Only Look Once)系列的最新成員,專為實時實例分割任務設計。它在保持YOLO家族高效推理速度的同時,通過創新的網絡結構和分割頭設計,實現了像素級的精確目標檢測與分割,適用于自動駕駛、醫學影像、工業檢測等對精度和速度要求苛刻的場景。

本教程針對目標分割算法yolov11 seg的訓練和部署到EASY-EAI-Orin-nano(RK3576)進行說明,而數據標注方法可以參考我們往期的文章。

wKgZPGf_DB2ARvryAABWpTPk7W8599.png

2. yolov11-seg模型訓練

yolov11-seg訓練代碼在導出部分對比原版會有一些修改,建議下載我們的訓練代碼。百度網盤鏈接:https://pan.baidu.com/s/1kPU_t7GaZzi1zot_aI7xPQ?pwd=1234(提取碼:1234)。

2.1 數據集準備

在開始yolov11訓練前,我看先準備好待訓練數據,如crack(裂縫數據集),數據集也在訓練工程的壓縮包里面了。

目錄如下圖示意:

wKgZO2f_DB2ALPlcAAAYJWg9EJo214.png

crack-seg標簽數據格式說明如下圖所示:

wKgZO2f_DB2AG6XDAABZ1Mnofp0668.png

注:如果你需要將json格式的標注數據轉成label標簽數據,可以使用./data/json_2_yolo.py腳本轉換。

2.2 訓練參數配置

配置模型的訓練參數:data.yaml,default.yaml,yolo11-seg.yaml,以crack-seg為例.

wKgZPGf_DB2AQvLaAAAXCz_trlg280.png

其中:

data.yaml:為待訓練數據和驗證數據的路徑,以及類別數和類別名稱;

default.yaml:為yolov11-seg訓練參數,可自行調整模型訓練的參數;

yolo11-seg.yaml:為yolov11-seg模型結構,在模型訓練時,你需要修改類別數。

更多關于yolov11-seg信息可參考:

https://blog.csdn.net/qq_45972324/article/details/143892222

2.3 模型訓練

完成上述步驟后,就可以開始訓練模型了,打開train.py腳本,輸入data.yaml,default.yaml,yolo11-seg.yaml路徑,如下代碼段所示:

from ultralytics import YOLO
import os

os.environ["KMP_DUPLICATE_LIB_OK"] = "TRUE"  
if __name__ == '__main__':
    cfg = r"./demo/crack-seg/default.yaml"
    data = r'./demo/crack-seg/data.yaml'
    #weight = r"./demo/weights/yolo11n-seg.pt"  # pt 或 yolovx.yaml
    weight = r"./demo/crack-seg/yolo11-seg.yaml"
    model = YOLO(weight)

    results = model.train(
        data=data,
        cfg=cfg
)

由于大家下載源碼包后解壓路徑都不一樣,所以需要更改data.yaml的數據集路徑才能讓模型訓練的時候找到數據集:

wKgZO2f_DB6AaMaZAACLn93H7cY851.png

執行train.py訓練腳本,開始模型訓練,如下示意圖:

python train.py
wKgZPGf_DB6AQPv6AAGXcRqbxWo967.png

2.4 PC端預測模型預測

訓練完畢后,在default.yaml文件配置的project目錄下保存訓練過程,經驗證集測試的最好結果的模型。同時可以執行模型預測,初步評估模型的效果。打開predict-seg.py腳本,配置好模型路徑和待檢測圖片,如下代碼片段:

from ultralytics import YOLO

# Load a model
model_path = r"./demo/crack/train/weights/best.pt"
image_path = r"./demo/crack-seg/test/images/1616.rf.c868709931a671796794fdbb95352c5a.jpg"

model = YOLO(model_path)  # load an official model

# Predict with the model
results = model(image_path)  # predict on an image

for result in results:
    boxes = result.boxes  # Boxes object for bounding box outputs
    masks = result.masks  # Masks object for segmentation masks outputs
    keypoints = result.keypoints  # Keypoints object for pose outputs
    probs = result.probs  # Probs object for classification outputs
    obb = result.obb  # Oriented boxes object for OBB outputs
    result.show()  # display to screen
    result.save(filename="result.jpg")  # save to disk

執行腳本:

python predict-seg.py

腳本運行結束后,會將圖片結果圖片保存為result.jpg,運行結果如下圖所示:

wKgZO2f_DB6ATZSyAAEj64NWMSs783.jpg

2.5 PT模型轉ONNX

在PC端執行export.py將pt模型轉成onnx,如下代碼段所示:

from ultralytics import YOLO

if __name__ == '__main__':
    format = 'rknn' # 'torchscript', 'onnx', 'openvino', 'engine', 'coreml', 'saved_model', 'pb', 'tflite', 'edgetpu', 'tfjs', 'paddle', 'ncnn'
    weight = r"./demo/crack/train/weights/best.pt"  # pt 或 yolovx.yaml
    model = YOLO(weight)
    results = model.export(format = format)

執行腳本:

python export.py
wKgZPGf_DB6AEoxTAAB5nDG_TKU127.png

生成best.onnx模型如下所示:

wKgZO2f_DB-AbrFeAAAmO1-GZ8w632.png

3. rknn-toolkit模型轉換

3.1 rknn-toolkit模型轉換環境搭建

onnx模型需要轉換為rknn模型才能在EASY-EAI-Orin-nano運行,所以需要先搭建rknn-toolkit模型轉換工具的環境。當然tensorflow、tensroflow lite、caffe、darknet等也是通過類似的方法進行模型轉換,只是本教程onnx為例。

3.1.1 概述

模型轉換環境搭建流程如下所示:

wKgZPGf_DB-AJMbuAAAxiiEbB5I976.png

3.1.2 下載模型轉換工具

為了保證模型轉換工具順利運行,請下載網盤里“06.AI算法開發/01.rknn-toolkit2模型轉換工具/rknn-toolkit2-v2.3.0/docker/rknn-toolkit2-v2.3.0-cp38-docker.tar.gz”。

網盤下載鏈接:https://pan.baidu.com/s/1J86chdq1klKFnpCO1RCcEA?pwd=1234(提取碼:1234)。

3.1.3 把工具移到ubuntu20.04

把下載完成的docker鏡像移到我司的虛擬機ubuntu20.04的rknn-toolkit2目錄,如下圖所示:

wKgZO2f_DB-AZsP6AACIUiaLuRs586.png

3.1.4 運行模型轉換工具環境

在該目錄打開終端

wKgZPGf_DB-AXrtSAAC3K-nNJbw757.png

執行以下指令加載模型轉換工具docker鏡像:

docker load --input rknn-toolkit2-v2.3.0-cp38-docker.tar.gz

執行以下指令進入鏡像bash環境:

docker run -t -i --privileged -v /dev/bus/usb:/dev/bus/usb rknn-toolkit2:2.3.0-cp38 /bin/bash

現象如下圖所示:

wKgZO2f_DB-ADwhKAABwE02CuRY535.png

輸入“python”加載python相關庫,嘗試加載rknn庫,如下圖環境測試成功:

wKgZPGf_DCCAZxXTAACYXiExqnY256.png

至此,模型轉換工具環境搭建完成。

4. 模型轉換為RKNN

EASY EAI Orin-nano支持.rknn后綴的模型的評估及運行,對于常見的tensorflow、tensroflow lite、caffe、darknet、onnx和Pytorch模型都可以通過我們提供的 toolkit 工具將其轉換至 rknn 模型,而對于其他框架訓練出來的模型,也可以先將其轉至 onnx 模型再轉換為 rknn 模型。模型轉換操作流程入下圖所示:

wKgZO2f_DCCAJpZgAADmstLlDDk888.png

4.1 模型轉換Demo下載

下載百度網盤鏈接:https://pan.baidu.com/s/1jrF2VFZImsBqWQeH4bawaA?pwd=1234(提取碼:1234。)把quant_dataset.zip和yolov11_seg_model_convert.tar.bz2解壓到虛擬機,如下圖所示:

wKgZPGf_DCCAa5JXAACzQWx5Y4c815.png

4.2 進入模型轉換工具docker環境

執行以下指令把工作區域映射進docker鏡像,其中/home/developer/rknn-toolkit2/model_convert為工作區域,/test為映射到docker鏡像,/dev/bus/usb:/dev/bus/usb為映射usb到docker鏡像:

docker run -t -i --privileged -v /dev/bus/usb:/dev/bus/usb -v /home/developer/rknn-toolkit2/model_convert:/test rknn-toolkit2:2.3.0-cp38 /bin/bash

執行成功如下圖所示:

wKgZO2f_DCCAIlY8AAB8faQHBaA810.png

4.3 模型轉換操作說明

4.3.1 模型轉換Demo目錄結構

模型轉換測試Demo由yolov11_seg_model_convert和quant_dataset組成。yolov11_seg_model_convert存放軟件腳本, quant_dataset存放量化模型所需的數據。如下圖所示:

wKgZPGf_DCGAEFyyAAC2eeTghJs494.png

4.3.2 onnx模型轉換為rknn模型

rknn_convert.py腳本默認進行int8量化操作,腳本代碼清單如下所示:

from rknn.api import RKNN

import sys
from rknn.api import RKNN

ONNX_MODEL = 'best.onnx'
DATASET = './pic_path.txt'
RKNN_MODEL = './yolov11n_seg_rk3576.rknn'
QUANTIZE_ON = True


if __name__ == '__main__':

    # Create RKNN object
    rknn = RKNN(verbose=False)

    # Pre-process config
    print('--> Config model')
    rknn.config(mean_values=[[0, 0, 0]], std_values=[
                    [255, 255, 255]], target_platform='rk3576')
    print('done')

    # Load model
    print('--> Loading model')
    ret = rknn.load_onnx(model=ONNX_MODEL)
    if ret != 0:
        print('Load model failed!')
        exit(ret)
    print('done')

    # Build model
    print('--> Building model')
    ret = rknn.build(do_quantization=QUANTIZE_ON, dataset=DATASET)
    if ret != 0:
        print('Build model failed!')
        exit(ret)
    print('done')

    # Export rknn model
    print('--> Export rknn model')
    ret = rknn.export_rknn(RKNN_MODEL)
    if ret != 0:
        print('Export rknn model failed!')
        exit(ret)
    print('done')

    # Release
    rknn.release()

并執行如下命令進行模型轉換:

python rknn_convert.py

生成模型如下圖所示,EASY EAI Orin-nano環境運行:

wKgZO2f_DCGAJQWbAAQlimLAv7Q346.png

5. 模型部署示例

本小節展示yolov11-seg模型的在EASY EAI Orin-nano的部署過程,本章章節使用的yolov11n_seg_rk3576.rknn是使用crack數據集訓練得到。

5.1 源碼下載以及例程編譯

下載yolov11-seg C Demo示例文件。

百度網盤鏈接: https://pan.baidu.com/s/1GCBkHHWtgXMbDTvEPJHmAw?pwd=1234(提取碼: 1234)。

下載程序包移至ubuntu環境后,執行以下指令解壓:

tar -xvf yolov11_seg_model_convert.tar.bz2

下載解壓后如下圖所示:

wKgZPGf_DCGAZY1YAACud5g4MvY496.png

通過adb接口連接EASY-EAI-Orin-nano,,連接方式如下圖所示:

wKgZO2f_DCGAKS4JABPnfd1PZu8406.png

接下來需要通過adb把源碼傳輸到板卡上,先切換目錄然后執行以下指令:

cd ~/rknn-toolkit2
adb push yolov11_seg_C_demo /userdata
wKgZPGf_DCKAA7LdAABXBEsmr68432.png

登錄到板子切換到例程目錄執行編譯操作

adb shell
cd /userdata/yolov11_seg_C_demo
chmod 777 build.sh
./build.sh
wKgZO2f_DCKAOi1JAAFfQcq9SRI104.png

5.2 開發板執行yolov11 seg分割算法

編譯成功后切換到可執行程序目錄,如下所示:

 cd /userdata/yolov11_seg_C_demo/yolov11_seg_demo_release/

運行例程命令如下所示:

chmod 777 yolov11_seg_demo
./yolov11_seg_demo yolov11n_seg_rk3576.rknn crack.jpg

執行結果如下圖所示,算法執行時間為60.1768ms:

wKgZPGf_DCKADiA7AAJjk_RuqOI930.png

退出板卡環境,取回測試圖片:

exit
adb pull /userdata/yolov11_seg_C_demo/yolov11_seg_demo_release/result.jpg .
adb pull /userdata/yolov11_seg_C_demo/yolov11_seg_demo_release/mask_bgr.jpg .

測試結果如下圖所示:

wKgZPGf_DCOAHvc0AAAb0Xn1SnI555.jpgwKgZO2f_DCOAUIh4AAERS0zZ7oU080.jpg

至此,yolov11-seg實例分割例程已成功在板卡運行。

6. 資料下載

資料名稱 鏈接
算法訓練部署教程完整源碼包 https://pan.baidu.com/s/1tg1WbzMBeJqmKhxe2DXdMw?pwd=1234
提取碼:1234


審核編輯 黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • rk3576
    +關注

    關注

    1

    文章

    286

    瀏覽量

    1660
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    【米爾RK3576開發板評測】+項目名稱YOLOV5目標檢測

    ../model/yolov5s_relu.onnx rk3576 i8 ../model/yolov5s_relu.rknn 四、PC端運行程序 cd Projects/rknn_model_zoo
    發表于 02-15 13:24

    【米爾RK3576開發板評測】+項目名稱百度飛槳PP-YOLOE

    /ppyoloe_s.onnx rk3576 i8 ../model/ppyoloe_s.rknn 3.3、程序編譯,將轉換后RKNN模型,編譯成為RK3576能夠運行的文件。 bash ./build-linux.sh -t
    發表于 02-15 17:14

    RK3576 vs RK3588:為何越來越多的開發者轉向RK3576

    瑞芯微(Rockchip)最新發布的 RK3576 一經推出,就吸引了大量原本關注 RK3588 的開發者。RK3588 作為旗艦級芯片,性能固然強大,但 RK3576 憑借其超高的能
    發表于 05-30 08:46

    Mpp支持RK3576

    想問下,https://github.com/rockchip-linux/mpp這里面支持RK3576么,看介紹沒有提到說支持RK3576 目前是買了個rk3576的機頂盒,搭載了安卓14,想做安卓視頻硬解。
    發表于 06-13 15:35

    【作品合集】米爾RK3576開發板測評

    】米爾RK3576開發板免費試用 作者:EPTmachine【米爾RK3576開發板免費體驗】1、開發環境、鏡像燒錄、QT開發環境搭建以及應用部署 【米爾RK3576開發板免費體驗】2
    發表于 09-11 10:19

    單板挑戰4路YOLOv8!米爾瑞芯微RK3576開發板性能實測

    ,-pos來演示。米爾基于RK3576開發板 單獨測試視頻場景1.YOLOv8s.int 目標檢測模型 2.YOLOv8s-seg.int 實例分割模型 3.YOLOv8s-pose.
    發表于 09-12 17:52

    新品體驗 | RK3576開發板

    前言:RK3576作為瑞芯微第二代8nm高性能AIOT平臺,一經推出便獲得了極大的關注。廣州眺望電子科技有限公司是一家專注于嵌入式處理器模組研發與應用的國家高新技術企業,目前公司已推出的相關型號有
    的頭像 發表于 11-01 08:08 ?3333次閱讀
    新品體驗 | <b class='flag-5'>RK3576</b>開發板

    RK3576單板發布倒計時:RK3399與RK3576對比

    好多人說RK3576RK3399的升級版,某種程度上也可以這么說,RK3576在強大的多媒體功能的基礎上,性能和接口都進行了升級 一、工藝 性能 rk3576采用 Rockchip
    的頭像 發表于 12-03 16:59 ?2710次閱讀
    <b class='flag-5'>RK3576</b>單板發布倒計時:<b class='flag-5'>RK</b>3399與<b class='flag-5'>RK3576</b>對比

    RK3576 yolov8訓練部署教程

    本章展示yolov8模型的在EASY EAI Orin nano的部署過程。
    的頭像 發表于 04-02 16:04 ?2048次閱讀
    <b class='flag-5'>RK3576</b> <b class='flag-5'>yolov</b>8<b class='flag-5'>訓練</b><b class='flag-5'>部署</b>教程

    RK3576 Yolov11訓練部署教程

    YOLO11 系列是 YOLO 家族中最先進的 (SOTA)、最輕量級、最高效的模型,其表現優于其前輩。它由 Ultralytics 創建,該組織發布了 YOLOv8,這是迄今為止最穩定、使用最廣泛的 YOLO 變體。YOLO11
    的頭像 發表于 04-03 09:35 ?2173次閱讀
    <b class='flag-5'>RK3576</b> <b class='flag-5'>Yolov11</b><b class='flag-5'>訓練</b><b class='flag-5'>部署</b>教程

    OrinNano yolov11訓練部署教程

    ORinNano yolov11訓練部署教程
    的頭像 發表于 04-10 15:26 ?2702次閱讀
    OrinNano  <b class='flag-5'>yolov11</b><b class='flag-5'>訓練</b><b class='flag-5'>部署</b>教程

    RK3576 yolo11-seg訓練部署教程

    1.yolov11-seg簡介yolov11-seg是YOLO(YouOnlyLookOnce)系列的最新成員,專為實時實例分割任務設計。它在保持YOLO家族高效推理速度的同時,通過創新的網絡結構
    的頭像 發表于 07-25 15:21 ?1998次閱讀
    <b class='flag-5'>RK3576</b> yolo<b class='flag-5'>11-seg</b><b class='flag-5'>訓練</b><b class='flag-5'>部署</b>教程

    RK3576 Yolov11訓練部署教程

    、使用最廣泛的YOLO變體。YOLO11將延續YOLO系列的傳奇。本教程針對目標檢測算法yolo11訓練部署到EASY-EAI-Orin-nano(
    的頭像 發表于 07-25 15:22 ?1199次閱讀
    <b class='flag-5'>RK3576</b> <b class='flag-5'>Yolov11</b><b class='flag-5'>訓練</b><b class='flag-5'>部署</b>教程

    基于瑞芯微RK3576yolov5訓練部署教程

    5 的網絡結構分為輸入端BackboneNeck、Head 四個部分。 本教程針對目標檢測算法yolov5的訓練部署到EASY-EAI-Orin-nano(RK3576)進行說明,而
    的頭像 發表于 09-11 16:43 ?3166次閱讀
    基于瑞芯微<b class='flag-5'>RK3576</b>的 <b class='flag-5'>yolov</b>5<b class='flag-5'>訓練</b><b class='flag-5'>部署</b>教程

    迅為如何在RK3576部署YOLOv5;基于RK3576構建智能門禁系統

    迅為如何在RK3576開發板上部署YOLOv5;基于RK3576構建智能門禁系統
    的頭像 發表于 11-25 14:06 ?1914次閱讀
    迅為如何在<b class='flag-5'>RK3576</b>上<b class='flag-5'>部署</b><b class='flag-5'>YOLOv</b>5;基于<b class='flag-5'>RK3576</b>構建智能門禁系統