国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

瑞芯微RK3576人體關鍵點識別算法(骨骼點)

廣州靈眸科技有限公司 ? 2025-08-27 10:07 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1.人體關鍵點識別簡介

人體關鍵點識別是一種基于深度學習的對人進行檢測定位與姿勢估計的模型,廣泛應用于體育分析、動物行為監測和機器人等領域,幫助機器實時解讀物理動作。本算法具有運行效率高、實時性強的特點。

本人員檢測算法在數據集表現如下所示:

人體關鍵點識別算法mAP pose@0.5
Person Pose-S86.3
Person Pose-M89.3

基于EASY-EAI-Orin-Nano(RK3576)硬件主板的運行效率:

算法種類運行效率
Person Pose-S53ms
Person Pose-M93ms

17個人體關鍵點索引定義:

索引定義
0鼻子
1左眼
2右眼
3左耳
4右耳
5左肩
6右肩
7左肘
8右肘
9左腕
10右腕
11左髖關節
12右髖關節
13左膝
14右膝
15左腳踝
16右腳踝

2.快速上手

如果您初次閱讀此文檔,請閱讀:《入門指南/源碼管理及編程介紹/源碼工程管理》,按需管理自己工程源碼(注:此文檔必看,并建議采用【遠程掛載管理】方式,否則有代碼丟失風險!!!)

2.1開源碼工程下載

先在PC虛擬機定位到nfs服務目錄,再在目錄中創建存放源碼倉庫的管理目錄:

cd ~/nfsroot mkdir GitHub cd GitHub

再通過git工具,在管理目錄內克隆遠程倉庫(需要設備能對外網進行訪問)

git clone https://github.com/EASY-EAI/EASY-EAI-Toolkit-3576.git

wKgZO2ie21qAX1F1AAThXkdBXf4444.png

注:

* 此處可能會因網絡原因造成卡頓,請耐心等待。

* 如果實在要在gitHub網頁上下載,也要把整個倉庫下載下來,不能單獨下載本實例對應的目錄。

2.2開發環境搭建

通過adb shell進入板卡開發環境,如下圖所示。

wKgZPGie23iAAjukAASksyxe3Mo794.png

通過以下命令,把nfs目錄掛載上nfs服務器。

mount -t nfs -o nolock : /home/orin-nano/Desktop/nfs/

wKgZPGie26OAe4rXAANSYXB8WZg622.png

2.3例程編譯

然后定位到板卡的nfs的掛載目錄(按照實際掛載目錄),進入到對應的例程目錄執行編譯操作,具體命令如下所示:

cd EASY-EAI-Toolkit-3576/Demos/algorithm-person_pose/ ./build.sh

wKgZO2iuZa-ATRTEAAdJRnzdM6w083.png

2.4模型部署

要完成算法Demo的執行,需要先下載人體關鍵點識別算法模型。

百度網盤鏈接為:https://pan.baidu.com/s/1ln9kclhgl6JqXtOzS3y5PQ?pwd=1234(提取碼:1234)。

wKgZPGiuZcGAPKKcAASks-zU0ZI206.png

同時需要把下載的人體關鍵點識別算法模型復制粘貼到Release/目錄:

wKgZO2iuZdGAO5NpAAkMUY4UCJ0255.png

2.5例程運行及效果

進入開發板Release目錄,執行下方命令,運行示例程序:

cd Release/ ./test-person_pose person_pose_m.model test.jpg

運行例程命令如下所示:

wKgZO2iuZfeAM7CFAAHVjsivpAs751.png

結果圖片如下所示:

wKgZO2iuZgaANmrVAApEnAIcuFo367.png

API的詳細說明,以及API的調用(本例程源碼),詳細信息見下方說明。

3.人體關鍵點檢測API說明

  1. 引用方式

為方便客戶在本地工程中直接調用我們的EASY EAIapi庫,此處列出工程中需要鏈接的庫以及頭文件等,方便用戶直接添加。

選項

描述

頭文件目錄easyeai-api/algorithm/person_pose
庫文件目錄easyeai-api/algorithm/person_pose
庫鏈接參數-lperson_pose

3.1人體關鍵點識別初始化函數

人體關鍵點識別初始化函數原型如下所示。

int person_pose_init(const char *c, person_pose_context_t *p_person_pose, int cls_num)

具體介紹如下所示。

函數名:person_pose_init()
頭文件person_pose.h
輸入參數p_model_path:算法模型的路
輸入參數p_person_pose:算法的句柄
輸入參數cls_num:類別數
返回值成功返回:0
失敗返回:-1
注意事項

3.2人體關鍵點識別運行函數

人體關鍵點識別運行函數person_pose_run原型如下所示。

std::vector person_pose_run(cv::Mat image, person_pose_context_t *p_person_pose, float nms_threshold, float conf_threshold);

具體介紹如下所示。

函數名:person_pose_run()
頭文件person_pose.h
輸入參數image:圖像數據輸入(cv::Mat是Opencv的類型)
輸入參數p_person_pose:算法的句柄
輸入參數nms_threshold:NMS閾值
輸入參數conf_threshold:置信度閾值
返回值std::vector:person pose檢測結果
注意事項

3.3人體關鍵點識別釋放函數

人體關鍵點識別釋放函數原型如下所示。

int person_pose_release(person_pose_context_t* p_person_pose)

具體介紹如下所示。

函數名:person_pose_release()
頭文件person_pose.h
輸入參數p_person_pose:算法句柄
返回值成功返回:0
失敗返回:-1
注意事項

4.人體關鍵識別算法例程

例程目錄為Demos/algorithm-person_pose/test-person_pose.cpp,操作流程如下。

wKgZPGiuZn-AU1JfAATXhWo__pE989.png

參考例程如下所示。

#include #include #include #include #include "person_pose.h" #include // 畫線 cv::Mat draw_line(cv::Mat image, float *key1, float *key2, cv::Scalar color) { if (key1[2] > 0.1 && key2[2] > 0.1) { cv::Point pt1(key1[0], key1[1]); cv::Point pt2(key2[0], key2[1]); cv::circle(image, pt1, 2, color, 2); cv::circle(image, pt2, 2, color, 2); cv::line(image, pt1, pt2, color, 2); } return image; } // 繪制結果: // 0鼻子, 1左眼, 2右眼,3左耳,4右耳,5左肩,6右肩,7左肘,8右肘,9左腕,10右腕,11左髖關節,12右髖關節,13左膝,14右膝,15左腳踝,16右腳踝 cv::Mat draw_image(cv::Mat image, std::vector results) { long unsigned int i =0; for (i = 0; i < results.size(); i++) { // 繪制臉部 image = draw_line(image, results[i].keypoints[0], results[i].keypoints[1], CV_RGB(0, 255, 0)); image = draw_line(image, results[i].keypoints[0], results[i].keypoints[2], CV_RGB(0, 255, 0)); image = draw_line(image, results[i].keypoints[1], results[i].keypoints[3], CV_RGB(0, 255, 0)); image = draw_line(image, results[i].keypoints[2], results[i].keypoints[4], CV_RGB(0, 255, 0)); image = draw_line(image, results[i].keypoints[3], results[i].keypoints[5], CV_RGB(0, 255, 0)); image = draw_line(image, results[i].keypoints[4], results[i].keypoints[6], CV_RGB(0, 255, 0)); // 繪制上半身 image = draw_line(image, results[i].keypoints[5], results[i].keypoints[6], CV_RGB(0, 0, 255)); image = draw_line(image, results[i].keypoints[5], results[i].keypoints[7], CV_RGB(0, 0, 255)); image = draw_line(image, results[i].keypoints[7], results[i].keypoints[9], CV_RGB(0, 0, 255)); image = draw_line(image, results[i].keypoints[6], results[i].keypoints[8], CV_RGB(0, 0, 255)); image = draw_line(image, results[i].keypoints[8], results[i].keypoints[10], CV_RGB(0, 0, 255)); image = draw_line(image, results[i].keypoints[5], results[i].keypoints[11], CV_RGB(0, 0, 255)); image = draw_line(image, results[i].keypoints[6], results[i].keypoints[12], CV_RGB(0, 0, 255)); image = draw_line(image, results[i].keypoints[11], results[i].keypoints[12], CV_RGB(0, 0, 255)); // 繪制下半身 image = draw_line(image, results[i].keypoints[11], results[i].keypoints[13], CV_RGB(255, 255, 0)); image = draw_line(image, results[i].keypoints[13], results[i].keypoints[15], CV_RGB(255, 255, 0)); image = draw_line(image, results[i].keypoints[12], results[i].keypoints[14], CV_RGB(255, 255, 0)); image = draw_line(image, results[i].keypoints[14], results[i].keypoints[16], CV_RGB(255, 255, 0)); cv::Rect rect(results[i].left, results[i].top, (results[i].right - results[i].left), (results[i].bottom - results[i].top)); cv::rectangle(image, rect, CV_RGB(255, 0, 0), 2); } return image; } /// 主函數 int main(int argc, char **argv) { if (argc != 3) { printf("%s \n", argv[0]); return -1; } const char *p_model_path = argv[1]; const char *p_img_path = argv[2]; printf("Model path = %s, image path = %s\n\n", p_model_path, p_img_path); cv::Mat image = cv::imread(p_img_path); printf("Image size = (%d, %d)\n", image.rows, image.cols); int ret; person_pose_context_t yolo11_pose; memset(&yolo11_pose, 0, sizeof(yolo11_pose)); person_pose_init(p_model_path, &yolo11_pose, 1); double start_time = static_cast(cv::getTickCount()); std::vector results = person_pose_run(image, &yolo11_pose, 0.35, 0.35); double end_time = static_cast(cv::getTickCount()); double time_elapsed = (end_time - start_time) / cv::getTickFrequency() * 1000; std::cout << "person pose run time: " << time_elapsed << " ms" << std::endl; // 繪制結果 image = draw_image(image, results); cv::imwrite("result.jpg", image); printf("Detect size = %ld\n", results.size()); ret = person_pose_release(&yolo11_pose); return ret; }

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 算法
    +關注

    關注

    23

    文章

    4764

    瀏覽量

    97310
  • 人工智能
    +關注

    關注

    1813

    文章

    49806

    瀏覽量

    262195
  • rk3576
    +關注

    關注

    1

    文章

    230

    瀏覽量

    1395
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    基于RK3576開發板的人臉識別算法

    RK3576開發板展示人臉識別算法例程和API說明
    的頭像 發表于 05-07 16:48 ?2515次閱讀
    基于<b class='flag-5'>RK3576</b>開發板的人臉<b class='flag-5'>識別</b><b class='flag-5'>算法</b>

    RK3588與RK3576技術參數詳解

    保持高速增長,特別在汽車電子、工業應用、機器視覺及各類機器等重點領域持續擴張。RK3588和RK3576
    的頭像 發表于 09-23 08:20 ?7988次閱讀
    <b class='flag-5'>瑞</b><b class='flag-5'>芯</b><b class='flag-5'>微</b><b class='flag-5'>RK</b>3588與<b class='flag-5'>RK3576</b>技術參數詳解

    米爾RK3576實測輕松搞定三屏八攝像頭

    RK3576參數強勁RK3576推出的一款高性能AIoT處理器,這款芯片以其卓越的計算能力、多屏幕支持、強大的視頻編解碼能力和高效的
    發表于 01-17 11:33

    國產開發板的端側AI測評-基于米爾RK3576

    ,國產自主可控必須搞起來。那與非網本期內容就跟自主可控強關聯——評測一款基于國產SoC的板卡,由米爾電子推出的RK3576開發板(MYD-LR
    發表于 02-14 16:29

    適配多種系統,米爾RK3576核心板解鎖多樣化應用

    米爾電子發布的基于 RK3576 核心板和開發板,具備高性能數據處理能力、領先的AI智能分析功能、多樣化的顯示與操作體驗以及強大的擴展性與兼容性,適用于多種應用場景。目前米爾電子
    發表于 05-23 16:07

    Onenet云網關方案應用--基于米爾RK3576開發板

    -------------------------------------------------------------------------------------------------- 板卡說明: MYC-LR3576 核心板是基于
    發表于 06-06 16:54

    單板挑戰4路YOLOv8!米爾RK3576開發板性能實測

    道路和車輛形狀。 -posePose關鍵點檢測邊界框+人體關鍵(17個)檢測人體
    發表于 09-12 17:52

    RK3576機器核心:三屏異顯+八路攝像頭,重塑機器交互與感知

    RK3576 AIoT處理器處理器憑借其卓越的多屏異顯與8路攝像頭接入能力,為機器領域帶來革新。米爾電子MYD-LR
    發表于 10-29 16:41

    如何精準驅動菜品識別模型--基于米爾RK3576邊緣計算盒

    置的強勁RK3576芯片,為視覺識別模型提供了充沛的本地AI算力,成功將“智慧識菜”的能力濃縮于方寸之間,充分證明了其作為邊緣AI應用
    發表于 10-31 21:19

    怎樣使用Rock-X SDK對人體骨骼關鍵進行開發獲取呢

    主要功能本篇是使用Rock-X SDK進行獲取人體骨骼關鍵快速開發的過程,使用自定義或其它的模型的請使用rknn-toolkit和rk
    發表于 06-29 15:19

    RK3576|觸覺智能:開啟科技新篇章

    ,創新不止步!”——全新芯片RK3576即將震撼登場。指引科技風潮,創造未來無限可能!這款芯片在
    的頭像 發表于 03-21 08:31 ?2050次閱讀
    <b class='flag-5'>瑞</b><b class='flag-5'>芯</b><b class='flag-5'>微</b><b class='flag-5'>RK3576</b>|觸覺智能:開啟科技新篇章

    有獎丨米爾 RK3576開發板免費試用

    米爾與合作發布的新品基于RK3576應用
    的頭像 發表于 11-12 01:00 ?1291次閱讀
    有獎丨米爾 <b class='flag-5'>瑞</b><b class='flag-5'>芯</b><b class='flag-5'>微</b><b class='flag-5'>RK3576</b>開發板免費試用

    追加名額丨米爾RK3576開發板有獎試用

    米爾與合作發布的新品基于RK3576應用
    的頭像 發表于 11-22 01:00 ?1071次閱讀
    追加名額丨米爾<b class='flag-5'>瑞</b><b class='flag-5'>芯</b><b class='flag-5'>微</b><b class='flag-5'>RK3576</b>開發板有獎試用

    RK3576主板YNH-536-規格書

    RK3576主板YNH-536-V1
    發表于 05-19 09:51 ?4次下載

    RK3576RK3576S有什么區別,性能參數配置與型號差異解析

    第二代8nm高性能AIOT平臺RK3576家族再添新成員-RK3576S,先說結論:相較主型號的R
    的頭像 發表于 08-14 23:57 ?1905次閱讀
    <b class='flag-5'>瑞</b><b class='flag-5'>芯</b><b class='flag-5'>微</b><b class='flag-5'>RK3576</b>與<b class='flag-5'>RK3576</b>S有什么區別,性能參數配置與型號差異解析