国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

基于ST-GCN的人體動作識別與生成

電子工程師 ? 來源:DeepBlue深蘭科技 ? 作者:DeepBlue深蘭科技 ? 2021-03-15 09:50 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

ST-GCN: Spatial Temporal Graph Convolutional Networks時空圖卷積網絡,這個網絡結構來源于2018年發表的一篇文章《Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recognition》,也就是基于時空圖卷積網絡來做人體動作識別。 今天,我們就來了解下,如何基于ST-GCN來實現人體動作的識別與生成。

Why:為什么要使用ST-GCN?

ST-GCN網絡訓練好之后要達到的效果就是:用戶提供一段視頻,網絡會輸出視頻中人的動作分類。

類似于上圖中的視頻,如何來識別視頻中的人在做什么動作呢? 視頻其實就是一幀一幀的圖片拼接而成的,而傳統處理圖像識別的網絡最常用的就是CNN(卷積神經網絡),那ST-GCN是否跟CNN有關系呢?為什么要使用這個網絡呢?

可以從以下三點來理解:

(1) 輸入數據有量級的差別。舉個例子,數據為一段10秒左右的視頻,大概300幀,像素1920*1080,分別輸入兩個網絡中。傳統CNN是將所有視頻拆分為一幀一幀的圖片輸入網絡,而ST-GCN則直接輸入人體的骨架關節數據,CNN的輸入數據量約為ST-GCN的83000倍。

(2) 輸入數據純凈度高,噪聲少。CNN是將視頻數據直接輸入網絡,包括了視頻的背景以及圖片中的各種噪音,而ST-GCN是僅僅將人體骨架關節點的信息輸入網絡,只保留了主要的有效信息,噪聲低。

(3) 考慮了空間和時間上的相鄰關節,效果更好。ST-GCN不僅考慮了空間上的相鄰節點,也考慮了時間上的相鄰節點,將鄰域的概念擴展到了時間上,實驗效果表明精度也更高。

What:ST-GCN到底是什么?

ST-GCN是TCN與GCN的結合。TCN,對時間維度的數據進行卷積操作;GCN,則對空間維度的數據進行卷積操作。GCN屬于GNN,而GNN的基礎是圖論。神經網絡處理的傳統數據都是歐式距離結構的數據,比如二維的圖像、一維的聲音等等。而對于非歐式距離結構的數據,比如社交網絡、交通運輸網等等,傳統的網絡結構無法直接處理,而GNN就是用來處理這類型數據的。所以要了解ST-GCN,就要先從圖論的一些基本理論入手,然后再延伸到GNN、GCN、ST-GCN。

2.1 圖論

這里的圖并不是指我們日常所見的圖片,圖的廣泛概念包含具體的事物,以及事物之間的聯系。圖論中的圖由兩部分構成,即點和邊。

點:圖上具體的節點。

邊:連接圖上點和點之間的東西,邊分為有向邊和無向邊。

圖:節點V(G)和邊E(G)構成的集合就是圖,可以表示為:G = {V(G), E(G)}。圖可以簡單分為有向圖和無向圖(如下圖所示)。

2.2 GNN

GNN: Group Neural Network 圖神經網絡,即結合圖論與深度學習的網絡結構。目前主要包含:Graph Convolutional Networks (GCN)、Graph Attention Networks、Graph Auto-encoder、Graph Generative Networks、Graph Spatial-Temporal Networks。最初的GNN網絡,就是將點和邊的特征一起傳入網絡中學習。

2.3 GCN

GCN:Graph Convolutional Networks 圖卷積神經網絡,顧名思義,是將圖與卷積結合起來。根據卷積核的不同,主要分為spectral method(頻譜方法)和spatial method(空間方法)。二者的區別在于:頻譜方法基于拉普拉斯矩陣,與圖的關系緊密聯系,可泛化能力弱;空間方法則直接在圖上定義卷積,對有緊密關系的節點進行操作,分為點分類和圖分類。ST-GCN中的GCN屬于圖分類,且采用的是空間方法。

2.4 ST-GCN

ST-GCN:Spatial Temporal Graph Convolutional Networks時空圖卷積網絡,是在GCN的基礎上提出的。核心觀點是將TCN與GCN相結合,用來處理有時序關系的圖結構數據。網絡分為2個部分:GCN_Net與TCN_Net。

GCN_Net對輸入數據進行空間卷積,即不考慮時間的因素,卷積作用于同一時序的不同點的數據。TCN_Net對數據進行時序卷積,考慮不同時序同一特征點的關系,卷積作用于不同時序同一點的數據。

How:ST-GCN具體如何使用?

前部分講了ST-GCN是什么,那我們回歸到ST-GCN的具體應用上,首次提出ST-GCN是用來做人體動作識別,即通過一段視頻來判斷其中人的動作,也就是人體動作識別。

數據集:論文中使用的數據集為NTU-RGB+D,包含60種動作,共56880個樣本,其中有40類為日常行為動作,9類為與健康相關的動作,11類為雙人相互動作。數據集已經將視頻中的人體動作轉換為了骨架關節的數據,其中人體的骨架標注了25個節點,就是一種圖結構的數據。

NTU-RGB+D數據集的分類

亮點:

(1) 鄰接矩陣不采用傳統的方式,采用一種新的方式,將鄰接矩陣分為3個子集:根節點本身、向心力群,離心群。這一策略的靈感來自于身體部位的運動可以被廣泛地歸類為同心運動和偏心運動,通常距離重心越近,運動幅度越小,同時能更好地區分向心運動和離心運動。即下圖中的(d)。

(2) 網絡中加入可學習的邊的權重,即加入attention機制。每層網絡中鄰接矩陣A都與可學習的權重相乘,這些權重在反向傳播中更新。添加的原因是考慮到人體做不同的動作所側重的關節點不同,而且添加了注意力機制更有利于提高網絡的泛化能力。

整體效果:

使用ST-GCN的網絡結構進行人體動作識別,論文中在NTU-RGB+D數據集的x_sub模式下識別精度達到81.5%,NTU-RGB+D數據集的x-view模式下識別精度達到88.3%,優于傳統的人體動作識別網絡。

團隊工作亮點

ST-GCN的技術延展-動作生成

基于對ST-GCN在人體動作識別上的效果,我們將ST-GCN網絡與VAE網絡結合。目的在于獲取人體動作的語義,進而生成人體的動作,最終可以應用于機器人動作模仿或者其他強化學習項目中。

目前項目已在進行中,下圖展示的是真實的人體骨架節點3D圖與網絡生成的人體骨架節點3D圖。具體的研究結果,之后再跟大家分享,敬請期待。

責任編輯:lq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4838

    瀏覽量

    107756
  • 圖像識別
    +關注

    關注

    9

    文章

    533

    瀏覽量

    40055
  • 網絡結構
    +關注

    關注

    0

    文章

    48

    瀏覽量

    12378

原文標題:探究 | 一文了解基于ST-GCN的人體動作識別與生成

文章出處:【微信號:kmdian,微信公眾號:深蘭科技】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    【正點原子STM32N647開發板試用】--人體檢測模型體驗

    STM32N647芯片具有npu的,有0.6tops的算例,可以部署簡單模型, 本次實驗我們體驗的是人體識別模型,該模型來源于:STM32 Model Zoo 工程文件分三部分,我們在線debug其中的FSBL部分才行, 提示,這個
    發表于 02-21 19:44

    瑞芯微(EASY EAI)RV1126B 人體關鍵點識別

    1.人體關鍵點識別簡介人體關鍵點識別是一種基于深度學習的對人進行檢測定位與姿勢估計的模型,廣泛應用于體育分析、動物行為監測和機器人等領域,幫助機器實時解讀物理
    的頭像 發表于 01-23 10:13 ?2208次閱讀
    瑞芯微(EASY EAI)RV1126B <b class='flag-5'>人體</b>關鍵點<b class='flag-5'>識別</b>

    LAT1204+使用 NANOEDGE.AI 工具完成人體姿態識別應用

    NanoEdge? AI 庫是 Cartesiam 推出的人工智能靜態庫,它可以幫助客戶直接生成可以運行在嵌入式 Arm Cortex 處理器上的.a 靜態庫文件。2021 年 ST 收購
    發表于 01-11 17:21 ?0次下載

    基于AIK-RA8D1的人識別的應用演示

    與Aizip人臉識別技術結合,實現高效且低功耗的人識別應用。人臉識別的優勢傳統的密碼驗證方式存在很多缺點。首先,密碼容易泄露或被共享,可能導致未
    的頭像 發表于 12-02 14:29 ?5517次閱讀
    基于AIK-RA8D1<b class='flag-5'>的人</b>臉<b class='flag-5'>識別</b>的應用演示

    華中科技大學:研究面向水陸兩棲人體運動識別的柔性多維肌肉形變磁傳感陣列

    準確的人體運動識別對于控制可穿戴機器人及虛擬/增強現實等人機交互系統至關重要,而捕獲人體運動特征的可穿戴傳感設備是實現運動識別的基礎(作為運動識別
    的頭像 發表于 11-24 11:39 ?808次閱讀
    華中科技大學:研究面向水陸兩棲<b class='flag-5'>人體</b>運動<b class='flag-5'>識別</b>的柔性多維肌肉形變磁傳感陣列

    新品預告|能“看懂”靜止人體的雷達模組

    讀懂空間中的人。一、四大核心1.靜態檢測,人在即感知不僅能捕捉運動,更能識別微動、靜止、甚至睡眠中的人體;采用FMCW調頻連續波技術,更高的帶寬支持更高的分辨率,
    的頭像 發表于 10-20 17:11 ?1484次閱讀
    新品預告|能“看懂”靜止<b class='flag-5'>人體</b>的雷達模組

    ANSA人體模型姿態調整工具的使用案例

    中國體征人體數字模型(AC-HUMs)是中國汽研主持研發的人體有限元模型。BETA CAE Systems與中國汽研保持緊密合作,前、后處理軟件(ANSA/META)會全面支持AC-HUMs系列模型。在軟件中提供對應工具用于人體
    的頭像 發表于 09-28 15:44 ?1202次閱讀
    ANSA<b class='flag-5'>人體</b>模型姿態調整工具的使用案例

    ANSA人體模型姿態調整工具介紹

    ANSA的人體模型姿態調整工具(HBM Articulation Tool)通過網格變形技術實現基于人體不同部位進行調節,定位人體模型最終的姿態。
    的頭像 發表于 09-28 15:40 ?1246次閱讀
    ANSA<b class='flag-5'>人體</b>模型姿態調整工具介紹

    9米遠距離高精準度24G人體存在感知雷達模塊

    處理、精確人體感應算法,實現高靈敏度的人體存在狀態感應,可識別運動和靜止狀態下的人體,并可計算出目標的距離等輔助信息。02模塊優勢人體存在感
    的頭像 發表于 09-22 12:04 ?1064次閱讀
    9米遠距離高精準度24G<b class='flag-5'>人體</b>存在感知雷達模塊

    XenG202G | 揮手手勢識別參考設計(三維)

    WEMAKERFSMART-賦予萬物感知的靈魂-矽典微ICLEGENDMICROXenG202G揮手手勢識別(三維)毫米波傳感器特征手勢識別:非接觸式控制,高精度手勢動作識別,支持方向
    的頭像 發表于 08-29 08:25 ?646次閱讀
    XenG202G | 揮手手勢<b class='flag-5'>識別</b>參考設計(三維)

    瑞芯微RK3576人體關鍵點識別算法(骨骼點)

    人體關鍵點識別是一種基于深度學習的對人進行檢測定位與姿勢估計的模型,廣泛應用于體育分析、動物行為監測和機器人等領域,幫助機器實時解讀物理動作。本算法具有運行效率高、實時性強的特點。
    的頭像 發表于 08-27 10:07 ?1008次閱讀
    瑞芯微RK3576<b class='flag-5'>人體</b>關鍵點<b class='flag-5'>識別</b>算法(骨骼點)

    【開發實例】基于BPI-CanMV-K230D-Zero開發板實現人體關鍵點的實時動態識別

    本文介紹了香蕉派CanMVK230DZero開發板通過攝像頭實現人體關鍵點的實時動態檢測識別的項目設計。https://bbs.elecfans.com/jishu_2493481_1_1.html
    的頭像 發表于 07-08 08:04 ?1337次閱讀
    【開發實例】基于BPI-CanMV-K230D-Zero開發板實現<b class='flag-5'>人體</b>關鍵點的實時動態<b class='flag-5'>識別</b>

    選擇戶外場景的人識別門禁一體機,需要具備哪些條件?

    我們常用于企業打卡或單位校園門禁的人識別身份核驗終端、刷臉核驗一體機、人臉識別門禁考勤機或人臉識別門禁一體機通常都是用于室內。但其實用于戶外場景的身份證人臉
    的頭像 發表于 06-09 10:26 ?1005次閱讀
    選擇戶外場景<b class='flag-5'>的人</b>臉<b class='flag-5'>識別</b>門禁一體機,需要具備哪些條件?

    ?Diffusion生成動作引擎技術解析

    Diffusion生成動作引擎 Diffusion生成動作引擎是一種基于擴散模型(Diffusion Models)的生成式人工智能技術
    的頭像 發表于 03-17 15:14 ?3044次閱讀

    怎樣才能使用NUCLEO-H563ZI 識別ST-LINK ?

    NUCLEO-H563ZI開發板在接上USB后,ST-LINK 在設備管理器里面沒有顯示,需要對STLKRST,就是跳線JP3 后拔掉,這是可以識別ST-LINK,然而,用MDK 時,提示
    發表于 03-14 13:59