国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

基于TensorFlow Lite的幾項技術更新

Tensorflowers ? 來源:TensorFlow ? 作者:Yu-hui Chen ? 2021-09-23 15:38 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

自年初在 Google I/O 大會上宣布推出 MoveNet 以來,我們已經收到了眾多積極反饋和功能請求。今天,我們很高興能與大家分享以下幾項技術更新:

MoveNet 的 TensorFlow Lite 版本現已在 TensorFlow Hub 上推出。我們對該版本進行了一些可提升準確率的更新,并使其與硬件加速器兼容,其中包括 GPU 和獲得 Android NN API 支持的其他加速器。

TensorFlow Hub

http://hub.tensorflow.google.cn/s?deployment-format=lite&q=movenet

我們發布了可在 Android 環境下使用 Raspberry Pi 的全新姿態預測示例,可讓您在移動設備和 IoT 設備上試用 MoveNet。(即將支持 iOS 系統)

Android

https://github.com/tensorflow/examples/tree/master/lite/examples/pose_estimation/android

Raspberry Pi

https://github.com/tensorflow/examples/tree/master/lite/examples/pose_estimation/raspberry_pi

同時,我們還發布了 Colab notebook,旨在教會您如何利用 MoveNet 對自定義姿勢進行分類(例如,識別不同的瑜伽姿勢)。您可以在上文提到的 Android、iOS 和 Raspberry Pi 應用中試用姿態分類。

notebook

https://tensorflow.google.cn/lite/tutorials/pose_classification

什么是姿態預測?

姿態預測是一項機器學習任務,即通過預測圖像或視頻中特定身體部位(關鍵點)的空間位置來預測人物姿態。MoveNet 是目前最先進的姿態預測模型,能夠檢測以下 17 個關鍵點:

鼻子

左眼和右眼

左耳和右耳

左肩和右肩

左肘和右肘

左腕和右腕

左臀和右臀

左膝和右膝

左腳踝和右腳踝

我們發布了以下兩個 MoveNet 版本:

MoveNet.Lightning 模型體積更小、速度更快,但在準確性方面不如 Thunder 模型。該模型能在現代智能手機上實時運行。

MoveNet.Lightning

http://hub.tensorflow.google.cn/google/movenet/singlepose/lightning/

MoveNet.Thunder 模型準確性更高,但體積較 Lightning 模型而言更大,速度也相對較慢。

MoveNet.Thunder

http://hub.tensorflow.google.cn/google/movenet/singlepose/thunder/

各種基準數據集(參見下文表中的評估/基準結果)中的數據表明,MoveNet 模型的表現優于我們先前的 TensorFlow Lite 姿態預測模型 Posenet(論文、文章和模型)。

論文

https://arxiv.org/abs/1803.08225

文章

https://medium.com/tensorflow/track-human-poses-in-real-time-on-android-with-tensorflow-lite-e66d0f3e6f9e

模型

https://storage.googleapis.com/download.tensorflow.org/models/tflite/posenet_mobilenet_v1_100_257x257_multi_kpt_stripped.tflite

以上 MoveNet 模型支持 TensorFlow Lite FP16 和 INT8 量化格式,可最大限度與硬件加速器兼容。

此次 MoveNet 版本可識別輸入圖像中的單一姿態。如果圖像中的人數超過一個,該模型會通過剪裁算法將盡可能地聚焦在離圖像中心最近的人物身上。同時,我們還采用了智能剪裁算法,來提高視頻檢測的準確率。簡而言之,該模型將放大前一幀中檢測到姿態的區域,繼而查看更細節的部分,然后根據當前幀做出更準確的預測。

如果您想深入了解 MoveNet 的實現過程,請查看之前發布的文章,其中包括 MoveNet 模型架構和其訓練時用到的數據集。

Android 與 Raspberry Pi

的示例應用

我們發布了全新的姿態預測示例應用,便于您在所選平臺上快速試用不同的姿態預測模型(MoveNet Lightning、MoveNet Thunder 和 Posenet)。

Android 示例

iOS 示例

Raspberry Pi 示例

在 Android 和 iOS 示例中,您也可以選擇使用加速器(GPU、NNAPI 或 CoreML)來運行姿態預測模型。

Android 示例應用屏幕截圖。圖像來自 Pixabay

MoveNet 性能

我們已對 MoveNet 進行優化,使其能在由 TensorFlow Lite 提供支持的硬件加速器(包括 GPU 和獲得 Android NN API 支持的加速器)上更好地運行。MoveNet 的性能基準結果可助您選擇最適合您用例的運行時配置。

模型大小 (MB)mAP*延遲時間 (ms) **

Pixel 5 -

CPU 4 線程Pixel 5 - GPURaspberry Pi 4 -

CPU 4 線程

MoveNet.

Thunder

(FP16 量化)12.6MB72.0155ms45ms594ms

MoveNet.

Thunder

(INT8 量化)7.1MB68.9100ms52ms251ms

MoveNet.

Lightning

(FP16 量化)4.8MB63.060ms25ms186ms

MoveNet.

Lightning

(INT8 量化)2.9MB57.452ms28ms95ms

PoseNet(MobileNetV1

主干,FP32)13.3MB45.680ms40ms338ms

* 我們在 COCO 關鍵點數據集的子集上測量 mAP,并在其中篩選并裁剪每張圖像,使其只包含一個人像。

** 在持續負載下,我們使用帶有 TensorFlow 2.5 的 Android 和 Raspberry Pi 示例應用測量端到端的延遲時間。

選擇 Lightning 或 Thunder 模型。首先,您應該了解 Lightning 模型的準確率能否滿足您的用例。

對于您的用例而言,如果 Lightning INT8 模型的準確率足夠高,則可以選擇該模型,因為它是系列模型中體積最小、速度最快的模型。模型的越快則意味著其能耗越少。

如果準確率對于您的用例而言至關重要,Thunder FP16 模型則是理想之選。

選擇加速器。加速器的性能會因不同的制造商制造的 Android 設備而異。

CPU 是最為安全便捷的選擇,因為可以肯定的是,CPU 幾乎可以在任何能運行 TensorFlow Lite 的 Android 設備上正常工作。但在通常情況下,相較于在加速器上運行模型,在 CPU 運行模型時速度更慢,且耗能更高。所有 MoveNet 模型都能在 CPU 上運行良好,因此您應該根據自身的準確率需求選擇模型。

GPU 是應用最廣泛的加速器,能夠提供出色的性能提升。如果您想使用 GPU,FP16 量化模型則是理想之選。

Android NNAPI 是一種能在 Android 設備上支持其他 ML 加速器的便捷方式。如果您已經將 CPU 或 GPU 用于其他工作負載,并且用戶設備運行版本為 Android 10 或更高版本,則您可以選擇滿足您準確率需求的模型,并讓 NNAPI 選擇最適合您模型的路徑。

如果您是 IoT 開發者,不妨使用 Coral 來提升推理速度。請在此處查看 Coral 基準數據。

此處

https://coral.ai/models/pose-estimation/

對模型進行無線部署,而非將其捆綁在應用的二進制文件中。

由于 Android 生態系統的多元化,我們無法提供適用于所有用戶的統一模型。對于使用低端設備的用戶而言,Lightning INT8 模型是最佳選擇,因為該模型速度最快,且能耗最少。然而對于使用高端設備的用戶而言,不妨憑借 Thunder FP16 模型提供更為出色的性能。如果您想根據用戶設備更改模型,則可以考慮使用免費版Firebase ML 托管您的模型,而非將所有打算使用的模型捆綁到應用中。如果用戶開始使用需要 TFLite 模型的應用功能,則您可以編寫邏輯,為每個用戶設備下載最佳模型。

Firebase ML

https://firebase.google.com/docs/ml/manage-hosted-models

姿態分類

TensorBoard 是 TensorFlow 的可視化工具包。通過將 TensorFlow Quantum 模型與 TensorBoard 進行集成,您將獲得許多開箱可用的模型可視化數據,例如訓練損失和準確性、可視化模型圖和程序分析。

為簡化姿態分類流程,我們還發布了 Colab notebook,該工具能夠教您如何通過結合 MoveNet 和 TensorFlow Lite,并根據自定義姿態數據集來訓練自定義姿態分類模型。這表示如果您想要識別瑜伽姿勢,您需要做的就是收集您想識別的姿態圖像并為其添加標簽,然后按照教程進行訓練,接著將瑜伽姿勢分類器部署到您的應用中。

姿態分類器由兩個階段構成:

1. 利用 MoveNet 檢測輸入圖像中的關鍵點。

2. 利用小型 TensorFlow Lite 模型,對已檢測到的關鍵點進行姿態分類。

利用 MoveNet 進行姿態分類的示例。輸入圖像來自 Pixabay

為訓練自定義姿態分類器,您需要準備姿態圖像,并將它們放入下圖所示的文件夾結構中。您可以根據想要識別的類別為每個子文件夾命名。然后運行 notebook 來訓練自定義姿態分類器,并將其轉換為 TensorFlow Lite 格式。

yoga_poses

|__ downdog

|______ 00000128.jpg

|______ 00000181.bmp

|______ 。..

|__ goddess

|______ 00000243.jpg

|______ 00000306.jpg

|______ 。..

。..

TensorFlow Lite 姿態分類模型非常小,其大小只有 30KB 左右。該模型從 MoveNet 中獲取標記點輸出,使姿態坐標標準化,并將坐標傳遞至幾個完全連接的層中。模型的輸出是一個概率列表,即姿態為每個已知的姿態類別。

TensorFlow Lite 姿態分類模型概覽

您可以在任何已發布的 Android 或 Raspberry Pi 姿態預測示例應用中試用姿態分類模型。

Android

https://github.com/tensorflow/examples/tree/master/lite/examples/pose_estimation/android

Raspberry Pi

https://github.com/tensorflow/examples/tree/master/lite/examples/pose_estimation/raspberry_pi#run-the-pose-classification-sample

未來計劃

我們的目標是提供核心的姿態預測技術以及動作識別引擎,讓開發者在此基礎上構建創新性應用。以下是我們目前正在積極研究的一些方向:

對 MoveNet 當前版本做出改進,使其能在同一轉接路徑中檢測多種姿態。

研發新型動作識別技術,使其能在多個幀上檢測姿態。

責任編輯:haq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 模型
    +關注

    關注

    1

    文章

    3751

    瀏覽量

    52099
  • tensorflow
    +關注

    關注

    13

    文章

    334

    瀏覽量

    62176
  • TensorFlow Lite
    +關注

    關注

    0

    文章

    26

    瀏覽量

    828

原文標題:MoveNet 技術更新|基于 TensorFlow Lite 的姿態模型預測及分類

文章出處:【微信號:tensorflowers,微信公眾號:Tensorflowers】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    使用NORDIC AI的好處

    提升能效,適合音頻、圖像和高采樣率傳感器等更重的 AI 負載。[Axon NPU 技術頁] 模型更小、更快、更省電 Neuton 模型相較 TensorFlow Lite:* 內存占用可小 10
    發表于 01-31 23:16

    如何在TensorFlow Lite Micro中添加自定義操作符(1)

    相信大家在部署嵌入式端的AI應用時,一定使用過TensorFlow Lite Micro,以下簡稱TFLm。TFLm 是專為微控制器和嵌入式設備設計的輕量級機器學習推理框架,它通過模塊化的操作符系統
    的頭像 發表于 12-26 10:34 ?5309次閱讀

    AURIX? Audio Application Kit for AURIX? lite Kit V2 深度解析

    AURIX? Audio Application Kit for AURIX? lite Kit V2 深度解析 在音頻技術不斷發展的今天,一款功能強大且靈活的音頻應用套件對于電子工程師來說至關重要
    的頭像 發表于 12-20 20:35 ?1199次閱讀

    基于RT-Thread的RPMsg-Lite異構多核通信原理分析 | 技術集結

    目錄說明初識rpmsg-literpmsg-lite組件優勢rpmsg-lite工程架構rpmsg-lite通信流程(RTOS)rpmsg-lite通信流程(MCMGR)1說明本文檔旨
    的頭像 發表于 12-19 17:16 ?8106次閱讀
    基于RT-Thread的RPMsg-<b class='flag-5'>Lite</b>異構多核通信原理分析 | <b class='flag-5'>技術</b>集結

    Molex 5G/LTE Lite天線技術解析與應用指南

    Molex 5G和LTE天線Lite配有SMA公頭連接器,長度為120.70mm。Molex天線的凈重量為12.920g。該天線具有 線性極化和全向輻射模式。
    的頭像 發表于 11-20 11:36 ?852次閱讀

    【上海晶珩睿莓1開發板試用體驗】將TensorFlow-Lite物體歸類(classify)的輸出圖片移植到LVGL9.3界面中

    既然調通了TensorFlow-Lite物體歸類(classify)和LVGL9.3代碼,那么把這兩個東西結合起來也是沒問題的,需要注意的是,TensorFlow-Lite是C++代碼,而
    發表于 09-21 00:39

    【上海晶珩睿莓1開發板試用體驗】TensorFlow-Lite物體歸類(classify)

    目前尚未得知睿莓1開發板上面有NPU或者DPU之類的額外處理器,因此使用樹莓派系列使用最廣泛的TensorFlow-Lite庫進行物體歸類,使用CPU運行代碼,因此占用的是CPU的算力。在
    發表于 09-12 22:43

    技術洞見:THEIA S1 &amp; S1 LITE 直播機實操效果真的棒!

    LITE 面市,將推動專業直播設備市場格局的重構: 挑戰傳統: 傳統設備廠商的繁復直播方案將直面其強大挑戰。 技術平權: 自媒體和內容創作者首次能夠真正獲得集輕便與專業于一身的制作工具,專業直播的門檻被
    發表于 08-25 15:39

    【Milk-V Duo S 開發板免費體驗】開箱、介紹、系統更新

    地為張量處理單元核心提供高帶寬數據流。 為用戶提供了強大的深度學習模型編譯器和軟件 SDK 開發套件。 Caffe、Pytorch、ONNX、MXNet、TensorFlowLite)等主流深度學習
    發表于 06-28 09:18

    無法將Tensorflow Lite模型轉換為OpenVINO?格式怎么處理?

    Tensorflow Lite 模型轉換為 OpenVINO? 格式。 遇到的錯誤: FrontEnd API failed with OpConversionFailure:No translator found for TFLite_Detection_PostP
    發表于 06-25 08:27

    客戶說 為什么我們淘汰了某某某網關選擇深控技術? ——某跨國食品集團數字化轉型負責人訪談實錄

    深控技術憑借其成熟的維護成本直降68%的奧秘成本對比數據表和無限可能的協議兼容性實測,解決某乳品產線的“七年之癢”,讓企業從束手束腳到“無限可能”。此外,深控技術的邊緣處理能力也遠超某某品牌,支持TensorFlow
    的頭像 發表于 04-21 14:39 ?411次閱讀
    客戶說 為什么我們淘汰了某某某網關選擇深控<b class='flag-5'>技術</b>? ——某跨國食品集團數字化轉型負責人訪談實錄

    FlexBuild構建Debian 12,在“tflite_ethosu_delegate”上構建失敗了怎么解決?

    /workspace/tn_debian_FlexBuild 構建/components_lsdk2412/apps/ml/tflite/tensorflow/lite/tools/cmake
    發表于 04-01 06:53

    用樹莓派搞深度學習?TensorFlow啟動!

    介紹本頁面將指導您在搭載64位Bullseye操作系統的RaspberryPi4上安裝TensorFlow。TensorFlow是一個專為深度學習開發的大型軟件庫,它消耗大量資源。您可以在
    的頭像 發表于 03-25 09:33 ?1206次閱讀
    用樹莓派搞深度學習?<b class='flag-5'>TensorFlow</b>啟動!

    使用OpenVINO? 2020.4.582將自定義TensorFlow 2模型轉換為中間表示 (IR)收到錯誤怎么解決?

    轉換自定義 TensorFlow 2 模型 mask_rcnn_inception_resnet_v2_1024x1024_coco17 要 IR 使用模型優化器命令: 注意上面的鏈接可能無法
    發表于 03-07 07:28

    可以使用OpenVINO?工具包將中間表示 (IR) 模型轉換為TensorFlow格式嗎?

    無法將中間表示 (IR) 模型轉換為 TensorFlow* 格式
    發表于 03-06 06:51