国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

如何在基于Arm架構的邊緣AI設備上部署飛槳模型

Arm社區 ? 來源:Arm社區 ? 2025-09-06 14:07 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Arm 與領先的開源深度學習平臺強強聯合,會帶來什么?那就是推動創新的“火箭燃料”。Arm 攜手百度,利用雙方在高能效計算平臺與 AI 模型的技術積累,助力廣大開發者加快邊緣 AI 解決方案的開發和部署。

為了加速邊緣 AI 的創新,并將機器學習能力高效地應用于嵌入式設備,Arm 與百度緊密合作,在Arm Ethos-U85上成功實現了涵蓋圖像分類、目標檢測、人臉檢測、姿勢檢測、圖像分割以及光學字符識別應用場景的經典 PaddleLite 視覺模型的流暢部署。

Arm-Examples 的 GitHub 公共倉庫中已提供涵蓋上述六個典型應用場景的完整開發環境。本文將重點說明將 OCR 場景中的識別模型部署在 Ethos-U85 處理器上的工作流程,以及部署其他模型時的一些注意事項。如需詳細了解其他案例的技術細節,請參考倉庫中對應模型的部署指南。

代碼倉庫(即將上線):https://github.com/Arm-Examples/Paddle-on-Ethos-U

如果你還想了解更多有關模型部署的技術細節,那下周WAVE SUMMIT 深度學習開發者大會 2025上的這場 Arm 技術分享可絕對不能錯過!快來 Mark 住以下議程!

基于 Armv9 邊緣 AI 計算平臺,實現 ML 模型高性能部署

9 月 9 日 13:30 - 13:45

北京望京凱悅酒店

硬件論壇 · 軟硬協同 模力無限

邊緣側的人工智能 (AI) 數據處理工作負載正在不斷改變應用場景和用戶體驗。Ethos-U85正是為了滿足未來邊緣 AI 應用的需求而設計。為了加快芯片開發周期并簡化流程,Arm 提供了包括 Arm Corstone-320 物聯網參考設計平臺[1]在內的一整套參考設計。本篇技術博客的案例代碼正是在 Corstone-320 的固定虛擬平臺[2]上進行測試。

開始之前,需要確保你的運行環境的軟件配置滿足以下條件:

Python 3.9 版本

Cmake 3.21 或 3.22 版本

可以創建虛擬環境的工具,例如:venv(本文使用)、Anaconda 等

測試系統環境為 ubuntu 20.04 或 22.04

步驟 1:創建虛擬運行環境,用于模型的訓練或部署

# create virtual environment
python3.9 -m venv ppocr_rec
source ppocr_rec/bin/activate

注意:代碼倉庫中部分其他模型由于存在模型微調步驟,其模型訓練和部署環境可能有差異,請參考代碼倉庫內部署指南。

步驟 2:從 GitHub 代碼倉庫下載示例代碼,

并安裝所需軟件包

# download source code
git clone https://github.com/Arm-Examples/Paddle-on-Ethos-U

# configure virtual environment
cd Paddle-on-Ethos-U
./install.sh

步驟 3:下載飛槳模型

# download model

wget -O./model_zoo/PpocrRec_infer_int8/ch_ppocr_mobile_v2.0_rec_slim_opt.nb

https://paddleocr.bj.bcebos.com/dygraph_v2.0/lite/ch_ppocr_mobile_v2.0_rec_slim_opt.nb

步驟 4:使用代碼倉庫中的模型轉換腳本

(write_model.py) 轉換模型

本文所使用模型的主要包括以下三個模型轉換步驟:

將飛槳格式的模型(后綴為 .nb 格式的文件)轉換成中間表示 IR 文件(后綴為 .json 格式的文件),該步驟生成的中間表示 IR 文件將自動與輸入的飛槳模型文件位于同一目錄下(已知限制:--out_dir 參數針對此轉換情況不生效)。

# Convert nb models to IR
python ./readnb/write_model.py --

model_path ./model_zoo/PpocrRec_infer_int8/ch_ppocr_mobile_v2.0_rec_slim_opt.nb --

out_dir .

將中間表示 IR 模型進行手動調整,由于調整部分較分散,為便于開發者體驗,可通過補丁包的方式快速完成模型調整。

# Finish IR model adjustment by adding patch
cp ./model_zoo/PpocrRec_infer_int8/g_ch_ppocr_mobile_v2.0_rec_slim_opt.json ./readnb/test_asset/ppocr_rec/
cd ./readnb/test_asset/ppocr_rec/
patch -p0 g_ch_ppocr_mobile_v2.0_rec_slim_opt.json < g_ch_ppocr_rec.patch
cd ../..

可選地,再次使用轉換腳本將手動調整后的中間表示 IR 模型轉換為 TOSA 圖[3]并使用官方提供的編譯器 Ethos-U Vela 進行模型的編譯。更多關于 Ethos-U Vela 編譯器的信息可以查看 PyPI 社區的相關介紹[4],或可訪問 developer.arm.com 中的相關技術指南[5]。也可選擇跳過此步驟,因為在步驟 5 中會自動執行該轉換命令。

# Finish final model conversion and do model compilation with vela

python write_model.py --

model_path ./test_asset/ppocr_rec/g_ch_ppocr_mobile_v2.0_rec_slim_opt.json --

out_dir ../download_nb --do_vela

步驟 5:構建 OCR 識別應用并查看結果

cd ..
./paddle_verify.sh -m ppocr_rec -p ./model_zoo/PpocrRec_infer_int8/test.jpg

示例測試結果如下:

telnetterminal0: Listening for serial connection on port 5000

telnetterminal1: Listening for serial connection on port 5001

telnetterminal5: Listening for serial connection on port 5002

telnetterminal2: Listening for serial connection on port 5003

handles.inputs->count is 1

input tensor scratch_addr address 0x7c11f840

input shapes 122880

copy input data into scratch_addr

handles.outputs->io[x] shapes is 655360

output tensor output_addr address 0x7c1bf840

output shapes 655360

output bin [0x7c1bf840 655360]

handles.outputs->count is 1

Shape : 655360

Rec Reuslut: 純臻營養護發素

Confidence: 0.966813

============ NPU Inferences : 1 ============

Profiler report, CPU cycles per operator:

ethos-u : cycle_cnt : 2083105832 cycles

Operator(s) total: 574619648 CPU cycles

Inference runtime: -987073648 CPU cycles total

NOTE: CPU cycle values and ratio calculations require FPGA and identical CPU/NPU frequency

Inference CPU ratio: 100.00

Inference NPU ratio: 0.00

cpu_wait_for_npu_cntr : 574619648 CPU cycles

Ethos-U PMU report:

ethosu_pmu_cycle_cntr : 2083105832

ethosu_pmu_cntr0 : 479

ethosu_pmu_cntr1 : 21

ethosu_pmu_cntr2 : 118511

ethosu_pmu_cntr3 : 0

ethosu_pmu_cntr4 : 592

Ethos-U PMU Events:[ETHOSU_PMU_SRAM_RD_DATA_BEAT_RECEIVED,

ETHOSU_PMU_SRAM_WR_DATA_BEAT_WRITTEN,

ETHOSU_PMU_EXT_RD_DATA_BEAT_RECEIVED, ETHOSU_PMU_EXT_WR_DATA_BEAT_WRITTEN,

ETHOSU_PMU_NPU_IDLE]

============ Measurements end ============

Running Model Exit Successfully

Application exit code: 0.

Info: /OSCI/SystemC: Simulation stopped by user.

[run_fvp] Simulation complete, 0 Dump to out_tensors.bin

在基于 Arm 架構的邊緣 AI 設備上部署飛槳模型,開發者往往需要優化模型、準備軟件并選擇合適的硬件。上述介紹的步驟將有助于開發者高效地在邊緣側部署 AI 應用,實現貼近數據源的快速推理與處理。快來動手嘗試吧!

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • ARM
    ARM
    +關注

    關注

    135

    文章

    9546

    瀏覽量

    391376
  • 模型
    +關注

    關注

    1

    文章

    3730

    瀏覽量

    52046
  • 邊緣AI
    +關注

    關注

    0

    文章

    230

    瀏覽量

    6080

原文標題:手把手教你在 Arm 邊緣 AI 計算平臺上部署飛槳模型

文章出處:【微信號:Arm社區,微信公眾號:Arm社區】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    何在C#中部署PP-OCRv4模型

    《超4萬6千星的開源OCR黑馬登場,PaddleOCR憑什么脫穎而出?》收到了讀者熱烈反響c,很多讀者提出:如何在C#中部署PP-OCRv4模型
    的頭像 發表于 02-17 10:58 ?2960次閱讀
    如<b class='flag-5'>何在</b>C#中<b class='flag-5'>部署</b><b class='flag-5'>飛</b><b class='flag-5'>槳</b>PP-OCRv4<b class='flag-5'>模型</b>

    Arm方案 基于Arm架構邊緣設備(樹莓派或 NVIDIA Jetson Nano)上部署PyTorch模型

    本文將為你展示如何在樹莓派或 NVIDIA Jetson Nano 等基于 Arm 架構邊緣設備上部
    的頭像 發表于 07-28 11:50 ?2846次閱讀

    何在NVIDIA Jetson AGX Thor上部署1200億參數大模型

    上一期介紹了如何在 NVIDIA Jetson AGX Thor 上使用 Docker 部署 vLLM 推理服務,以及使用 Chatbox 作為前端調用 vLLM 運行的模型(上期文章鏈接)。本期
    的頭像 發表于 12-26 17:06 ?4510次閱讀
    如<b class='flag-5'>何在</b>NVIDIA Jetson AGX Thor<b class='flag-5'>上部署</b>1200億參數大<b class='flag-5'>模型</b>

    邊緣部署模型優勢多!模型量化解決邊緣設備資源限制問題

    電子發燒友網報道(文/李彎彎)大模型邊緣部署是將大模型部署邊緣
    的頭像 發表于 01-05 00:06 ?6506次閱讀

    AI模型部署邊緣設備的奇妙之旅:如何實現手寫數字識別

    處理,而不必傳輸到外部服務器,這有助于更好地保護用戶隱私和數據安全。 然而,邊緣計算也帶來了獨特的挑戰,特別是在資源受限的嵌入式系統中部署復雜的AI模型時。為了確保神經網絡
    發表于 12-06 17:20

    AI模型部署邊緣設備的奇妙之旅:目標檢測模型

    并非易事,它涉及到從選擇合適的算法架構到針對特定硬件平臺進行優化等一系列復雜的工作。 接下來,我們將詳細介紹如何在資源受限的邊緣設備上成功部署
    發表于 12-19 14:33

    介紹在STM32cubeIDE上部署AI模型的系列教程

    介紹在STM32cubeIDE上部署AI模型的系列教程,開發板型號STM32H747I-disco,值得一看。MCUAI原文鏈接:【嵌入式AI開發】篇四|
    發表于 12-14 09:05

    如何用Arm虛擬硬件在Arm Cortex-M上部署PaddlePaddle

    推理模型  3. 使用TVMC為目標設備編譯 Paddle 推理模型4. 構建文本識別應用程序并將其部署Arm Virtual帶有
    發表于 09-02 14:48

    Arm虛擬硬件上部署PP-PicoDet模型

    1、在Arm虛擬硬件上部署PP-PicoDet模型  經典的深度學習工程是從確認任務目標開始的,我們首先來簡單地介紹一下目標檢測任務以及本期部署實戰課程中我們所使用的工具和平臺。  目
    發表于 09-16 14:42

    嵌入式邊緣AI應用開發指南

    部署到TI硬件上。然而,將深度學習模型部署到硬件加速器上只是難題的冰山一角。為幫助您快速構建高效的邊緣AI應用,TI采用了GStreamer
    發表于 11-03 06:53

    圖為科技聯合百度、英偉達共同推出AI軟硬一體快速部署方案

    基于圖為科技邊緣計算機系列產品,僅用三行代碼就能搞定百度AI算法的部署;讓AI算法
    的頭像 發表于 12-20 11:01 ?1818次閱讀
    圖為科技聯合百度<b class='flag-5'>飛</b><b class='flag-5'>槳</b>、英偉達共同推出<b class='flag-5'>AI</b>軟硬一體快速<b class='flag-5'>部署</b>方案

    【報名有獎】Imagination+百度模型部署實戰 Workshop 邀您參加

    舉辦線上Workshop,現已開放注冊報名。在此次的Workshop中,您將學習“端到端在Imagination硬件上部署模型的工作流程”,來自百度
    的頭像 發表于 09-28 10:20 ?1287次閱讀
    【報名有獎】Imagination+百度<b class='flag-5'>飛</b><b class='flag-5'>槳</b><b class='flag-5'>模型</b><b class='flag-5'>部署</b>實戰 Workshop 邀您參加

    【RK3588平臺】使用FastDeploy進行AI部署

    隨著人工智能產業應用發展得越來越快,開發者需要面對的適配部署工作也越來越復雜。在實際進行項目時,需要處理不同場景,不同操作系統,不同編程語言,這些都為AI開發者項目落地帶來不小的挑戰。(
    的頭像 發表于 01-11 16:15 ?3878次閱讀
    【RK3588平臺】使用<b class='flag-5'>飛</b><b class='flag-5'>槳</b>FastDeploy進行<b class='flag-5'>AI</b><b class='flag-5'>部署</b>

    恩智浦如何在邊緣設備上部署LLM

    開放式聊天機器人到任務型助手。雖然LLM主要聚焦基于云和服務器端的應用,但人們對在嵌入式系統和邊緣設備部署這些模型的興趣也在不斷增加。
    的頭像 發表于 11-29 09:39 ?1551次閱讀

    邊緣AI實現的核心環節:硬件選擇和模型部署

    邊緣AI的實現原理是將人工智能算法和模型部署到靠近數據源的邊緣設備上,使這些
    的頭像 發表于 06-19 12:19 ?1355次閱讀
    <b class='flag-5'>邊緣</b><b class='flag-5'>AI</b>實現的核心環節:硬件選擇和<b class='flag-5'>模型</b><b class='flag-5'>部署</b>