国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

被低估的ArmNN(二)用C++部署Mobilenet回歸器

電子設計 ? 來源:電子設計 ? 作者:電子設計 ? 2020-12-10 18:14 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在專欄之前的文章,我們介紹過ArmNN,詳情可參考被低估的ArmNN(一)如何編譯。這里,我們給大家介紹如何使用ArmNN在Android設備上進行部署,部署的任務以Mobilenet分類器為例。關于Mobilenet回歸器的訓練,大家可以參考如何DIY輕型的Mobilenet回歸器。我們今天的部署平臺仍然是基于RK3399嵌入式平臺,系統為Android-8.1。
作者:張新棟

我們知道ArmNN是一個非常高效的Inference框架,300x300的Mobilenet-SSD在depth_multiplier取1.0時inference最快可達90ms/幀。今天我們將使用ArmNN框架,用C++在RK-3399-Android-8.1中進行Mobilenet回歸任務的部署。首先我們先進行第一步,環境的配置。

環境配置

若想使用編譯好的ArmNN進行inference,首先我們必須要先加載編譯好的ArmNN庫、頭文件及其他依賴文件。這里我們依舊為大家提供了Android.mk及Application.mk,

LOCAL_PATH := $(call my-dir)

include $(CLEAR_VARS)
LOCAL_MODULE := armnn
LOCAL_SRC_FILES := $(LOCAL_PATH)/../libarmnn.so
LOCAL_EXPORT_C_INCLUDES := $(LOCAL_PATH)/../../include/armnn
LOCAL_SHARED_LIBRARIES := c++_shared
include $(PREBUILT_SHARED_LIBRARY)


include $(CLEAR_VARS)
LOCAL_MODULE := tfliteParser
LOCAL_SRC_FILES := $(LOCAL_PATH)/../libarmnnTfLiteParser.so
LOCAL_EXPORT_C_INCLUDES := $(LOCAL_PATH)/../../include/libarmnnTfLiteParser
LOCAL_SHARED_LIBRARIES := c++_shared
include $(PREBUILT_SHARED_LIBRARY)

include $(CLEAR_VARS)
LOCAL_MODULE := armnnSerializer
LOCAL_SRC_FILES := $(LOCAL_PATH)/../libarmnnSerializer.so
LOCAL_EXPORT_C_INCLUDES := $(LOCAL_PATH)/../../include/armnn/armnnSerializer
LOCAL_SHARED_LIBRARIES := c++_shared
include $(PREBUILT_SHARED_LIBRARY)


include $(CLEAR_VARS)
OpenCV_INSTALL_MODULES := on
OPENCV_LIB_TYPE := STATIC
include /Users/xindongzhang/armnn-tflite/OpenCV-android-sdk/sdk/native/jni/OpenCV.mk
LOCAL_MODULE := face_detector

LOCAL_C_INCLUDES += $(OPENCV_INCLUDE_DIR)
LOCAL_C_INCLUDES += $(LOCAL_PATH)/../../include
LOCAL_C_INCLUDES += $(LOCAL_PATH)/../../../boost_1_64_0/
LOCAL_C_INCLUDES += $(LOCAL_PATH)/../../third-party/stb/
LOCAL_SRC_FILES := /
                face_detector.cpp


LOCAL_LDLIBS := -landroid -llog -ldl -lz 
LOCAL_CFLAGS   := -O2 -fvisibility=hidden -fomit-frame-pointer -fstrict-aliasing   /
                  -ffunction-sections -fdata-sections -ffast-math -ftree-vectorize / 
                  -fPIC -Ofast -ffast-math -w -std=c++14
LOCAL_CPPFLAGS := -O2 -fvisibility=hidden -fvisibility-inlines-hidden -fomit-frame-pointer /
                  -fstrict-aliasing -ffunction-sections -fdata-sections -ffast-math -fPIC  /
                  -Ofast -ffast-math -std=c++14
LOCAL_LDFLAGS  += -Wl,--gc-sections
LOCAL_CFLAGS   += -fopenmp
LOCAL_CPPFLAGS += -fopenmp
LOCAL_LDFLAGS  += -fopenmp
LOCAL_ARM_NEON := true

APP_ALLOW_MISSING_DEPS = true

LOCAL_SHARED_LIBRARIES :=                                   /
                        armnn                               /
            tfliteParser                        /
            armnnSerializer                     /
            android.hardware.neuralnetworks@1.0 /
            android.hidl.allocator@1.0          /
            android.hidl.memory@1.0             /
            libc++_shared

include $(BUILD_EXECUTABLE)

如下為Application.mk文件,

ANDROID_TOOLCHAIN=clang?
APP_ABI := arm64-v8a
APP_CPPFLAGS := -frtti -fexceptions -std=c++14
APP_PLATFORM := android-27
APP_STL := c++_shared

這里需要注意的是Application.mk的APP_STL項,由于我們在編譯ArmNN時使用的STL為c++_shared,所以這里需要使用c++_shared,另外Android.mk文件中鏈接的OpenCV庫也需要使用c++_shared的stl進行編譯(官網下載的即c++_shared編譯)。

編寫C++業務代碼

在配置好依賴項后,我們開始使用ArmNN提供的C++API進行業務代碼的書寫。首先第一步我們需要加載模型,ArmNN提供了解析題 ITfLiteParserPtr,我們可以使用其進行模型的加載。另外加載好的模型我們需要使用一個網絡結構進行存儲,ArmNN提供了INetworkPtr。為了在對應的arm嵌入式平臺中高效的執行,ArmNN還提供了IOptimizedNetworkPtr來對網絡的inference進行優化。更多的細節大家可參考如下的業務代碼。

armnnTfLiteParser::ITfLiteParserPtr parser = armnnTfLiteParser::ITfLiteParser::Create(); 
armnn::INetworkPtr pose_reg_network{nullptr, [](armnn::INetwork *){}};
armnn::IOptimizedNetworkPtr pose_reg_optNet{nullptr, [](armnn::IOptimizedNetwork *){}};
armnn::InputTensors pose_reg_in_tensors;
armnn::OutputTensors pose_reg_ou_tensors;
armnn::IRuntimePtr runtime{nullptr, [](armnn::IRuntime *){}};
float yaw[1];
float pose_reg_input[64*64*3];


// loading tflite model
std::string pose_reg_modelPath = "/sdcard/Algo/pose.tflite";
pose_reg_network = parser->CreateNetworkFromBinaryFile(pose_reg_modelPath.c_str());

// binding input and output
armnnTfLiteParser::BindingPointInfo pose_reg_input_bind  = 
                              parser->GetNetworkInputBindingInfo(0, "input/ImageInput");
armnnTfLiteParser::BindingPointInfo pose_reg_output_bind = 
                              parser->GetNetworkOutputBindingInfo(0, "yaw/yangle");

// wrapping pose reg input and output
armnn::Tensor pose_reg_input_tensor(pose_reg_input_bind.second, pose_reg_input);
pose_reg_in_tensors.push_back(std::make_pair(pose_reg_input_bind.first, pose_reg_input_tensor));

armnn::Tensor pose_reg_output_tensor(pose_reg_output_bind.second, yaw);
pose_reg_ou_tensors.push_back(std::make_pair(pose_reg_output_bind.first, pose_reg_output_tensor));

// config runtime, fp16 accuracy 
armnn::IRuntime::CreationOptions runtimeOptions;
runtime = armnn::IRuntime::Create(runtimeOptions);
armnn::OptimizerOptions OptimizerOptions;
OptimizerOptions.m_ReduceFp32ToFp16 = true;
this->pose_reg_optNet = 
armnn::Optimize(*pose_reg_network, {armnn::Compute::GpuAcc},runtime->GetDeviceSpec(), OptimizerOptions);
runtime->LoadNetwork(this->pose_reg_identifier, std::move(this->pose_reg_optNet));

// load image
cv::Mat rgb_image = cv::imread("face.jpg", 1);
cv::resize(rgb_image, rgb_image, cv::Size(pose_reg_input_size, pose_reg_input_size));
rgb_image.convertTo(rgb_image, CV_32FC3);
rgb_image = (rgb_image - 127.5f) * 0.017f;

// preprocess image
int TOTAL   = 64 * 64 * 3;
float* data = (float*) rgb_image.data;
for (int i = 0; i < TOTAL; ++i) {
    pose_reg_input[i] = data[i];
}

// invoke graph forward inference
armnn::Status ret = runtime->EnqueueWorkload(
    this->pose_reg_identifier,
    this->pose_reg_in_tensors,
    this->pose_reg_ou_tensors
);
float result = yaw[0] * 180 / 3.14; 

非常簡單易懂的業務代碼就可以完成ArmNN的一次inference,注意這里我們使用的是FP16來進行inference,相比于FP32,FP16具有更高的加速比,且不會損失很多精度。后續我們會給出如何使用ArmNN來做INT8的inference例子。

最后

本文我們介紹了如何使用ArmNN來進行Mobilenet的inference(其實很容易就可以改成分類任務),并使用FP16的精度進行inference,該網絡在RK3399中執行效率非常高(約10ms)。若你想在其他設備中使用FP16,首先你要保證設備中有GPU,且支持OpenCL。歡迎大家留言討論、關注專欄,謝謝大家!

審核編輯 黃昊宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • ARM
    ARM
    +關注

    關注

    135

    文章

    9554

    瀏覽量

    392069
  • C++
    C++
    +關注

    關注

    22

    文章

    2124

    瀏覽量

    77143
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    步進控制的光柵尺全閉環EtherCAT運動控制ZMC432CL-V2快速入門:維螺距補償(下)

    維螺距補償的QT(C++)例程
    的頭像 發表于 03-03 16:43 ?7552次閱讀
    步進控制的光柵尺全閉環EtherCAT運動控制<b class='flag-5'>器</b>ZMC432CL-V2快速入門:<b class='flag-5'>二</b>維螺距補償(下)

    keil實現cc++混合編程

    參考touchgfx生成的代碼,發現了一個不需要添加--cpp11 參數的解決方法,具體操作如下。 一、創建一個空白的C文件和頭文件在頭文件中定義c++文件中需要調用的函數,如圖所示 、在
    發表于 01-26 08:58

    C語言與C++的區別及聯系

    并沒有錯。 C++一開始本賈尼·斯特勞斯特盧普(Bjarne Stroustrup)發明時,起初被稱為“C with Classes”,即「帶類的C」。 很明顯,它是在
    發表于 12-24 07:23

    CC++之間的聯系

    1、語法兼容性: C++完全兼容C語言的語法,這意味著任何有效的C語言程序都可以直接在C++編譯下編譯通過。 2、底層控制:
    發表于 12-11 06:51

    C語言和C++之間的區別是什么

    C++的標準庫那樣集成度高和功能齊全。 6、編譯與語言特性: C++編譯通常比C語言編譯
    發表于 12-11 06:23

    IC燒錄,不就是“給芯片裝系統”嗎?——一個嚴重低估的技術環節

    IC燒錄遠非簡單的“文件拷貝”或“安裝系統”,而是決定電子產品功能、可靠性與可追溯性的核心制造工藝。其技術復雜性與質量管理難度嚴重低估,是產品隱性故障與批次風險的重要源頭。
    的頭像 發表于 12-10 13:37 ?401次閱讀

    C/C++條件編譯

    條件編譯是一種在編譯時根據條件選擇性地包含或排除部分代碼的處理方法。在 C/C++ 中,條件編譯使用預處理指令 #ifdef、#endif、#else 和 #elif 來實現。常用的條件編譯指令有
    發表于 12-05 06:21

    C++程序異常的處理機制

    1、什么是異常處理? 有經驗的朋友應該知道,在正常的CC++編程過程中難免會碰到程序不按照原本設計運行的情況。 最常見的有除法分母為零,數組越界,內存分配失效、打開相應文件失敗等等。 一個程序
    發表于 12-02 07:12

    嵌入式C/C++回歸測試四大最佳實踐(附自動化測試工具TESSY使用教程)

    嵌入式開發中,一次微小的代碼改動都可能引發“蝴蝶效應”,如何守護系統的穩健?推薦專業的自動化測試工具#TESSY,源自戴姆勒-奔馳,是嵌入式C/C++單元/集成測試的標桿。
    的頭像 發表于 10-31 14:21 ?417次閱讀
    嵌入式<b class='flag-5'>C</b>/<b class='flag-5'>C++</b><b class='flag-5'>回歸</b>測試四大最佳實踐(附自動化測試工具TESSY使用教程)

    C/C++代碼靜態測試工具Perforce QAC 2025.3的新特性

    ?Perforce Validate?中?QAC?項目的相對/根路徑的支持。C++?分析也得到了增強,增加了用于檢測 C++?并發問題的新檢查,并改進了實體名稱和實
    的頭像 發表于 10-13 18:11 ?575次閱讀
    <b class='flag-5'>C</b>/<b class='flag-5'>C++</b>代碼靜態測試工具Perforce QAC 2025.3的新特性

    技能+1!如何在樹莓派上使用C++控制GPIO?

    在使用樹莓派時,你會發現Python和Scratch是許多任務(包括GPIO編程)中最常用的編程語言。但你知道嗎,你也可以使用C++進行GPIO編程,而且這樣做還有不少好處。借助WiringPi
    的頭像 發表于 08-06 15:33 ?4165次閱讀
    技能+1!如何在樹莓派上使用<b class='flag-5'>C++</b>控制GPIO?

    C++ 與 Python:樹莓派上哪種語言更優?

    Python是樹莓派上的首選編程語言,我們的大部分教程都使用它。然而,C++在物聯網項目中同樣廣受歡迎且功能強大。那么,在樹莓派項目中選擇哪種語言更合適呢?Python因其簡潔性、豐富的庫和資源而
    的頭像 發表于 07-24 15:32 ?956次閱讀
    <b class='flag-5'>C++</b> 與 Python:樹莓派上哪種語言更優?

    主流的 MCU 開發語言為什么是 C 而不是 C++

    在單片機的地界兒里,C語言穩坐中軍帳,C++想分杯羹?難嘍。咱電子工程師天天跟那針尖大的內存空間較勁,C++那些花里胡哨的玩意兒,在這兒真玩不轉。先說內存這道坎兒。您當stm32f4的256kRAM
    的頭像 發表于 05-21 10:33 ?1056次閱讀
    主流的 MCU 開發語言為什么是 <b class='flag-5'>C</b> 而不是 <b class='flag-5'>C++</b>?

    C++學到什么程度可以找工作?

    C++學到什么程度可以找工作?要使用C++找到工作,特別是作為軟件開發人員或相關職位,通常需要掌握以下幾個方面: 1. **語言基礎**:你需要對C++的核心概念有扎實的理解,包括但不限于指針、內存
    發表于 03-13 10:19

    K230D部署模型失敗的原因?

    ) 2.按照教程實現C++版本部署流程,大小核這里就無法推進了,無法輸入命令 期待結果和實際結果 (1)期待結果:不管按照哪個流程部署完,可以運行給的測試用例,看到結果 (2)實際結果:采用
    發表于 03-11 06:19