伦伦影院久久影视,天天操天天干天天射,ririsao久久精品一区 ,一本大道香蕉大久在红桃,999久久久免费精品国产色夜,色悠悠久久综合88,亚洲国产精品久久无套麻豆,亚洲香蕉毛片久久网站,一本一道久久综合狠狠老

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

如何為TensorFlow Lite Micro添加多輸入多輸出支持(二)

恩智浦MCU加油站 ? 來源:恩智浦MCU加油站 ? 2026-03-19 16:58 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在上一篇文章中,我們已經帶大家了解了多輸入多輸出(MIMO)能力的架構設計思路。

今天,小編將繼續深入解析如何將架構設計真正落地到可運行代碼,并帶來一套可復用的核心實現。會介紹多輸入多輸出支持框架的關鍵組成部分。通過清晰的結構化設計、類型安全的接口抽象,為復雜的嵌入式 AI 模型建立一個高擴展性、高可維護性的基礎底座。

下面,我們就將通過頭文件設計、基礎數據結構構建、生命周期管理等內容一步步展示一個完整的MIMO支持框架是如何搭建起來的。

話不多說,上代碼!(代碼超載預警)

頭文件設計:構建類型安全的基礎

首先,我們需要一個類型和接口定義完備、可擴展性強的頭文件model.h。
這一部分為后續的MIMO管理、張量訪問、預處理、模型統計等功能奠定了堅實基礎。

#ifndefMODEL_H
#defineMODEL_H

#include"tensorflow/lite/c/common.h"
//  =============================================================================
// 配置常量
//  =============================================================================
#defineMAX_INPUT_TENSORS 8  // 最大輸入張量數量
#defineMAX_OUTPUT_TENSORS 8  // 最大輸出張量數量 
#defineMAX_TENSOR_DIMS 6   // 最大張量維度數
#defineMODEL_NAME_MAX_LEN 64 // 模型名稱最大長度
//  =============================================================================
// 狀態碼定義
//  =============================================================================
typedefenum{
  kStatus_Success  =0,
  kStatus_Fail = 1,
  kStatus_InvalidParam =2,
  kStatus_OutOfRange =3,
  kStatus_NotInitialized =4,
  kStatus_InsufficientMemory =5
}status_t;
//  =============================================================================
// 張量相關類型定義
//  =============================================================================
typedefenum{
  kTensorType_FLOAT32 =0,
  kTensorType_UINT8 =1,
  kTensorType_INT8  =2,
  kTensorType_INT32 =3,
  kTensorType_BOOL  =4,
  kTensorType_UNKNOWN =255
}tensor_type_t;
typedefstruct{
 intsize;             // 維度數量
 int data[MAX_TENSOR_DIMS];    // 各維度的大小
}tensor_dims_t;
// 單個張量的完整信息
typedefstruct{
 intindex;            // 張量索引
 tensor_dims_t dims;       // 維度信息
 tensor_type_t type;       // 數據類型
 uint8_t*  data;          // 數據指針
 size_t size_bytes;        // 數據大小(字節)
 constchar*  name;        // 張量名稱(可選)
}tensor_info_t;
// 多張量信息結構
typedefstruct{
 intcount;                  // 張量數量
 tensor_info_t tensors[MAX_INPUT_TENSORS];  // 張量信息數組
}multi_tensor_info_t;
//  =============================================================================
// 模型統計信息
//  =============================================================================
typedefstruct{
 size_t arena_used_bytes;     // 已使用的內存
 size_t arena_total_bytes;    // 總內存大小
 int input_count;         // 輸入張量數量
 int output_count;        // 輸出張量數量
 constchar*  model_name;     // 模型名稱
}model_stats_t;
//  =============================================================================
// 核心接口聲明
//  =============================================================================
// 模型生命周期管理
status_tMODEL_Init(void);
status_tMODEL_Deinit(void);
status_tMODEL_RunInference(void);
// 模型信息查詢
intMODEL_GetInputTensorCount(void);
intMODEL_GetOutputTensorCount(void);
status_tMODEL_GetModelStats(model_stats_t* stats);
constchar*MODEL_GetModelName(void);
// 單張量操作接口
uint8_t*MODEL_GetInputTensorData(intindex, tensor_dims_t* dims,tensor_type_t* type);
uint8_t*MODEL_GetOutputTensorData(intindex, tensor_dims_t* dims,tensor_type_t* type);
// 增強的單張量接口
status_tMODEL_GetInputTensorInfo(intindex, tensor_info_t* info);
status_tMODEL_GetOutputTensorInfo(intindex, tensor_info_t* info);
// 批量操作接口
status_t MODEL_GetAllInputTensors(multi_tensor_info_t* input_info);
status_t MODEL_GetAllOutputTensors(multi_tensor_info_t* output_info);
// 數據預處理接口
status_t MODEL_ConvertInput(inttensor_index,uint8_t* data,
             const tensor_dims_t* dims,tensor_type_ttype);
// 工具函數
size_t MODEL_GetTensorSizeBytes(consttensor_dims_t* dims,tensor_type_ttype);
constchar* MODEL_GetTensorTypeName(tensor_type_ttype);
status_t MODEL_ValidateTensorDims(consttensor_dims_t* dims);
#endif//  MODEL_H
核心實現:從設計到代碼

接下來,進入到實際實現部分。為了提高代碼可讀性,整體實現拆分為以下模塊:

全局變量與初始化

內部工具函數

生命周期管理(Init / Deinit / Invoke)

全局變量和初始化:

#include "tensorflow/lite/micro/kernels/micro_ops.h"
#include "tensorflow/lite/micro/micro_interpreter.h"
#include "tensorflow/lite/micro/micro_op_resolver.h"
#include "tensorflow/lite/schema/schema_generated.h"

#include"fsl_debug_console.h"
#include"model.h"
#include"model_data.h"

//  =============================================================================
// 全局變量
//  =============================================================================
staticconsttflite::Model* s_model =nullptr;
statictflite::MicroInterpreter* s_interpreter =nullptr;
staticbools_model_initialized =false;

// 張量內存區域 - 根據具體模型調整大小
staticuint8_ts_tensorArena[kTensorArenaSize]  __ALIGNED(16);

// 外部函數聲明
externtflite::MicroOpResolver  &MODEL_GetOpsResolver();

//  =============================================================================
// 內部輔助函數
//  =============================================================================

// 獲取數據類型的字節大小
staticsize_tGetTypeSize(tensor_type_ttype)
{
 switch(type) {
   case kTensorType_FLOAT32:
   case kTensorType_INT32:
     return 4;
   case kTensorType_UINT8:
   case kTensorType_INT8:
   case kTensorType_BOOL:
     return 1;
   default:
     return 0;
  }
}

// TensorFlow Lite類型轉換為我們的類型
statictensor_type_tConvertTfLiteType(TfLiteType tf_type)
{
 switch(tf_type)  {
   case kTfLiteFloat32:
     return kTensorType_FLOAT32;
   case kTfLiteUInt8:
     return kTensorType_UINT8;
   case kTfLiteInt8:
     return kTensorType_INT8;
   case kTfLiteInt32:
     return kTensorType_INT32;
   case kTfLiteBool:
     return kTensorType_BOOL;
   default:
     return kTensorType_UNKNOWN;
  }
}

// 從TensorFlow Lite張量提取信息
staticstatus_tExtractTensorInfo(TfLiteTensor* tf_tensor, intindex,tensor_info_t* info)
{
 if(tf_tensor == nullptr|| info ==nullptr) {
   return kStatus_InvalidParam;
  }

 // 基本信息
  info->index =  index;
  info->type = ConvertTfLiteType(tf_tensor->type);
  info->data =  tf_tensor->data.uint8;
 
 if (info->type == kTensorType_UNKNOWN) {
    PRINTF("Unsupported tensor type: %d
",  tf_tensor->type);
   return kStatus_Fail;
  }

 // 維度信息
  info->dims.size = tf_tensor->dims->size;
 if (info->dims.size > MAX_TENSOR_DIMS) {
    PRINTF("Tensor dimensions exceed maximum: %d > %d
",
        info->dims.size, MAX_TENSOR_DIMS);
   return kStatus_OutOfRange;
  }

 size_t total_elements =1;
 for(inti =0;  i < info->dims.size; i++) {
    info->dims.data[i] = tf_tensor->dims->data[i];
    total_elements *= info->dims.data[i];
  }

 // 計算數據大小
  info->size_bytes = total_elements *GetTypeSize(info->type);
 
 // 張量名稱(如果可用)
  info->name = nullptr; // TensorFlow Lite Micro通常不保存名稱

 return kStatus_Success;
}
模型生命周期管理

這部分主要包括:

模型初始化(加載模型 / 創建解釋器 / 分配張量內存)

模型反初始化

執行推理(Invoke)

//
模型生命周期管理
//

status_tMODEL_Init(void)
{
 if (s_model_initialized) {
    PRINTF("Model already initialized
");
   return kStatus_Success;
  }

 // 加載模型
  s_model= tflite::GetModel(model_data);
 if (s_model->version()!=TFLITE_SCHEMA_VERSION) {
    PRINTF("Model schema version %d not supported (expected  %d)
",
        s_model->version(),TFLITE_SCHEMA_VERSION);
   return kStatus_Fail;
  }

 // 獲取操作解析器
  tflite::MicroOpResolverµ_op_resolver= MODEL_GetOpsResolver();

 // 創建解釋器
 static tflite::MicroInterpreterstatic_interpreter(
    s_model,  micro_op_resolver, s_tensorArena, kTensorArenaSize);
  s_interpreter= &static_interpreter;

 // 分配張量內存
 TfLiteStatus allocate_status=s_interpreter->AllocateTensors();
 if (allocate_status!=kTfLiteOk) {
    PRINTF("AllocateTensors() failed with status: %d
",  allocate_status);
   return kStatus_InsufficientMemory;
  }

  s_model_initialized=true;

 // 打印模型信息
  PRINTF("Model '%s' initialized successfully:
", MODEL_GetModelName());
 PRINTF("-  Input tensors: %d
", s_interpreter->inputs_size());
 PRINTF("-  Output tensors: %d
", s_interpreter->outputs_size());
 PRINTF("-  Arena used: %zu bytes
", s_interpreter->arena_used_bytes());

 return kStatus_Success;
}

status_tMODEL_Deinit(void)
{
 if (!s_model_initialized) {
   return kStatus_NotInitialized;
  }

 // TensorFlow  Lite Micro使用靜態內存,無需顯式釋放
  s_model= nullptr;
  s_interpreter= nullptr;
  s_model_initialized=false;

  PRINTF("Model deinitialized
");
 return kStatus_Success;
}

status_tMODEL_RunInference(void)
{
 if (!s_model_initialized||s_interpreter==nullptr) {
    PRINTF("Model not initialized
");
   return kStatus_NotInitialized;
  }

 TfLiteStatus invoke_status=s_interpreter->Invoke();
 if (invoke_status!=kTfLiteOk) {
    PRINTF("Model inference failed with status: %d
",  invoke_status);
   return kStatus_Fail;
  }

 return kStatus_Success;
}
信息查詢接口

包含:

輸入/輸出張量數量查詢

模型統計信息讀取

模型名稱查詢

//
模型信息查詢
//

intMODEL_GetInputTensorCount(void)
{
 if (!s_model_initialized || s_interpreter ==nullptr) {
   return0;
  }
 return s_interpreter->inputs_size();
}

intMODEL_GetOutputTensorCount(void)
{
 if (!s_model_initialized || s_interpreter ==nullptr) {
   return0;
  }
 return s_interpreter->outputs_size();
}

status_t MODEL_GetModelStats(model_stats_t* stats)
{
 if(stats == nullptr) {
   return kStatus_InvalidParam;
  }

 if (!s_model_initialized || s_interpreter ==nullptr) {
   return kStatus_NotInitialized;
  }

  stats->arena_used_bytes = s_interpreter->arena_used_bytes();
  stats->arena_total_bytes = kTensorArenaSize;
  stats->input_count = s_interpreter->inputs_size();
  stats->output_count = s_interpreter->outputs_size();
  stats->model_name =MODEL_GetModelName();

 return kStatus_Success;
}

constchar*MODEL_GetModelName(void)
{
 return MODEL_NAME;
}
下期預告

由于篇幅有限,本篇重點展示了:

頭文件設計:類型安全、結構清晰

核心實現框架:生命周期管理 + 內部工具函數

基本模型信息查詢接口

在下一篇(系列最終章)中,我們將重點講解:

張量數據訪問接口(Input/Output Data APIs)完整實現

批量張量操作的高效實現方案

更實際的代碼示例與最佳實踐

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 嵌入式
    +關注

    關注

    5202

    文章

    20532

    瀏覽量

    335564
  • 模型
    +關注

    關注

    1

    文章

    3778

    瀏覽量

    52181
  • 代碼
    +關注

    關注

    30

    文章

    4973

    瀏覽量

    74167
  • tensorflow
    +關注

    關注

    13

    文章

    336

    瀏覽量

    62279

原文標題:突破限制!為TensorFlow Lite Micro添加多輸入多輸出的完整方案解析(二)

文章出處:【微信號:NXP_SMART_HARDWARE,微信公眾號:恩智浦MCU加油站】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    多輸入多輸出收發器系統的無線通信設計

    經過多年作為理論方法和學術主題,多輸入多輸出(MIMO)收發器系統正在獲得重要的設計注意力和支持組件。該技術已被用于一些最新的4G代和下一代LTE(長期演進)蜂窩標準,以提供所需的吞吐量和性能,以及Wi-Fi IEEE 802.
    的頭像 發表于 03-13 08:26 ?4064次閱讀
    <b class='flag-5'>多輸入</b><b class='flag-5'>多輸出</b>收發器系統的無線通信設計

    如何在TensorFlow Lite Micro添加自定義操作符(1)

    支持各種神經網絡層的計算。也就是說,我們不僅可以使用內嵌的算子運算,還可以自己注冊一個新的算子,更加的靈活。本期就將用兩期的文章以 `reshape.cpp` 為例,詳細說明如何在 TensorFlow Lite
    的頭像 發表于 12-26 10:34 ?5484次閱讀

    請問simulink的s-function模塊如何添加多輸入輸出接口

    像圖里這種,我一直找不到添加多輸入輸出的設置頁面,默認只有單輸入輸出
    發表于 12-30 21:38

    multisim中多輸入多輸出變壓器

    老哥們求教這種多輸出的三相變壓器在multisim里該怎么仿真出來啊?
    發表于 04-06 14:27

    支持不同的輸出軌的多輸出電源參考設計

    描述PMP3061 是一種多輸出電源,支持各種不同的輸出軌。此設計的輸入為 12V,相應器件和輸出如下:TPS40140 (1.2V(40A
    發表于 11-05 16:30

    存在信道估計誤差的有限反饋多用戶多輸入多輸出傳輸性能分析

    該文針對存在信道估計誤差的有限反饋多用戶多輸入多輸出(MIMO)傳輸性能進行分析。基于量化微元逼近理論得出了多用戶迫零波束賦型系統容量的下界;該下界表明:存在信道估計
    發表于 11-24 14:34 ?9次下載

    多輸入-多輸出線性系統有限時間觀測器設計方法

    摘要:基于有限時間穩定理論,給出了完全能觀測的多輸入多輸出線性系統的有限時間觀測器的設計方法.所設計的觀測器在有限時間后實現了對系統狀態的精確重構.數值仿
    發表于 03-05 09:28 ?16次下載

    8發8收多輸入多輸出正交頻分多址系統平臺

    8發8收多輸入多輸出正交頻分多址系統平臺       都科摩(北京)通信技術研究中心有限公司 (DOCOMO Beijing Communications Laboratories
    發表于 03-25 14:15 ?1114次閱讀

    多輸入多輸出天線系統MIMO分析

    多輸入多輸出(MIMO)天線系統是發送端和接收端同時采用多個天線單元的分集接收系統。具有T M 副發送天線、R M 副接收天線的MIMO 系統模型。 對于多輸入多輸出(MIMO)系統,
    發表于 01-18 15:06 ?81次下載
    <b class='flag-5'>多輸入</b><b class='flag-5'>多輸出</b>天線系統MIMO分析

    基于LSSVM的多輸入多輸出開關磁阻電機建模_徐宇柘

    基于LSSVM的多輸入多輸出開關磁阻電機建模_徐宇柘
    發表于 01-08 11:51 ?0次下載

    簡介多輸入多輸出(Multiple-input Multiple-output)雷達

    多輸入多輸出(Multiple-input Multiple-output)雷達的概念由Fishie于2004年首次提出。并不是說MIMO技術是從2004年才開始,而是FIshie第一次將MIMO通信的空間分集觀點引入到了雷達中。
    發表于 03-06 17:08 ?4136次閱讀
    簡介<b class='flag-5'>多輸入</b><b class='flag-5'>多輸出</b>(Multiple-input Multiple-output)雷達

    多輸出數據支持向量回歸學習算法

    針對基于遞推下降法的多輸出支持向量回歸算法在模型參數擬合過程中收斂速度慢、預測精度低的情況,使用一種基于秩2校正規則且具有階收斂速度的修正擬牛頓算法( BFGS)進行多輸出
    發表于 12-05 11:08 ?1次下載

    多輸入多輸出雷達信號與目標干擾優化

    針對實際雜波環境中多輸入多輸出( MIMO)雷達與目標間檢測與隱身的博弈問題,提出一種新的兩步注水算法。首先建立時空編碼模型;然后基于互信息量準則,用注水法分配目標干擾功率,用通用注水法分配雷達信號
    發表于 01-13 11:45 ?0次下載

    多輸入多輸出無線終端的在空中無線測試方法

    多輸入多輸出(Multiple Input Multiple Output: MIMO)天線技術在當前高速無線通信領域(LTE,WIFI,WIMAX),高性能雷達技術(MIMO radar)等得
    發表于 01-25 14:48 ?3次下載
    <b class='flag-5'>多輸入</b><b class='flag-5'>多輸出</b>無線終端的在空中無線測試方法

    何為TensorFlow Lite Micro添加多輸入多輸出支持(一)

    在邊緣AI迅速普及的今天,越來越多的應用開始依賴復雜的神經網絡模型來完成多模態識別、多任務處理等能力。然而,由于嵌入式設備資源受限,開發者常常希望在極小的內存占用下同時處理多路數據、生成多路輸出
    的頭像 發表于 03-14 15:37 ?1251次閱讀
    如<b class='flag-5'>何為</b><b class='flag-5'>TensorFlow</b> <b class='flag-5'>Lite</b> <b class='flag-5'>Micro</b><b class='flag-5'>添加多輸入</b><b class='flag-5'>多輸出</b><b class='flag-5'>支持</b>(一)