国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

如何使用COCO數據集訓練和優化二維姿態估計模型

星星科技指導員 ? 來源:NVIDIA ? 作者:NVIDIA ? 2022-04-10 09:30 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

存在開發姿態估計的開源方法,但在推理性能方面不是最優的,并且集成到生產應用程序中非常耗時。通過這篇文章,我們將向您展示如何開發和部署姿勢估計模型,這些模型易于跨設備配置文件使用,性能非常好,并且非常精確。

姿勢估計已與 NVIDIA 轉移學習工具包( TLT ) 3.0 集成,因此您可以利用 TLT 的所有功能(如模型修剪和量化)來創建精確和高性能的模型。經過訓練后,您可以部署此模型進行推理以獲得實時性能。

本系列文章將引導您完成培訓、優化、部署實時高性能姿勢估計模型的步驟。在第 1 部分中,您將學習如何使用開放源代碼 COCO 數據集訓練二維姿勢估計模型。在 第 2 部分 中,您將學習如何為推理吞吐量優化模型,然后使用 TLT-CV 推理管道部署模型。我們將 TLT 訓練模型與其他最先進的模型進行了比較。

用 TLT 訓練二維姿態估計模型

在本節中,我們將介紹有關使用 TLT 訓練 2D 姿勢估計模型的以下主題:

Methodology

環境設置

數據準備

實驗配置文件

Training

Evaluation

模型驗證

Methodology

BodyPoseNet 模型的目標是預測給定輸入圖像中每個人的骨架,骨架由關鍵點和關鍵點之間的連接組成。

兩種常用的姿態估計方法是自頂向下和自下而上。自頂向下的方法通常使用對象檢測網絡來定位幀中所有人的邊界框,然后使用姿勢網絡來定位該邊界框內的身體部位。顧名思義,自下而上的方法從下到上構建骨架。它首先檢測一個框架內的所有人體部位,然后使用一種方法對屬于特定人的部位進行分組。

采用自下而上的方法有幾個原因。一是推理性能較高。與自頂向下的姿勢估計方法不同,自下而上的方法不需要單獨的人檢測器。計算不會隨場景中的人數線性縮放。這使您能夠實現擁擠場景的實時性能。此外,自底向上還具有全局上下文的優點,因為將整個圖像作為輸入提供給網絡。它可以更好地處理復雜的姿勢和擁擠。

鑒于這些原因,這種方法的目的是實現有效的單桿,自下而上的姿態估計,同時也提供競爭力的準確性。本文使用的默認模型是完全卷積模型,由主干網、初始預測階段組成,該階段對置信圖( heatmap )和部分親和場( PAF )進行像素級預測,然后對初始預測進行多級細化( 0 到 N 階段)。此解決方案簡化并抽象了自底向上方法的許多復雜性,同時允許針對特定應用程序調整必要的旋鈕。

pYYBAGJSMzmAZi_FAABsk9MNzC4878.png

圖 1 。默認模型架構的簡化框圖。

PAFs 是一種用自下而上的方法表示關聯分數的方法。有關詳細信息,請參閱 基于部分相似域的實時多人二維姿態估計 。它由一組二維向量場組成,對肢體的位置和方向進行編碼。這與熱圖相關聯,用于在后處理期間通過執行二部匹配和關聯身體部位候選來構建骨架。

環境設置

NVIDIA TLT 工具包有助于抽象出 AI / DL 框架的復雜性,并使您能夠更快地構建生產質量模型,而無需編碼。有關硬件和軟件要求、設置所需依賴項以及安裝 TLT 啟動器的更多信息,請參閱 TLT 快速入門指南 。

使用以下命令下載最新示例:

ngc registry resource download-version "nvidia/tlt_cv_samples:v1.1.0"

您可以在tlt_cv_samples:v1.1.0/bpnet找到示例筆記本,其中還包含所有詳細步驟。

為 cleaner 命令行命令設置 env 變量。更新以下變量值:

 export KEY=
 export NUM_GPUS=1
 # Local paths
 # The dataset is expected to be present in $LOCAL_PROJECT_DIR/bpnet/data. 
 export LOCAL_PROJECT_DIR=/home//tlt-experiments
 export SAMPLES_DIR=/home//tlt_cv_samples_vv1.1.0
 # Container paths
 export USER_EXPERIMENT_DIR=/workspace/tlt-experiments/bpnet
 export DATA_DIR=/workspace/tlt-experiments/bpnet/data
 export SPECS_DIR=/workspace/examples/bpnet/specs
 export DATA_POSE_SPECS_DIR=/workspace/examples/bpnet/data_pose_config
 export MODEL_POSE_SPECS_DIR=/workspace/examples/bpnet/model_pose_config 

要運行 TLT 啟動程序,請使用~/.tlt_mounts.json文件將本地計算機上的~/ TLT-experiments 目錄映射到 Docker 容器。有關詳細信息,請參閱TLT 發射器。

創建~/.tlt_mounts.json文件并更新其中的以下內容:

 {
  "Mounts": [
  {
  "source": "/home//tlt-experiments",
  "destination": "/workspace/tlt-experiments"
  },
  {
  "source": "/home//tlt_cv_samples_vv1.1.0/bpnet/specs",
  "destination": "/workspace/examples/bpnet/specs"
  },
  {
  "source": "/home//tlt_cv_samples_vv1.1.0/bpnet/data_pose_config",
  "destination": "/workspace/examples/bpnet/data_pose_config"
  },
  {
  "source": "/home//tlt_cv_samples_vv1.1.0/bpnet/model_pose_config",
  "destination": "/workspace/examples/bpnet/model_pose_config"
  }
  ]
 } 

確保要裝載的源目錄路徑有效。這會將主機上的路徑/home//tlt-experiments裝載為容器內的路徑/workspace/tlt-experiments。它還將下載的規范裝載到主機上,使其成為容器內的路徑/workspace/examples/bpnet/specs/workspace/examples/bpnet/data_pose_config/workspace/examples/bpnet/model_pose_config。

通過運行以下命令,確保已安裝所需的依賴項:

 # Install requirements 
 pip3 install -r $SAMPLES_DIR/deps/requirements-pip.txt 

下載預訓練模型

首先,設置一個NGC帳戶,然后下載預訓練模型。目前,只支持 vgg19 主干網。

 # Create the target destination to download the model.
 mkdir -p $LOCAL_EXPERIMENT_DIR/pretrained_vgg19/
 
 # Download the pretrained model from NGC
 ngc registry model download-version nvidia/tlt_bodyposenet:vgg19 \
  --dest $LOCAL_EXPERIMENT_DIR/pretrained_vgg19 

數據準備

我們以本文中的 COCO ( context 上的公共對象) 2017 數據集為例。下載數據集并按照說明提取:

將 images 目錄解壓到$LOCAL_DATA_DIR目錄中,并將注釋解壓到$LOCAL_DATA_DIR/annotations中。

要準備用于訓練的數據,必須生成分段掩碼,用于掩蓋未標記人員和 TFR 記錄的丟失,以提供給訓練管道。掩碼文件夾基于coco_spec.json文件中提供的路徑[mask_root_dir_path目錄是root_directory_path的相對路徑,mask_root_dir_pathannotation_root_dir_path也是如此。

 # Generate TFRecords for training dataset
 tlt bpnet dataset_convert \
  -m 'train' \
  -o $DATA_DIR/train \
  --generate_masks \
  --dataset_spec $DATA_POSE_SPECS_DIR/coco_spec.json
 
 # Generate TFRecords for validation dataset
 tlt bpnet dataset_convert \
  -m 'test' \
  -o $DATA_DIR/val \
  --generate_masks \
  --dataset_spec $DATA_POSE_SPECS_DIR/coco_spec.json 

要將此示例用于自定義數據集,請執行以下操作:

  • 以類似于 COCO 數據集的格式準備數據和注釋。
  • 在 data \ u pose \ u config 下創建一個數據集規范,類似于 coco \ u spec . json ,其中包括數據集路徑、姿勢配置、遮擋標記約定等。
  • 將注釋轉換為 COCO 注釋格式。

有關更多信息,請參閱以下文檔:

列車試驗配置文件

下一步是為培訓配置 spec 文件。實驗規范文件是必不可少的,因為它編譯了實現良好模型所需的所有超參數。 BodyPoseNet 訓練的規范文件配置訓練管道的以下組件:

  • Trainer
  • Dataloader
  • Augmentation
  • 標簽處理機
  • Model
  • Optimizer

您可以在$SPECS_DIR/bpnet_train_m1_coco.yaml中找到默認規范文件。我們在規范文件的每個組件上展開,但這里不包括所有參數。有關詳細信息,請參閱創建列車試驗配置文件。

培訓師(頂級配置)

頂層實驗配置包括實驗的基本參數;例如,歷元數、預訓練權重、是否加載預訓練圖等。根據checkpoint_n_epoch值保存加密的檢查點。下面是一些頂級配置的代碼示例。

checkpoint_dir: /workspace/tlt-experiments/bpnet/models/exp_m1_unpruned
 checkpoint_n_epoch: 5
 num_epoch: 100
 pretrained_weights: /workspace/tlt-experiments/bpnet/pretrained_vgg19/tlt_bodyposenet_vvgg19/vgg_19.hdf5
 load_graph: False
 use_stagewise_lr_multipliers: True
 ... 

所有路徑(checkpoint_dirpretrained_weights)都是 Docker 容器的內部路徑。要驗證正確性,請選中~/.tlt_mounts.json。有關這些參數的更多信息,請參閱身體姿勢訓練器部分。

Dataloader

本節幫助您定義數據路徑、圖像配置、目標姿勢配置、規范化參數等。augmentation_config部分提供了一些動態增強選項。它支持基本的空間增強,例如翻轉、縮放、旋轉和平移,這些都可以在訓練實驗之前配置。label_processor_config部分提供了配置地面實況要素圖生成所需的參數。

dataloader:
  batch_size: 10
  pose_config:
  target_shape: [32, 32]
  pose_config_path: /workspace/examples/bpnet/model_pose_config/bpnet_18joints.json
  image_config:
  image_dims:
  height: 256
  width: 256
  channels: 3
  image_encoding: jpg
  dataset_config:
  root_data_path: /workspace/tlt-experiments/bpnet/data/
  train_records_folder_path: /workspace/tlt-experiments/bpnet/data
  train_records_path: [train-fold-000-of-001]
  dataset_specs:
  coco: /workspace/examples/bpnet/data_pose_config/coco_spec.json
  normalization_params:
  ...
  augmentation_config:
  spatial_augmentation_mode: person_centric
  spatial_aug_params:
  flip_lr_prob: 0.5
  flip_tb_prob: 0.0
  ...
  label_processor_config:
  paf_gaussian_sigma: 0.03
  heatmap_gaussian_sigma: 7.0
  paf_ortho_dist_thresh: 1.0 
  • target_shape值取決于image_dims和模型步幅值(target_shape=input_shape/model stride)。當前模型的步幅為 8 。
  • 確保使用與dataset_spec中的root_directory_path相同的root_data_path值。dataset_spec中的掩碼和圖像數據目錄相對于root_data_path
  • 所有路徑,包括pose_config_path、dataset_configdataset_specs,都是 Docker 的內部路徑。
  • 支持多種spatial_augmentation_modes
    • person_centric:增強是圍繞一個對基本真相感興趣的人。
    • standard:增強是標準的(即,以圖像中心為中心),并且保留圖像的縱橫比。
    • standard_with_fixed_aspect_ratio:與標準相同,但縱橫比固定為網絡輸入縱橫比。

有關每個參數的詳細信息,請參閱Dataloader部分。

Model

BodyPoseNet 模型可以使用 spec 文件中的 model 選項進行配置。下面是一個示例模型配置,用于實例化基于 VGG19 主干網的自定義模型。

model:
 backbone_attributes:
  architecture: vgg
 stages: 3
 heat_channels: 19
 paf_channels: 38
 use_self_attention: False
 data_format: channels_last
 use_bias: True
 regularization_type: l1
 kernel_regularization_factor: 5.0e-4
 bias_regularization_factor: 0.0
 ... 

網絡中用于姿勢估計的總階段數(細化階段+ 1 )由stages參數捕獲,該參數取任何值>= 2 。我們建議在修剪前訓練網絡時使用 L1 正則化器,因為 L1 正則化使修剪網絡權重更容易。有關模型中每個參數的詳細信息,請參閱Model部分。

優化

本節介紹如何配置優化器和學習速率計劃:

optimizer:
  __class_name__: WeightedMomentumOptimizer
  learning_rate_schedule:
  __class_name__: SoftstartAnnealingLearningRateSchedule
  soft_start: 0.05
  annealing: 0.5
  base_learning_rate: 2.e-5
  min_learning_rate: 8.e-08
  momentum: 0.9
  use_nesterov: False 

默認的base_learning_rate是為單個 GPU 訓練設置的。要使用多 GPU 訓練,可能需要修改“學習率”值以獲得類似的精度。在大多數情況下,將學習率提高一倍$NUM_GPUS將是一個良好的開端。例如,如果您使用兩個 GPU ,請在一個 GPU 設置中使用2 * base_learning_rate,如果您使用四個 GPU ,請使用4 * base_learning_rate。有關模型中每個參數的詳細信息,請參閱Optimizer部分。

訓練

在完成生成 TFRecords 和 mask 的步驟并設置了一個 train 規范文件之后,現在就可以開始訓練 body pose estimation 網絡了。使用以下命令啟動培訓:

tlt bpnet train -e $SPECS_DIR/bpnet_train_m1_coco.yaml \
  -r $USER_EXPERIMENT_DIR/models/exp_m1_unpruned \
  -k $KEY \
  --gpus $NUM_GPUS 

使用更多 GPU 進行培訓可以使網絡更快地接收更多數據,從而在開發過程中節省寶貴的時間。 TLT 支持多 GPU 訓練,因此可以使用多個 GPU 并行訓練模型。我們建議使用四個或更多的 GPU 來訓練模型,因為一個 GPU MIG ht 需要幾天才能完成。訓練時間大致減少了一個系數$NUM_GPUS。確保根據Optimizer一節中描述的線性縮放方法相應地更新學習速率。

BodyPoseNet 支持從檢查點重新啟動。如果訓練作業過早終止,只需重新運行相同的命令,就可以從上次保存的檢查點恢復訓練。重新啟動培訓時,請確保使用相同數量的 GPU 。

評估

從配置推斷和評估規范文件開始。下面的代碼示例是一個示例規范:

model_path: /workspace/tlt-experiments/bpnet/models/exp_m1_unpruned/bpnet_model.tlt
 train_spec: /workspace/examples/bpnet/specs/bpnet_train_m1_coco.yaml
 input_shape: [368, 368]
 # choose from: {pad_image_input, adjust_network_input, None}
 keep_aspect_ratio_mode: adjust_network_input
 output_stage_to_use: null
 output_upsampling_factor: [8, 8]
 heatmap_threshold: 0.1
 paf_threshold: 0.05
 multi_scale_inference: False
 scales: [0.5, 1.0, 1.5, 2.0] 

此處的input_shape值可以不同于用于培訓的input_dims值。multi_scale_inference參數可在提供的比例上啟用多比例優化。因為您使用的是步幅 8 的模型,output_upsampling_factor設置為 8 。

為了使評估與自底向上的人體姿勢估計研究保持一致,有兩種模式和規范文件來評估模型:

  • $SPECS_DIR/infer_spec.yaml:單刻度,非嚴格輸入。此配置對輸入圖像進行單比例推斷。通過固定網絡輸入的一側(高度或寬度),并調整另一側以匹配輸入圖像的縱橫比,來保持輸入圖像的縱橫比。
  • $SPECS_DIR/infer_spec_refine.yaml:多尺度、非嚴格輸入。此配置對輸入圖像進行多尺度推斷。電子秤是可配置的。

還有一種模式主要用于驗證最終導出的 TRT 模型。在后面的章節中使用這個。

  • $SPECS_DIR/infer_spec_strict.yaml:單刻度,嚴格輸入。此配置對輸入圖像進行單比例推斷。當 TRT 模型的輸入尺寸固定時,根據需要在側面填充圖像以適應網絡輸入尺寸,從而保留輸入圖像的縱橫比。

--model_filename參數重寫推理規范文件中的model_path變量。

要計算模型,請使用以下命令:

# Single-scale evaluation
 tlt bpnet evaluate --inference_spec $SPECS_DIR/infer_spec.yaml \
  --model_filename $USER_EXPERIMENT_DIR/models/exp_m1_unpruned/$MODEL_CHECKPOINT \
  --dataset_spec $DATA_POSE_SPECS_DIR/coco_spec.json \
  --results_dir $USER_EXPERIMENT_DIR/results/exp_m1_unpruned/eval_default \
  -k $KEY 

模型驗證

現在您已經訓練了模型,運行推斷并驗證預測。要使用 TLT 直觀地驗證模型,請使用tlt bpnet inference命令。該工具支持對.tlt模型和 TensorRT.engine模型運行推理。它在detections.json中生成帶注釋的圖像,在這些圖像上渲染骨架,并逐幀序列化關鍵點標簽和元數據。例如,要使用經過訓練的.tlt模型運行推理,請運行以下命令:

tlt bpnet inference --inference_spec $SPECS_DIR/infer_spec.yaml \
  --model_filename $USER_EXPERIMENT_DIR/models/exp_m1_unpruned/$MODEL_CHECKPOINT \
  --input_type dir \
  --input $USER_EXPERIMENT_DIR/data/sample_images \
  --results_dir $USER_EXPERIMENT_DIR/results/exp_m1_unpruned/infer_default \
  --dump_visualizations \
  -k $KEY 

圖 1 顯示了原始圖像的一個示例,圖 2 顯示了渲染姿勢結果的輸出圖像。如您所見,該模型對不同于 COCO 訓練數據的圖像具有魯棒性。

結論

在這篇文章中,您學習了如何使用 TLT 中的 BodyPoseNet 應用程序訓練身體姿勢模型。這篇文章展示了從 NGC 獲取一個帶有預訓練主干的開源 COCO 數據集,用 TLT 訓練一個模型。要優化用于推理和部署的訓練模型,請參見 二維姿態估計模型的訓練與優化,第 2 部分 。

關于作者

Sakthivel Sivaraman 是 NVIDIA 的高級軟件工程師,專注于開發深度學習計算機視覺解決方案,并將其部署到邊緣。在 2018 參加“ ZVK3]之前,他從賓夕法尼亞大學獲得機器人學博士學位。他的研究興趣包括計算機視覺、深度學習和機器人技術。

Rajath Shetty 是 NVIDIA 的工程經理,負責在汽車和醫療保健領域應用深度學習和計算機視覺的項目。他的興趣涉及邊緣計算、算法人工智能應用軟件棧。他擁有喬治亞理工學院的電子和計算機工程碩士學位。

Chintan Shah 是 NVIDIA 的產品經理,專注于智能視頻分析解決方案的 AI 產品。他管理工具箱,用于有效的深度學習培訓和實時推理。在他之前的工作中,他正在為 NVIDIA GPU 開發硬件 IP 。他擁有北卡羅來納州立大學電氣工程碩士學位。

Niral Pathak 是 NVIDIA 的軟件工程師,致力于計算機視覺解決方案的部署。他擁有加州大學圣地亞哥分校電子和計算機工程碩士學位。他的興趣包括計算機視覺、深度學習和機器人技術。

審核編輯:郭婷

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    5598

    瀏覽量

    109803
  • 應用程序
    +關注

    關注

    38

    文章

    3344

    瀏覽量

    60278
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    有哪些常見的二維碼模組類型?

    二維碼模組是集成了掃描引擎、解碼芯片、光學組件的核心模塊(也叫二維碼模塊),可直接嵌入自助終端、工業PDA、智能閘機等設備,實現二維碼的快速識別與數據傳輸。其常見類型可按安裝方式、掃描
    的頭像 發表于 01-24 00:00 ?785次閱讀
    有哪些常見的<b class='flag-5'>二維</b>碼模組類型?

    瑞芯微(EASY EAI)RV1126B 二維碼識別

    1.二維碼識別簡介二維條碼/二維碼(2-dimensionalbarcode)是用某種特定的幾何圖形按一定規律在平面(二維方向上)分布的黑白相間的圖形記錄
    的頭像 發表于 01-19 10:18 ?3664次閱讀
    瑞芯微(EASY EAI)RV1126B <b class='flag-5'>二維</b>碼識別

    二維影像掃描引擎在門禁二維碼刷卡梯控行業中的應用

    在當今科技日新月異的時代,二維影像掃描引擎以其卓越的識別性能和廣泛的應用領域,成為了門禁系統中不可或缺的重要組成部分,尤其在二維碼刷卡梯控行業中展現出了非凡的價值。本文將深入探討二維影像掃描引擎在
    的頭像 發表于 12-17 15:42 ?355次閱讀
    <b class='flag-5'>二維</b>影像掃描引擎在門禁<b class='flag-5'>二維</b>碼刷卡梯控行業中的應用

    二維數組介紹

    大家不要認為二維數組在內存中就是按行、列這樣二維存儲的,實際上,不管二維、三數組… 都是編譯器的語法糖。 存儲上和一數組沒有本質區別,
    發表于 11-25 07:42

    中航光電推出二維FA光纖陣列組件

    中航光電研制的二維FA光纖陣列組件作為OCS光交換設備的關鍵組件,用于實現陣列光信號的輸入和輸出功能;該組件集成了二維光纖陣列和二維透鏡陣列,通過者的精確耦合對準,實現準直光束的穩定
    的頭像 發表于 09-10 18:19 ?2372次閱讀

    哪款二維碼模組適合嵌入戶外取餐柜,用于掃二維

    在智能取餐柜普及的當下,二維碼模組作為核心交互組件,其性能直接影響用戶體驗與設備穩定性。針對戶外場景的特殊需求,深圳遠景達物聯網推出的LV4300Pro系列二維碼模組,憑借工業級設計與場景化技術優化
    的頭像 發表于 09-10 15:00 ?630次閱讀
    哪款<b class='flag-5'>二維</b>碼模組適合嵌入戶外取餐柜,用于掃<b class='flag-5'>二維</b>碼

    【嘉楠堪智K230開發板試用體驗】+二維碼識別

    二維碼識別 二維碼識別本質上是一個通過圖像處理技術定位并矯正圖像中的二維碼區域,然后根據其特定編碼規則讀取黑白模塊的進制數據,并利用內置的
    發表于 08-22 20:16

    世界首臺非硅二維材料計算機問世 二維材料是什么?二維材料的核心特征解讀

    據外媒報道;美國賓夕法尼亞州立大學團隊在《自然》雜志發表研究成果,首次利用原子級厚度的二維材料(非硅)成功研制出功能完整的計算機,標志著新型電子設備開發的重要進展。這是一項突破性成果;首次利用二維
    的頭像 發表于 06-12 15:25 ?1705次閱讀

    基于STM32的二維碼識別源碼+二維碼解碼庫lib

    基于STM32的二維碼識別源碼+二維碼解碼庫lib,推薦下載!
    發表于 05-28 22:04

    基于STM32的二維碼識別源碼+二維碼解碼庫lib

    基于STM32的二維碼識別源碼+二維碼解碼庫lib項目實例下載! 純分享帖,需要者可點擊附件免費獲取完整資料~~~【免責聲明】本文系網絡轉載,版權歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權問題,請第一時間告知,刪除內容!
    發表于 05-23 20:45

    智能門禁新標配:嵌入式二維掃描頭的幾大核心優勢

    隨著智慧城市與物聯網技術的快速發展,嵌入式二維掃描頭正成為智能門禁系統的核心組件。其通過高效的數據采集與識別能力,推動傳統門禁向無卡化、智能化升級。本文將從技術原理與應用實踐出發,解析嵌入式二維掃描
    的頭像 發表于 05-19 13:51 ?514次閱讀
    智能門禁新標配:嵌入式<b class='flag-5'>二維</b>掃描頭的幾大核心優勢

    JCMsuite中對二維光柵的定義和仿真

    光柵是光衍射的周期性結構。它能把入射的光束衍射成幾束向不同方向發散的光束。 二維光柵 二維光柵在兩個水平方向上都具有周期性。存在兩個晶格矢量因此當幾何結構移位一個晶格矢量時, 下圖顯示了一個正方形
    發表于 05-19 08:53

    基于RK3576開發板的二維碼生成

    二維碼(QR Code)是一種比傳統條形碼存儲更多信息、支持更多數據類型的二維條碼,廣泛應用于移動設備。其尺寸從21x21到177x177不等,具備糾錯功能,采用Reed-Solomon算法。本文
    的頭像 發表于 05-10 15:19 ?1127次閱讀
    基于RK3576開發板的<b class='flag-5'>二維</b>碼生成

    海思SD3403邊緣計算AI數據訓練概述

    模型,將模型轉化為嵌入式AI模型,模型升級AI攝像機,進行AI識別應用。 AI訓練模型是不斷迭
    發表于 04-28 11:11

    二維碼讀取器是干嘛的

    二維碼讀取器(用于二維碼讀取的機器),作為一種現代化的自動識別技術設備,正日益滲透到我們生活的方方面面。從商場購物到物流配送,從醫療管理到工業生產線,二維碼讀取器憑借其高效、準確的讀取能力,發揮
    的頭像 發表于 03-17 15:57 ?1353次閱讀
    <b class='flag-5'>二維</b>碼讀取器是干嘛的