作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力
一,引言
隨著人工智能技術(shù)的快速發(fā)展,光學(xué)字符識(shí)別(OCR)技術(shù)已從傳統(tǒng)的模式識(shí)別方法演進(jìn)到基于深度學(xué)習(xí)的端到端解決方案。百度飛槳(PaddlePaddle)團(tuán)隊(duì)最新推出的PP-OCRv5模型在精度和效率上實(shí)現(xiàn)了顯著突破,結(jié)合Intel OpenVINO工具套件的硬件加速能力,能夠?yàn)楦黝愇臋n處理場(chǎng)景提供更強(qiáng)大的支持。

二,算力魔方簡(jiǎn)介
算力魔方是一款可以DIY的迷你主機(jī),采用了抽屜式設(shè)計(jì),后續(xù)組裝、升級(jí)、維護(hù)只需要拔插模塊。通過(guò)選擇不同算力的計(jì)算模塊,再搭配不同的 IO 模塊可以組成豐富的配置,適應(yīng)不同場(chǎng)景。
性能不夠時(shí),可以升級(jí)計(jì)算模塊提升算力;IO 接口不匹配時(shí),可以更換 IO 模塊調(diào)整功能,而無(wú)需重構(gòu)整個(gè)系統(tǒng)。
本文以下所有步驟將在帶有Intel i5-1165G7處理器的算力魔方上完成驗(yàn)證。
三,實(shí)施步驟
1,準(zhǔn)備工作
安裝Miniconda并創(chuàng)建虛擬環(huán)境:
conda create -n PP-OCRv5_OpenVINO python=3.11 #創(chuàng)建虛擬環(huán)境
conda activate PP-OCRv5_OpenVINO #激活虛擬環(huán)境
python -m pip install --upgrade pip #升級(jí)pip到最新版本
pip install -r requirements.txt # 安裝所需的軟件包


2,模型部署
下載并安裝PaddlePaddle 和 PaddleOCRpip install paddlepaddle #安裝
paddlepaddlepip install paddleocr #安裝
paddleocrpip install onnx==1.16.0 #安裝
onnxpaddleocr install_hpi_deps cpu #調(diào)用并運(yùn)行組件

3,下載PP-OCRv5_server 預(yù)訓(xùn)練模型
wget https://paddle-model-ecology.bj.bcebos.com/paddlex/official_inference_model/paddle3.0.0/PP-OCRv5_server_det_infer.tar && tar -xvf PP-OCRv5_server_det_infer.tar # 下載并解壓 PP-OCRv5_server_det 預(yù)訓(xùn)練模型
Wget https://paddle-model-ecology.bj.bcebos.com/paddlex/official_inference_model/paddle3.0.0/PP-OCRv5_server_rec_infer.tar && tar -xvf PP-OCRv5_server_rec_infer.tar # 下載并壓縮 PP-OCRv5_server_rec 預(yù)訓(xùn)練模型
wget https://paddle-model-ecology.bj.bcebos.com/paddlex/official_inference_model/paddle3.0.0/PP-LCNet_x1_0_doc_ori_infer.tar && tar -xvf PP-LCNet_x1_0_doc_ori_infer.tar # 下載并壓縮 PP-OCRv5_server_cls 預(yù)訓(xùn)練模型

4,將PP-OCRv5_server 模型導(dǎo)出至 ONNX
paddlex --paddle2onnx --paddle_model_dir ./PP-OCRv5_server_det_infer --onnx_model_dir ./PP-OCRv5_server_det_onnx# 將 PP-OCRv5_server_det 導(dǎo)出到 ONNX
paddlex --paddle2onnx --paddle_model_dir ./PP-OCRv5_server_rec_infer --onnx_model_dir ./PP-OCRv5_server_rec_onnx# 將 PP-OCRv5_server_rec 導(dǎo)出到 ONNX
paddlex --paddle2onnx --paddle_model_dir ./PP-LCNet_x1_0_doc_ori_infer --onnx_model_dir ./PP-OCRv5_server_cls_onnx# 將 PP-OCRv5_server_cls 導(dǎo)出到 ONNX

5,運(yùn)行腳本
要快速開始使用 PP-OCRv5_OpenVINO 項(xiàng)目,請(qǐng)執(zhí)行以下步驟:
python main.py --image_dir images/handwrite_en_demo.png #運(yùn)行python代碼調(diào)用推理
--det_model_dir PP-OCRv5_server_det_onnx/inference.onnx
--det_model_device CPU
--rec_model_dir PP-OCRv5_server_rec_onnx/inference.onnx
--rec_model_device CPU
后續(xù)程序會(huì)將識(shí)別到的文本結(jié)果直接打印到控制臺(tái)

視頻鏈接:基于算力魔方與PP-OCRv5的OpenVINO智能文檔識(shí)別方案 (qq.com)
四, 結(jié)論
本文詳細(xì)介紹了基于PP-OCRv5和OpenVINO的智能文檔信息提取解決方案的部署流程。新版本的PP-OCRv5在精度和速度上都有顯著提升,結(jié)合OpenVINO的硬件加速能力,能夠?qū)崿F(xiàn)高效的文檔處理。該方案特別適合需要處理大量文檔的企業(yè)場(chǎng)景,如金融票據(jù)識(shí)別、合同審核、檔案數(shù)字化等應(yīng)用。
如果你有更好的文章,歡迎投稿!
稿件接收郵箱:nami.liu@pasuntech.com
更多精彩內(nèi)容請(qǐng)關(guān)注“算力魔方?”!
審核編輯 黃宇
-
人工智能
+關(guān)注
關(guān)注
1813文章
49806瀏覽量
262195 -
OpenVINO
+關(guān)注
關(guān)注
0文章
117瀏覽量
723 -
DeepSeek
+關(guān)注
關(guān)注
2文章
826瀏覽量
2858
發(fā)布評(píng)論請(qǐng)先 登錄
PP-OCRv3優(yōu)化策略詳細(xì)解讀
基于C#和OpenVINO?在英特爾獨(dú)立顯卡上部署PP-TinyPose模型
使用OpenVINO C# API輕松部署飛槳PP-OCRv4模型
使用OpenVINO優(yōu)化并部署飛槳PP-OCRv4模型
用ROCm部署PP-StructureV3到AMD GPU上
【EASY EAI Orin Nano開發(fā)板試用體驗(yàn)】PP-OCRV5文字識(shí)別實(shí)例搭建與移植
使用OpenVINO?在算力魔方上加速stable diffusion模型
使用OpenVINO 2024.4在算力魔方上部署Llama-3.2-1B-Instruct模型
基于算力魔方的智能文檔信息提取方案
一鍵搞定!PP-OCRv5模型轉(zhuǎn)ONNX格式全攻略,解鎖多平臺(tái)無(wú)縫部署
使用OpenVINO將PP-OCRv5模型部署在Intel顯卡上

基于算力魔方與PP-OCRv5的OpenVINO智能文檔識(shí)別方案
評(píng)論