国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

NVIDIA Triton 系列文章(7):image_client 用戶端參數

NVIDIA英偉達企業解決方案 ? 來源:未知 ? 2022-12-06 19:55 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作為服務器的最重要任務,就是要接受來自不同終端所提出的各種請求,然后根據要求執行對應的計算,再將計算結果返回給終端。

當 Triton 推理服務器運行起來之后,就進入等待請求的狀態,因此我們所要提出的請求內容,就必須在用戶端軟件里透過參數去調整請求的內容,這部分在 Triton 相關使用文件中并沒有提供充分的說明,因此本文的重點就在于用Python 版的 image_client.py 來說明相關參數的內容,其他用戶端的參數基本上與這個端類似,可以類比使用。

本文的實驗內容,是將 Triton 服務器安裝在 IP 為 192.168.0.10 的 Jetson AGX Orin 上,將 Triton 用戶端裝在 IP 為 192.168.0.20 的樹莓派上,讀者可以根據已有的設備資源自行調配。

在開始進行實驗之前,請先確認以下兩個部分的環境:

  • 在服務器設備上啟動 Triton 服務器,并處于等待請求的狀態:


如果還沒啟動的話,請直接執行以下指令:

# 根據實際的模型倉根目錄位置設定TRITON_MODEL_REPO路徑
$ export TRITON_MODEL_REPO=${HOME}/triton/server/docs/examples/model_repository
執行Triton服務器
$ dockerrun--rm--net=host-v${TRITON_MODEL_REPO}:/modelsnvcr.io/nvidia/tritonserver:22.09-py3tritonserver--model-repository=/models
  • 在用戶端設備下載 Python 的用戶端范例,并提供若干張要檢測的圖片:

先執行以下指令,確認Triton服務器已經正常啟動,并且從用戶端設備可以訪問:

$  curl -v 192.168.0.10:8000/v2/health/ready

只要后面出現的信息中有“HTTP/1.1 200 OK”部分,就表示一切正常。

如果還沒安裝 Triton 的 Python 用戶端環境,并且還未下載用戶端范例的話,請執行以下指令:

$  cd ${HOME}/triton
$ git clone https://github.com/triton-inference-server/client
$ cd client/src/python/examples
# 安裝 Triton 的 Python用戶端環境
$ pip3installtritonclient[all]attrdict-ihttps://pypi.tuna.tsinghua.edu.cn/simple

最后記得在用戶端設備上提供幾張圖片,并且放置在指定文件夾(例如~/images)內,準備好整個實驗環境,就可以開始下面的說明。

現在執行以下指令,看一下 image_client 這個終端的參數列表:

$  python3 image_client.py

會出現以下的信息:

接下來就來說明這些參數的用途與用法。

  1. 用“-u”參數對遠程服務器提出請求:


如果用戶端與服務器端并不在同一臺機器上的時候,就可以用這個參數對遠程 Triton 服務器提出推理請求,請執行以下指令:

$  python3 image_client.py  -m  inception_graphdef  -u 192.168.0.10:8000  -s INCEPTION ${HOME}/images/mug.jpg

由于 Triton 的跨節點請求主要透過 HTTP/REST 協議處理,需要透過 8000 端口進行傳輸,因此在“-u”后面需要接上“IP:8000”就能正常使用。

請自行檢查回饋的計算結果是否正確!

2. 用“-m”參數去指推理模型:

從“python3 image_client.py”所產生信息的最后部分,可以看出用“-m”參數去指定推理模型是必須的選項,但是可以指定哪些推理模型呢?就得從 Triton 服務器的啟動信息中去尋找答案。

下圖是本范例是目前啟動的 Triton 推理服務器所支持的模型列表:

這里顯示有的 8 個推理模型,就是啟動服務器時使用“--model-repository=”參數指定的模型倉內容,因此客戶端使用“-m”參數指定的模型,必須是在這個表所列的內容之列,例如“-mdensenet_onnx”、“-m inception_graphdef”等等。

現在執行以下兩道指令,分別看看使用不同模型所得到的結果有什么差異:

$  python3 image_client.py  -m densenet_onnx  -u 192.168.0.10:8000  -s INCEPTION ${HOME}/images/mug.jpg
$ python3image_client.py-minception_graphdef-u192.168.0.10:8000-sINCEPTION${HOME}/images/mug.jpg

使用 densenet_onnx 模型與 inception_graphdef 模型所返回的結果,分別如下:

雖然兩個模型所得到的檢測結果一致,但是二者所得到的置信度表達方式并不相同,而且標簽編號并不一樣(504 與 505)。

這個參數后面還可以使用“-x”去指定“版本號”,不過目前所使用的所有模型都只有一個版本,因此不需要使用這個參數。

3. 使用“-s”參數指定圖像縮放方式:

有些神經網絡算法在執行推理之前,需要對圖像進行特定形式的縮放(scaling)處理,因此需要先用這個參數指定縮放的方式,如果沒有指定正確的模式,會導致推理結果的錯誤。目前這個參數支持{NONE, INSPECTION, VGG}三個選項,預設值為“NONE”。

在本實驗 Triton 推理服務器所支持的 densenet_onnx 與 inception_graphdef 模型,都需要選擇 INSPECTION 縮放方式,因此執行指令中需要用“-s INSPECTION”去指定,否則會得到錯誤的結果。

請嘗試以下指令,省略前面指定中的“-s INSPECTION”,或者指定為 VGG 模式,看看結果如何?

$  python3 image_client.py  -m inception_graphdef -u 192.168.0.10:8000  -s VGG ${HOME}/images/mug.jpg

4. 對文件夾所有圖片進行推理

如果有多個要進行推理計算的標的物(圖片),Triton 用戶端可用文件夾為單位來提交要推理的內容,例如以下指令就能一次對 ${HOME}/images 目錄下所有圖片進行推理:

$  python3 image_client.py  -m  inception_graphdef  -u 192.168.0.10:8000  -s INCEPTION ${HOME}/images

例如我們在文件夾中準備了 car.jpg、mug.jpg、vulture.jpg 三種圖片,如下:

執行后反饋的結果如下:

顯示推理檢測的結果是正確的!

5. 用“-b”參數指定批量處理的值

執行前面指令的結果可以看到“batch size 1”,表示用戶端每次提交一張圖片進行推理,所以出現 Request1、Request 2 與 Request 3 總共提交三次請求。

現在既然有 3 張圖片,可否一次提交 3 張圖片進行推理呢?我們可以用“-b”參數來設定,如果將前面的指令中添加“-b3”這個參數,如下:

$  python3 image_client.py  -m  inception_graphdef  -u 192.168.0.10:8000  -s INCEPTION ${HOME}/images  -b 3

現在顯示的結果如下:

現在看到只提交一次“batch size 3”的請求,就能對三張圖片進行推理。如果 batch 值比圖片數量大呢?例如改成“-b 5”的時候,看看結果如何?如下:

現在可以看到所推理的圖片數量是 5,其中 1/4、2/5 是同一張圖片,表示重復使用了。這樣就應該能清楚這個“batchsize”值的使用方式。

但如果這里將模型改成 densenet_onnx 的時候,執行以下指令:

$  python3 image_client.py  -m  densenet_onnx  -u 192.168.0.10:8000  -s INCEPTION ${HOME}/images  -b 3

會得到“ERROR: This model doesn't support batching.”的錯誤信息,這時候就回頭檢查以下模型倉里 densenet_onnx 目錄下的 config.pbtxt 配置文件,會發現里面設置了“max_batch_size: 0”,并不支持批量處理。

而 inception_graphdef 模型的配置文件里設置“max_batch_size: 128”,如果指令給定“-b”參數大于這個數值,也會出現錯誤信息。

6. 其他:

另外還有指定通訊協議的“-i”參數、使用異步推理 API 的“-a”參數、使用流式推理 API 的“--streaming”參數等等,屬于較進階的用法,在這里先不用過度深入。

以上所提供的 5 個主要參數,對初學者來說是非常足夠的,好好掌握這幾個參數就已經能開始進行更多圖像方面的推理實驗。

推薦閱讀

NVIDIA Jetson Nano 2GB 系列文章(1):開箱介紹

NVIDIA Jetson Nano 2GB 系列文章(2):安裝系統

NVIDIA Jetson Nano 2GB 系列文章(3):網絡設置及添加 SWAPFile 虛擬內存

NVIDIA Jetson Nano 2GB 系列文章(4):體驗并行計算性能

NVIDIA Jetson Nano 2GB 系列文章(5):體驗視覺功能庫



NVIDIA Jetson Nano 2GB 系列文章(6):安裝與調用攝像頭


NVIDIA Jetson Nano 2GB 系列文章(7):通過 OpenCV 調用 CSI/USB 攝像頭

NVIDIA Jetson Nano 2GB 系列文章(8):執行常見機器視覺應用


NVIDIA Jetson Nano 2GB 系列文章(9):調節 CSI 圖像質量

NVIDIA Jetson Nano 2GB 系列文章(10):顏色空間動態調節技巧

NVIDIA Jetson Nano 2GB 系列文章(11):你應該了解的 OpenCV

NVIDIA Jetson Nano 2GB 系列文章(12):人臉定位


NVIDIA Jetson Nano 2GB 系列文章(13):身份識別


NVIDIA Jetson Nano 2GB 系列文章(14):Hello AI World

NVIDIA Jetson Nano 2GB 系列文章(15):Hello AI World 環境安裝


NVIDIA Jetson Nano 2GB 系列文章(16):10行代碼威力



NVIDIA Jetson Nano 2GB 系列文章(17):更換模型得到不同效果

NVIDIA Jetson Nano 2GB 系列文章(18):Utils 的 videoSource 工具

NVIDIA Jetson Nano 2GB 系列文章(19):Utils 的 videoOutput 工具

NVIDIA Jetson Nano 2GB 系列文章(20):“Hello AI World” 擴充參數解析功能

NVIDIA Jetson Nano 2GB 系列文章(21):身份識別

NVIDIA Jetson Nano 2GB 系列文章(22):“Hello AI World” 圖像分類代碼

NVIDIA Jetson Nano 2GB 系列文章(23):“Hello AI World 的物件識別應用

NVIDIAJetson Nano 2GB 系列文章(24): “Hello AI World” 的物件識別應用

NVIDIAJetson Nano 2GB 系列文章(25): “Hello AI World” 圖像分類的模型訓練

NVIDIAJetson Nano 2GB 系列文章(26): “Hello AI World” 物件檢測的模型訓練

NVIDIAJetson Nano 2GB 系列文章(27): DeepStream 簡介與啟用

NVIDIAJetson Nano 2GB 系列文章(28): DeepStream 初體驗

NVIDIAJetson Nano 2GB 系列文章(29): DeepStream 目標追蹤功能

NVIDIAJetson Nano 2GB 系列文章(30): DeepStream 攝像頭“實時性能”

NVIDIAJetson Nano 2GB 系列文章(31): DeepStream 多模型組合檢測-1

NVIDIAJetson Nano 2GB 系列文章(32): 架構說明與deepstream-test范例

NVIDIAJetsonNano 2GB 系列文章(33): DeepStream 車牌識別與私密信息遮蓋

NVIDIA Jetson Nano 2GB 系列文章(34): DeepStream 安裝Python開發環境

NVIDIAJetson Nano 2GB 系列文章(35): Python版test1實戰說明

NVIDIAJetson Nano 2GB 系列文章(36): 加入USB輸入與RTSP輸出

NVIDIAJetson Nano 2GB 系列文章(37): 多網路模型合成功能

NVIDIAJetson Nano 2GB 系列文章(38): nvdsanalytics視頻分析插件

NVIDIAJetson Nano 2GB 系列文章(39): 結合IoT信息傳輸

NVIDIAJetson Nano 2GB 系列文章(40): Jetbot系統介紹

NVIDIAJetson Nano 2GB 系列文章(41): 軟件環境安裝

NVIDIAJetson Nano 2GB 系列文章(42): 無線WIFI的安裝與調試

NVIDIAJetson Nano 2GB 系列文章(43): CSI攝像頭安裝與測試

NVIDIAJetson Nano 2GB 系列文章(44): Jetson的40針引腳

NVIDIAJetson Nano 2GB 系列文章(45): I2C總線與PiOLED

NVIDIAJetson Nano 2GB 系列文章(46): 機電控制設備的安裝

NVIDIAJetson Nano 2GB 系列文章(47): 組裝過程的注意細節

NVIDIAJetson Nano 2GB 系列文章(48): 用鍵盤與搖桿控制行動

NVIDIAJetson Nano 2GB 系列文章(49): 智能避撞之現場演示

NVIDIAJetson Nano 2GB 系列文章(50): 智能避障之模型訓練

NVIDIAJetson Nano 2GB 系列文章(51): 圖像分類法實現找路功能

NVIDIAJetson Nano 2GB 系列文章(52): 圖像分類法實現找路功能

NVIDIAJetson Nano 2GB 系列文章(53): 簡化模型訓練流程的TAO工具套件

NVIDIA Jetson Nano 2GB 系列文章(54):NGC的內容簡介與注冊密鑰

NVIDIA Jetson Nano 2GB 系列文章(55):安裝TAO模型訓練工具

NVIDIA Jetson Nano 2GB 系列文章(56):啟動器CLI指令集與配置文件

NVIDIA Jetson Nano 2GB 系列文章(57):視覺類腳本的環境配置與映射

NVIDIA Jetson Nano 2GB 系列文章(58):視覺類的數據格式

NVIDIA Jetson Nano 2GB 系列文章(59):視覺類的數據增強

NVIDIA Jetson Nano 2GB 系列文章(60):圖像分類的模型訓練與修剪

NVIDIA Jetson Nano 2GB 系列文章(61):物件檢測的模型訓練與優化

NVIDIA Jetson Nano 2GB 系列文章(62):物件檢測的模型訓練與優化-2

NVIDIA Jetson Nano 2GB 系列文章(63):物件檢測的模型訓練與優化-3

NVIDIA Jetson Nano 2GB 系列文章(64):將模型部署到Jetson設備

NVIDIA Jetson Nano 2GB 系列文章(65):執行部署的 TensorRT 加速引擎

NVIDIA Jetson 系列文章(1):硬件開箱

NVIDIA Jetson 系列文章(2):配置操作系統

NVIDIA Jetson 系列文章(3):安裝開發環境

NVIDIA Jetson 系列文章(4):安裝DeepStream

NVIDIA Jetson 系列文章(5):使用Docker容器的入門技巧

NVIDIA Jetson 系列文章(6):使用容器版DeepStream

NVIDIA Jetson 系列文章(7):配置DS容器Python開發環境

NVIDIA Jetson 系列文章(8):用DS容器執行Python范例

NVIDIA Jetson 系列文章(9):為容器接入USB攝像頭

NVIDIA Jetson 系列文章(10):從頭創建Jetson的容器(1)

NVIDIA Jetson 系列文章(11):從頭創建Jetson的容器(2)

NVIDIA Jetson 系列文章(12):創建各種YOLO-l4t容器

NVIDIA Triton系列文章(1):應用概論

NVIDIA Triton系列文章(2):功能與架構簡介

NVIDIA Triton系列文章(3):開發資源說明

NVIDIA Triton系列文章(4):創建模型倉

NVIDIA Triton 系列文章(5):安裝服務器軟件

NVIDIA Triton 系列文章(6):安裝用戶端軟件


原文標題:NVIDIA Triton 系列文章(7):image_client 用戶端參數

文章出處:【微信公眾號:NVIDIA英偉達企業解決方案】歡迎添加關注!文章轉載請注明出處。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 英偉達
    +關注

    關注

    23

    文章

    4087

    瀏覽量

    99215

原文標題:NVIDIA Triton 系列文章(7):image_client 用戶端參數

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業解決方案】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    借助NVIDIA CUDA Tile IR后端推進OpenAI Triton的GPU編程

    NVIDIA CUDA Tile 是基于 GPU 的編程模型,其設計目標是為 NVIDIA Tensor Cores 提供可移植性,從而釋放 GPU 的極限性能。CUDA Tile 的一大優勢是允許開發者基于其構建自定義的 DSL。
    的頭像 發表于 02-10 10:31 ?252次閱讀

    超擎數智為您深度解析NVIDIA Quantum-X800 InfiniBand平臺

    NVIDIA
    專精特新
    發布于 :2026年01月08日 19:47:03

    電話光端機選廣州郵科靠譜嗎?局端和用戶端到底有什么區別?能混用嗎?一文全解答!

    在專網通信、交通監控、電力調度等場景中,電話光端機依然是保障語音業務穩定傳輸的重要設備。隨著光纖網絡的普及,越來越多用戶開始關注: 電話光端機 選廣州郵科怎么樣?局端和用戶端究竟有何不同?它們能不能
    的頭像 發表于 12-26 11:10 ?382次閱讀
    電話光端機選廣州郵科靠譜嗎?局端和<b class='flag-5'>用戶端</b>到底有什么區別?能混用嗎?一文全解答!

    面向科學仿真的開放模型系列NVIDIA Apollo正式發布

    用于加速工業和計算工程的開放模型系列 NVIDIA Apollo 于近日舉行的 SC25 大會上正式發布。
    的頭像 發表于 11-25 11:15 ?7.4w次閱讀

    NVIDIA DGX Spark平臺上對NVIDIA ConnectX-7 200G網卡配置教程

    NVIDIA DGX Spark 平臺上對 NVIDIA ConnectX-7 200G 網卡進行配置時,會遇到“4 個邏輯端口”現象。理解背后的真相是后續所有配置的基礎。本文將從此現象入手,逐步解析其原理,并提供從基礎配置
    的頭像 發表于 11-21 09:19 ?5422次閱讀
    在<b class='flag-5'>NVIDIA</b> DGX Spark平臺上對<b class='flag-5'>NVIDIA</b> ConnectX-<b class='flag-5'>7</b> 200G網卡配置教程

    umqtt_deliver_message 用戶端注冊執行函數的回調,用戶端的消息回調函數沒有被執行到,為什么?

    加了兩個topic比對的打印,也進入到回到了,就是注冊的函數沒有被執行到 2.發送服務是能夠被正常的接收到的.這個是開debug時候的打印,不開debug一點消息也沒有 3.有沒有遇到類似的問題的?
    發表于 10-09 06:09

    光纜怎么分ab

    、基站等)。 B:光纜的終止,通常連接接收設備(如終端盒、用戶端等)。 作用: 確保光纖對(如TX-RX)正確配對,避免信號反射或丟失。 在環形網絡或雙纖鏈路中,AB區分可防止光
    的頭像 發表于 09-28 09:38 ?1986次閱讀

    NVIDIA桌面GPU系列擴展新產品

    NVIDIA 桌面 GPU 系列擴展,推出 NVIDIA RTX PRO 4000 SFF Edition GPU 和 RTX PRO 2000 Blackwell GPU,可提高工程、內容創作和 3D 可視化等應用的性能。
    的頭像 發表于 08-18 11:50 ?1423次閱讀

    如何本地部署NVIDIA Cosmos Reason-1-7B模型

    近日,NVIDIA 開源其物理 AI 平臺 NVIDIA Cosmos 中的關鍵模型——NVIDIA Cosmos Reason-1-7B。這款先進的多模態大模型能夠理解視頻、進行物理
    的頭像 發表于 07-09 10:17 ?823次閱讀

    使用NVIDIA Triton和TensorRT-LLM部署TTS應用的最佳實踐

    針對基于 Diffusion 和 LLM 類別的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能顯著提升推理速度。在單張 NVIDIA Ada Lovelace
    的頭像 發表于 06-12 15:37 ?1891次閱讀
    使用<b class='flag-5'>NVIDIA</b> <b class='flag-5'>Triton</b>和TensorRT-LLM部署TTS應用的最佳實踐

    普密斯IMAGE 3系列:珠寶加工行業的尺寸測量新寵

    普密斯?IMAGE?3?系列圖像尺寸測量儀憑借其適應珠寶材質的先進技術、高精度的測量能力和高效的檢測流程,為珠寶加工行業的尺寸測量提供了全方位的解決方案。
    的頭像 發表于 06-11 08:59 ?655次閱讀
    普密斯<b class='flag-5'>IMAGE</b> 3<b class='flag-5'>系列</b>:珠寶加工行業的尺寸測量新寵

    Acrel-3000峰平谷用電量統計電能計量管理系統

    功能概述: 用戶端消耗著整個電網80%的電能,用戶端智能化用電管理對用戶可靠、安全、節約用電有十分重要的意義。構建智能用電服務體系,全面推廣用戶端智能儀表、智能用電管理終端等設備用電管
    的頭像 發表于 05-28 14:08 ?490次閱讀
    Acrel-3000峰平谷用電量統計電能計量管理系統

    ServiceNow攜手NVIDIA構建150億參數超級助手

    Apriel Nemotron 15B 開源大語言模型 (LLM) 使用 NVIDIA NeMo、NVIDIA Llama Nemotron 開放數據集以及 ServiceNow 專業領域數據創建而成,并在 NVIDIA DGX
    的頭像 發表于 05-12 15:37 ?930次閱讀

    如何在Ubuntu上安裝NVIDIA顯卡驅動?

    專有顯卡驅動。本文將詳細介紹在Ubuntu系統上安裝NVIDIA顯卡驅動的多種方法,幫助用戶根據自身情況選擇最適合的安裝方式。 二,硬件參數 平臺:PX22_GPU CPU:I7-1165G7
    的頭像 發表于 05-07 16:05 ?2513次閱讀
    如何在Ubuntu上安裝<b class='flag-5'>NVIDIA</b>顯卡驅動?

    image.Image為什么無法創建圖像?

    運行的測試代碼如下: import lcd import image import time img = image.Image(size=(320, 240), color=(255, 255
    發表于 04-29 06:02