国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

物件檢測(cè)模型訓(xùn)練的詳細(xì)過(guò)程

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來(lái)源:NVIDIA英偉達(dá)企業(yè)解決方案 ? 作者:NVIDIA英偉達(dá)企業(yè)解 ? 2022-05-20 17:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

當(dāng)前面已經(jīng)訓(xùn)練好修剪過(guò)的模型之后,接下來(lái)就可以在訓(xùn)練設(shè)備上先執(zhí)行推理計(jì)算,看看檢測(cè)的效果如何?如果實(shí)際推理結(jié)果并不理想的話,就得回到前面第 6 步驟重新再執(zhí)行一次。

9、執(zhí)行推理并查看結(jié)果

首先創(chuàng)建一個(gè) test_samples 目錄,然后從數(shù)據(jù)集中 testing/image_2 中復(fù)制一些圖像過(guò)來(lái)測(cè)試,推理結(jié)果輸出到 ssd_infer_images 目錄下,這個(gè)推理計(jì)算也可以使用未修剪的模型來(lái)進(jìn)行測(cè)試。

在代碼框 “!tao ssd inference” 后面所提供的參數(shù)中,下面兩行是使用修剪后并重新訓(xùn)練的模型來(lái)進(jìn)行推理。

-e $SPECS_DIR/ssd_retrain_resnet18_kitti.txt  -m$USER_EXPERIMENT_DIR/experiment_dir_retrain/weights/ssd_resnet18_epoch_$EPOCH.tlt

如果將這兩行參數(shù)改成下面內(nèi)容,就是用原始模型來(lái)進(jìn)行推理。

-e $SPECS_DIR/ssd_train_resnet18_kitti.txt  -m$USER_EXPERIMENT_DIR/experiment_dir_unpruned/weights/ssd_resnet18_epoch_$EPOCH.tlt

這樣我們可以執(zhí)行透過(guò)推理結(jié)果,來(lái)查看二者的不同。下面兩張圖分別是未修剪(上)與修剪后(下)模型推理結(jié)果的局部放大,雖然修剪后的模型效果不如未修剪的,但是執(zhí)行結(jié)果還是令人滿(mǎn)意,當(dāng)然這得看您的要求有多高。

如果認(rèn)可這個(gè)推理結(jié)果的話,那么訓(xùn)練階段的任務(wù)就可以告一段落,接下去就準(zhǔn)備將模型導(dǎo)出,以便部署到真實(shí)的推理設(shè)備上。

10、導(dǎo)出模型

要執(zhí)行這個(gè)步驟,最好先確認(rèn)您的推理設(shè)備上所能支持的數(shù)據(jù)精度,特別是 INT8 類(lèi)型,例如 Jetson Nano (含 2GB)、TX2/TX1就不支持,Xavier NX 與 AGX Xavier 是支持的。臺(tái)式機(jī)上的游戲卡一般不支持 INT8,而 Tesla、Quadro 專(zhuān)業(yè)卡是支持的,不過(guò) NVIDIA 全系列產(chǎn)品都支持 FP16,如果不能確認(rèn)這方面的信息,至少選擇 FP16 是比較穩(wěn)妥。

簡(jiǎn)單說(shuō)明一下代碼框 “!tao ssd export” 后面的參數(shù):

6260cd2e-d5d7-11ec-bce3-dac502259ad0.jpg

假如要輸出 INT8 模型時(shí),由于需要特殊算法以及輔助的校準(zhǔn)工具,因此需要其他參數(shù)來(lái)協(xié)助這類(lèi)模型的導(dǎo)出,主要如下:

6298af50-d5d7-11ec-bce3-dac502259ad0.jpg

這樣就能完成 INT8 模型的輸出任務(wù)。

到這里所輸出的 .etlt 模型文件基本上已經(jīng)可以部署到 DeepStream 推理設(shè)備上使用,因?yàn)?DeepStream 支持 .etlt 格式的調(diào)用,相當(dāng)方便。但如果要用其他獨(dú)立的 TensorRT 來(lái)執(zhí)行加速推理的話,就需要在推理設(shè)備上再進(jìn)行一次的轉(zhuǎn)換。

本步驟最后一個(gè)代碼塊 “!tao converter” 就是在訓(xùn)練設(shè)備上,將 .etlt 模型轉(zhuǎn)成這臺(tái)機(jī)器能使用的 TensorRT 引擎文件。由于參數(shù)內(nèi)容較多,這里不一一列舉,請(qǐng)自行至https://docs.nvidia.com/tao/tao-toolkit/text/object_detection/ssd.html搜索 “Using the tao-converter” 環(huán)節(jié),有詳細(xì)的參數(shù)說(shuō)明。

要注意的一點(diǎn),在 “!tao converter 所使用的“-t 指定數(shù)據(jù)精度部分,需要與前面 !tao ssd export--data_type 一致,否則會(huì)失去效果。

11、驗(yàn)證部署模型的效果

這個(gè)步驟是驗(yàn)證 TensorRT 加速引擎的推理效果,主要讓我們?cè)诓渴鸬酵评碓O(shè)備之前,能再確認(rèn)一下推理效果

下面同樣提供兩張推理結(jié)果參照?qǐng)D,上圖是未修剪的模型轉(zhuǎn)成 TensorRT 引擎的推理結(jié)果,下圖是修剪過(guò)的模型轉(zhuǎn)成 TensorRT 引擎的推理結(jié)果,效果看起來(lái)是一樣的,表示這個(gè)修剪過(guò)的模型還是足夠好的。

現(xiàn)在就完成一個(gè)物件檢測(cè)模型訓(xùn)練的過(guò)程,雖然看起來(lái)繁瑣,但是只要我們弄清楚一開(kāi)始的路徑對(duì)應(yīng),以及熟練后面每個(gè)環(huán)節(jié)的參數(shù)用法,基本上要比在框架中自行撰寫(xiě)代碼容易得多了,除了收集與整理數(shù)據(jù)的工作是 TAO 工具無(wú)法協(xié)助的,其余部分已經(jīng)都為大家提供好完整的指令塊,這是一個(gè)真正 “Zero Coding” 的全方位模型訓(xùn)練工具。

原文標(biāo)題:NVIDIA Jetson Nano 2GB 系列文章(63):物件檢測(cè)的模型訓(xùn)練與優(yōu)化-3

文章出處:【微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

審核編輯:湯梓紅
聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5594

    瀏覽量

    109778
  • 檢測(cè)
    +關(guān)注

    關(guān)注

    5

    文章

    4863

    瀏覽量

    94164
  • 模型訓(xùn)練
    +關(guān)注

    關(guān)注

    0

    文章

    21

    瀏覽量

    1546

原文標(biāo)題:NVIDIA Jetson Nano 2GB 系列文章(63):物件檢測(cè)的模型訓(xùn)練與優(yōu)化-3

文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何訓(xùn)練自己的AI模型——RT-Thread×富瀚微FH8626V300L模型訓(xùn)練部署教程 | 技術(shù)集結(jié)

    面對(duì)消費(fèi)電子中紛繁的智能檢測(cè)需求,如何讓算法持續(xù)進(jìn)化?富瀚微最新發(fā)布的FH86X6V300芯片AI訓(xùn)練教程,以FH8626V300L為硬件核心,手把手帶您走通從模型訓(xùn)練到端側(cè)部署的完整
    的頭像 發(fā)表于 02-09 11:51 ?392次閱讀
    如何<b class='flag-5'>訓(xùn)練</b>自己的AI<b class='flag-5'>模型</b>——RT-Thread×富瀚微FH8626V300L<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>部署教程 | 技術(shù)集結(jié)

    訓(xùn)練到推理:大模型算力需求的新拐點(diǎn)已至

    在大模型產(chǎn)業(yè)發(fā)展的早期階段,行業(yè)焦點(diǎn)主要集中在大模型訓(xùn)練所需的算力投入。一個(gè)萬(wàn)億參數(shù)大模型訓(xùn)練可能需要數(shù)千張GPU芯片連續(xù)運(yùn)行數(shù)月,成本高
    的頭像 發(fā)表于 02-05 16:07 ?821次閱讀
    從<b class='flag-5'>訓(xùn)練</b>到推理:大<b class='flag-5'>模型</b>算力需求的新拐點(diǎn)已至

    RA8P1部署ai模型指南:從訓(xùn)練模型到部署?|?本周六

    在嵌入式邊緣AI中,如何把“訓(xùn)練好的模型”穩(wěn)定地“跑在板子上”,決定了項(xiàng)目能否落地。我們帶你基于RA8P1平臺(tái),跑通從數(shù)據(jù)準(zhǔn)備、模型訓(xùn)練、量化轉(zhuǎn)換,到工程部署的整個(gè)流程,幫助你快速實(shí)現(xiàn)
    的頭像 發(fā)表于 11-20 18:06 ?2087次閱讀
    RA8P1部署ai<b class='flag-5'>模型</b>指南:從<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>模型</b>到部署?|?本周六

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    , batch_size=512, epochs=20)總結(jié) 這個(gè)核心算法中的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)和訓(xùn)練過(guò)程,是用來(lái)對(duì)MNIST手寫(xiě)數(shù)字圖像進(jìn)行分類(lèi)的。模型將圖像作為輸入,通過(guò)卷積和池化層提取圖像的特征,然后通過(guò)全連接層進(jìn)行分類(lèi)預(yù)測(cè)。訓(xùn)練
    發(fā)表于 10-22 07:03

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?文件保存路徑里也沒(méi)有中文 查看AICube/AI_Cube.log,看看報(bào)什么錯(cuò)?
    發(fā)表于 07-30 08:15

    make sence成的XML文件能上傳到自助訓(xùn)練模型上嗎?

    make sence成的XML文件能上傳到自助訓(xùn)練模型上嗎
    發(fā)表于 06-23 07:38

    請(qǐng)問(wèn)嘉楠平臺(tái)k230訓(xùn)練的跌倒檢測(cè)模型里面的設(shè)置是怎么樣的?

    我想要了解K230所使用的跌倒檢測(cè)模型中的設(shè)置,例如人體檢測(cè)是如何實(shí)現(xiàn)的,在模型檢測(cè)中,人體的節(jié)點(diǎn)是多少。或者想請(qǐng)教一下相關(guān)的文檔或者內(nèi)容在
    發(fā)表于 06-23 07:05

    海思SD3403邊緣計(jì)算AI數(shù)據(jù)訓(xùn)練概述

    模型,將模型轉(zhuǎn)化為嵌入式AI模型模型升級(jí)AI攝像機(jī),進(jìn)行AI識(shí)別應(yīng)用。 AI訓(xùn)練模型是不斷迭
    發(fā)表于 04-28 11:11

    恩智浦eIQ Time Series Studio工具使用教程之模型訓(xùn)練

    大家好,eIQ Time SeriesStudio又和大家見(jiàn)面啦!本章為大家?guī)?lái)工具核心部分-模型訓(xùn)練
    的頭像 發(fā)表于 03-25 15:25 ?1721次閱讀
    恩智浦eIQ Time Series Studio工具使用教程之<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>

    請(qǐng)問(wèn)如何在imx8mplus上部署和運(yùn)行YOLOv5訓(xùn)練模型

    我正在從事 imx8mplus yocto 項(xiàng)目。我已經(jīng)在自定義數(shù)據(jù)集上的 YOLOv5 上訓(xùn)練了對(duì)象檢測(cè)模型。它在 ubuntu 電腦上運(yùn)行良好。現(xiàn)在我想在我的 imx8mplus 板上運(yùn)行該
    發(fā)表于 03-25 07:23

    數(shù)據(jù)標(biāo)注服務(wù)—奠定大模型訓(xùn)練的數(shù)據(jù)基石

    數(shù)據(jù)標(biāo)注是大模型訓(xùn)練過(guò)程中不可或缺的基礎(chǔ)環(huán)節(jié),其質(zhì)量直接影響著模型的性能表現(xiàn)。在大模型訓(xùn)練中,數(shù)據(jù)標(biāo)注承擔(dān)著將原始數(shù)據(jù)轉(zhuǎn)化為機(jī)器可理解、可學(xué)
    的頭像 發(fā)表于 03-21 10:30 ?3322次閱讀

    標(biāo)貝數(shù)據(jù)標(biāo)注服務(wù):奠定大模型訓(xùn)練的數(shù)據(jù)基石

    數(shù)據(jù)標(biāo)注是大模型訓(xùn)練過(guò)程中不可或缺的基礎(chǔ)環(huán)節(jié),其質(zhì)量直接影響著模型的性能表現(xiàn)。在大模型訓(xùn)練中,數(shù)據(jù)標(biāo)注承擔(dān)著將原始數(shù)據(jù)轉(zhuǎn)化為機(jī)器可理解、可學(xué)
    的頭像 發(fā)表于 03-21 10:27 ?1117次閱讀
    標(biāo)貝數(shù)據(jù)標(biāo)注服務(wù):奠定大<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>的數(shù)據(jù)基石

    利用RAKsmart服務(wù)器托管AI模型訓(xùn)練的優(yōu)勢(shì)

    AI模型訓(xùn)練需要強(qiáng)大的計(jì)算資源、高效的存儲(chǔ)和穩(wěn)定的網(wǎng)絡(luò)支持,這對(duì)服務(wù)器的性能提出了較高要求。而RAKsmart服務(wù)器憑借其核心優(yōu)勢(shì),成為托管AI模型訓(xùn)練的理想選擇。下面,AI部落小編為
    的頭像 發(fā)表于 03-18 10:08 ?701次閱讀

    憶聯(lián)PCIe 5.0 SSD支撐大模型全流程訓(xùn)練

    當(dāng)前,大模型全流程訓(xùn)練對(duì)數(shù)據(jù)存儲(chǔ)系統(tǒng)的要求已突破傳統(tǒng)邊界。企業(yè)級(jí)SSD作為AI算力基礎(chǔ)設(shè)施的核心組件,其高可靠性、高性能及智能化管理能力,正成為支撐大模型訓(xùn)練效率與穩(wěn)定性的關(guān)鍵。 從海
    的頭像 發(fā)表于 03-11 10:26 ?1160次閱讀
    憶聯(lián)PCIe 5.0 SSD支撐大<b class='flag-5'>模型</b>全流程<b class='flag-5'>訓(xùn)練</b>

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功怎么處理?

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功咋辦,試了好幾個(gè)模型壓縮了也不行,ram占用過(guò)大,有無(wú)解決方案?
    發(fā)表于 03-11 07:18