国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

NVIDIA Jetson Nano 2GB:視覺類腳本的環境配置與映射

NVIDIA英偉達企業解決方案 ? 來源:NVIDIA英偉達企業解決方案 ? 作者:NVIDIA英偉達企業解 ? 2022-04-01 09:38 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在 TAO 提供的數據類范例中,每個腳本的第一個步驟都是環境配置(0. Set up env variables and map drives),包括要求用戶提供在 NGC 所生成的密鑰,對后面訓練的模型進行保護,以及指定要使用的 GPU 數量等等,這幾個設定都很直觀容易處理,但接下去的環境變量配置部分,就讓大部分初學者停滯不前,因為任何一項路徑配置錯誤,都會影響后面工作的正常進行,而每個實驗腳本所提供的說明,對初學者來的幫助并不大,很多新手按照其字面解釋去進行設定,但總是沒法調整到完全正確。

因此我們必須在大家執行實驗之前,先以專文將這部分的配置說明清楚,然后提供一個最簡單的步驟,讓大家用最輕松的方法來進行配置。

本文使用范例的 detectnet_v2.ipynb 做示范,首先看一下第一指令塊中的設定內容:

[  ]  import os
%env KEY=tlt_encode%env NUM_GPUS=1%env USER_EXPERIMENT_DIR=/workspace/tao-experiments/detectnet_v2%env DATA_DOWNLOAD_DIR=/workspace/tao-experiments/data
# %env NOTEBOOK_ROOT=~/tao-samples/detectnet_v2os.environ["LOCAL_PROJECT_DIR"] = FIXMEos.environ["LOCAL_DATA_DIR"] = os.path.join(    os.getenv("LOCAL_PROJECT_DIR", os.getcwd()),    "data")os.environ["LOCAL_EXPERIMENT_DIR"] = os.path.join(    os.getenv("LOCAL_PROJECT_DIR", os.getcwd()),    "detectnet_v2")
# The sample spec files are present in the same path as the downloaded samples.os.environ["LOCAL_SPECS_DIR"] = os.path.join(    os.getenv("NOTEBOOK_ROOT", os.getcwd()),    "specs")%env SPECS_DIR=/workspace/tao-experiments/detectnet_v2/specs

稍微整理一下,除了KEYNUM_GPUS 兩個變量之外,共有7個與路徑有關的變量:

  • USER_EXPERIMENT_DIR

  • DATA_DOWNLOAD_DIR

  • LOCAL_PROJECT_DIR

  • LOCAL_DATA_DIR

  • LOCAL_EXPERIMENT_DIR

  • LOCAL_SPECS_DIR

  • SPECS_DIR

其實稍微整理一下就更容易理解,下表就是將這7個變量分為兩組,以 “LOCAL_” 開頭的屬于 “容器外” 用途,另外 3 個屬于容器內用途。

用途

容器外(主機上)

容器內(沿用TLT的習慣)

項目工作位置

LOCAL_PROJECT_DIR

存放模型訓練輸出結果

LOCAL_EXPERIMENT_DIR

USER_EXPERIMENT_DIR

存放數據集的路徑

LOCAL_DATA_DIR

DATA_DOWNLOAD_DIR

配置文件存放路徑

LOCAL_SPECS_DIR

SPECS_DIR

什么是容器內與容器外?前面提過 TAO 用兩套獨立的 Docker 容器,分別為視覺類與對話類提供模型訓練功能,并透過 TAO 啟動器的 CLI 指令執行各項任務。

雖然我們所有操作都在容器外的宿主機上,例如在指令終端下達 tao detectnet_v2 train ...,或者在 Jupyter 交互環境里執行 “!taodetectnet_v2 train ...” 指令,但是 TAO 啟動器會將這些指令傳遞到容器,在后臺為我們執行對應的任務。

這種處理方式的最大好處是,讓不懂 Docker 的初學者完全無需理會容器技術,只要專注于 “模型訓練” 的重點工作就行,如此就能讓 TAO 的普及程度更快與更廣,這也是 TAO 工具的一項非常重要意義。

但為何需要使用兩套路徑來處理呢?全部都在容器內執行不是更加簡單?這里有個最嚴肅的問題是 “容器的生命周期” ,如果將數據保留在容器內處理的話,一旦容器關閉或銷毀時,我們所有實驗數據都將付之一炬,這是一項大家都承擔不起的風險,因此我們必須將所有的數據存放在容器外面,然后透過路徑映射 (mapping) 的方式來處理。

其次就是對于數據整理與文件修改的能力,在容器內操作是相對不方便的。要知道在執行模型訓練之前,通常得先下載數據集的壓縮文件、移動文件、進行解壓縮、修改配置文件等等,這些任務在宿主機上操作是相對輕松的。

好了,當我們清楚 TAO 的視覺類模型訓練腳本中,存在容器內與容器外兩組環境路徑的原因之后,接著就來看該如何設置與映射。

我們將前面的列表進行展開,前面 4 個是容器外的變量、后面 3 個是容器內變量:

環境變量

設定值

LOCAL_PROJECT_DIR

需要設置

LOCAL_EXPERIMENT_DIR

$LOCAL_PROJECT_DIR/<項目名>

LOCAL_DATA_DIR

$LOCAL_PROJECT_DIR/data

LOCAL_SPECS_DIR

<執行腳本所在目錄>/specs

USER_EXPERIMENT_DIR

/workspace/tao-experiments/<項目名>

DATA_DOWNLOAD_DIR

/workspace/tao-experiments/data

SPECS_DIR

/workspace/tao-experiments/<項目名>/specs

假如在執行格內的變量按照上表的順序去排列,事情就會變得非常單純。

事實上,從頭到尾我們只要將 “LOCAL_PROJECT_DIR” 設置為”執行腳本所在目錄”,那么后面三個容器外變量就立即建立好對應關系,我們完全不需要做任何處理理會。至于容器內的三個變量,每個腳本的配置規則都是一樣,也就是不需要去改變。

把上面的對應關系了解清楚之后,整個狀況就變得非常簡單,現在回頭看看第一個指令塊,里面需要輸入的變量其實只有以下三個:

  • %env KEY= <自己在NGC上申請的秘鑰>

  • %env NUM_GPUS= <根據設備配置,給定調用的GPU數量>

  • os.environ["LOCAL_PROJECT_DIR"] = os.getcwd()

其他 6 個變量完全不做任何修改,這樣就能夠順暢地跑動后面的指令塊。

接下去的工作就是執行 “路徑映射” 任務,為容器內外的路徑建立對應的關系。幾乎所有訓練腳本都采用下面的映射方式:

[  ]  # Define the dictionary with the mapped drivesdrive_map = {    "Mounts": [        # Mapping the data directory        {            "source": os.environ["LOCAL_PROJECT_DIR"],            "destination": "/workspace/tao-experiments"        },        # Mapping the specs directory.        {            "source": os.environ["LOCAL_SPECS_DIR"],            "destination": os.environ["SPECS_DIR"]        },    ]}

執行這個路徑映射的指令塊之后,會將這些值寫入 “~/.tao_mounts.json” 文件里面,這是 TAO 啟動器每次調用容器時都需要參考的配置文件,但是這個文件是 “唯一” 的,也就是同一時間只會存在一組容器內外的路徑映射關系,這表示系統不能同時執行兩個以上的模型訓練腳本,這點也請務必牢記。

緊跟著的 “1.Install the TAO launcher” 步驟可以直接跳過,因為我們在前面已經帶著大家安裝好 TAO 啟動器,這里頂多執行 “!taoinfo” 指令,確認一下是否回應正確訊息。

現在就可以開始進行 TAO 所提供的各種神經網絡的模型訓練腳本。

審核編輯 :李倩
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4838

    瀏覽量

    107823
  • NVIDIA
    +關注

    關注

    14

    文章

    5594

    瀏覽量

    109781
  • 變量
    +關注

    關注

    0

    文章

    616

    瀏覽量

    29511

原文標題:NVIDIA Jetson Nano 2GB 系列文章(57):視覺類腳本的環境配置與映射

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業解決方案】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    如何在NVIDIA Jetson平臺上運行最新的開源AI模型

    在小型、低功耗的邊緣設備上運行先進的 AI 和計算機視覺工作流正變得越來越具有挑戰性。機器人、智能攝像頭和自主設備需要實時智能來感知、理解并做出反應,而無需依賴云端。NVIDIA Jetson 平臺通過緊湊的 GPU 加速模塊和
    的頭像 發表于 12-24 10:38 ?1581次閱讀
    如何在<b class='flag-5'>NVIDIA</b> <b class='flag-5'>Jetson</b>平臺上運行最新的開源AI模型

    NVIDIA Jetson系列開發者套件助力打造面向未來的智能機器人

    NVIDIA Jetson AGX Thor、AGX Orin 以及 Jetson Orin Nano Super 開發者套件,助力打造面向未來的智能機器人。
    的頭像 發表于 12-13 10:20 ?3070次閱讀

    如何在NVIDIA Jetson AGX Thor上通過Docker高效部署vLLM推理服務

    繼系統安裝與環境配置后,本期我們將繼續帶大家深入 NVIDIA Jetson AGX Thor 的開發教程之旅,了解如何在 Jetson A
    的頭像 發表于 11-13 14:08 ?4121次閱讀
    如何在<b class='flag-5'>NVIDIA</b> <b class='flag-5'>Jetson</b> AGX Thor上通過Docker高效部署vLLM推理服務

    NVIDIA Jetson AGX Thor Developer Kit開發環境配置指南

    NVIDIA Jetson AGX Thor 專為物理 AI 打造,與上一代產品 NVIDIA Jetson AGX Orin 相比,生成式 AI 性能最高提升至 5 倍。通過發布后的
    的頭像 發表于 11-08 09:55 ?7273次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>Jetson</b> AGX Thor Developer Kit開發<b class='flag-5'>環境</b><b class='flag-5'>配置</b>指南

    BPI-AIM7 RK3588 AI與 Nvidia Jetson Nano 生態系統兼容的低功耗 AI 模塊

    (瑞芯微) NVIDIA Jetson Nano 8GB 圖靈 RK1 USB 端口 1個USB 3.0,3個USB 2.0 1個USB 3.0,3個USB 2.0
    發表于 10-11 09:08

    BPI-AIM7 RK3588 AI與 Nvidia Jetson Nano 生態系統兼容的低功耗 AI 模塊

    。它是開源硬件,我們已在線發布設計文檔,包括原理圖和接口定義。其異構計算架構兼容 NVIDIA Jetson Nano 接口標準,非常適合邊緣計算、AI 推理、VR/AR、智能 NVR 系統以及通用
    的頭像 發表于 10-11 09:06 ?1126次閱讀
    BPI-AIM7 RK3588 AI與 <b class='flag-5'>Nvidia</b> <b class='flag-5'>Jetson</b> <b class='flag-5'>Nano</b> 生態系統兼容的低功耗 AI 模塊

    NVIDIA Jetson AGX Thor開發者套件重磅發布

    開發者與未來創造者們,準備好迎接邊緣AI的史詩級革新了嗎?NVIDIA以顛覆性技術再次突破極限,正式推出Jetson AGX Thor開發者套件!作為繼傳奇產品Jetson AGX Orin之后
    的頭像 發表于 08-28 14:31 ?1561次閱讀

    NVIDIA Nemotron Nano 2推理模型發布

    NVIDIA 正式推出準確、高效的混合 Mamba-Transformer 推理模型系列 NVIDIA Nemotron Nano 2
    的頭像 發表于 08-27 12:45 ?1793次閱讀
    <b class='flag-5'>NVIDIA</b> Nemotron <b class='flag-5'>Nano</b> <b class='flag-5'>2</b>推理模型發布

    基于 NVIDIA Blackwell 的 Jetson Thor 現已發售,加速通用機器人時代的到來

    ·專為物理 AI 和機器人打造的機器人計算機 NVIDIA Jetson AGX Thor 開發者套件和量產級模組,現已發售。 ·超過 200 萬開發者正在使用 NVIDIA 的機器人技術棧,聯影
    發表于 08-26 09:28 ?1300次閱讀
    基于 <b class='flag-5'>NVIDIA</b> Blackwell 的 <b class='flag-5'>Jetson</b> Thor 現已發售,加速通用機器人時代的到來

    NVIDIA Jetson AGX Thor開發者套件概述

    NVIDIA Jetson AGX Thor 開發者套件為您提供出色的性能和可擴展性。它由 NVIDIA Blackwell GPU和128 GB 顯存提供動力支持,提供高達 2070
    的頭像 發表于 08-11 15:03 ?1909次閱讀

    NVIDIA Jetson + Isaac SDK 人形機器人方案全面解析

    NVIDIA Jetson + Isaac SDK 人形機器人方案全面解析 一、方案概述 Jetson 硬件平臺 :提供 AI + GPU 運算能力,配合多傳感器、視覺、傳動控制體系
    的頭像 發表于 07-30 16:12 ?2196次閱讀

    Jetson平臺核心組件BOM清單概覽

    Jetson平臺核心組件BOM清單概覽 NVIDIA Jetson系列作為業界領先的邊緣計算和人工智能(AI)平臺,其強大的性能背后是一系列精心挑選的核心芯片、電源管理集成電路(PMIC)以及豐富
    的頭像 發表于 07-30 16:11 ?3147次閱讀

    Arm方案 基于Arm架構的邊緣側設備(樹莓派或 NVIDIA Jetson Nano)上部署PyTorch模型

    本文將為你展示如何在樹莓派或 NVIDIA Jetson Nano 等基于 Arm 架構的邊緣側設備上部署 PyTorch 模型。
    的頭像 發表于 07-28 11:50 ?2879次閱讀

    Made with KiCad(126):Antmicro OV5640 雙攝像頭子板

    Jetson NanoJetson TX2 NX、Jetson Xavier NX 系統模塊的 Je
    發表于 05-12 18:13

    研華NVIDIA Jetson Orin Nano系統支持Super Mode

    提升生成式AI性能1.7倍 2025年春季— 研華科技,作為全球工業嵌入式 AI 解決方案供應商,宣布推出搭載NVIDIA Jetson Orin Nano 8GB系統模塊的AI邊緣運
    發表于 03-10 14:07 ?777次閱讀
    研華<b class='flag-5'>NVIDIA</b> <b class='flag-5'>Jetson</b> Orin <b class='flag-5'>Nano</b>系統支持Super Mode