国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

NVIDIA Triton 系列文章(13):模型與調度器-3

NVIDIA英偉達企業解決方案 ? 來源:未知 ? 2023-02-03 04:55 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

前面兩篇文章,已經將 Triton 的“無狀態模型”、“有狀態模型”與標準調度器的動態批量處理器與序列批量處理器的使用方式,做了較完整的說明。 大部分的實際應用都不是單純的推理模型就能完成服務的需求,需要形成前后關系的工作流水線。例如一個二維碼掃描的應用,除了需要第一關的二維碼識別模型之外,后面可能還得將識別出來的字符傳遞給語句識別的推理模型、關鍵字搜索引擎等功能,最后找到用戶所需要的信息,反饋給提出需求的用戶端。 本文的內容要說明 Triton 服務器形成工作流水線的“集成推理”功能,里面包括“集成模型(ensemble model)”“集成調度器(ensemble scheduler)”兩個部分。下面是個簡單的推理流水線示意圖,目的是對請求的輸入圖像最終反饋“圖像分類”與“語義分割”兩個推理結果: 6bce43b4-a33b-11ed-bfe3-dac502259ad0.png 當接收到集成模型的推斷請求時,集成調度器將:
  1. 確認請求中的“IMAGE”張量映射到預處理模型中的輸入“RAW_IMAGE”。
  2. 檢查集合中的模型,并向預處理模型發送內部請求,因為所需的所有輸入張量都已就緒。
  3. 識別內部請求的完成,收集輸出張量并將內容映射到“預處理圖像”,這是集成中已知的唯一名稱。
  4. 將新收集的張量映射到集合中模型的輸入。在這種情況下,“classification_model”和“segmentation_model”的輸入將被映射并標記為就緒。
  5. 檢查需要新收集的張量的模型,并向輸入就緒的模型發送內部請求,在本例中是分類模型和分割模型。請注意,響應將根據各個模型的負載和計算時間以任意順序排列。
  6. 重復步驟 3-5,直到不再發送內部請求,然后用集成輸出名稱的張量去響應推理請求。
整個流水線使用 3 個模型,并進行以下三個處理步驟:
  1. 使用 image_prepoecess_model 模型,將原始圖像處理成preprocessed_image 數據;
  2. 將 preprocessed_image 數據傳遞給 classification_model 模型,執行圖像分類推理,最終返回“CLASSIFICATION”結果;
  3. 將 preprocessed_image 數據傳遞給 segmentation_model 模型,執行語義分割推理計算,最終返回“SEGMENTATION”結果;
在執行過程中,推理服務器必須支持以下的功能,才能將多種推理模型集成一個或多個工作流水線,去執行完整的工作流程:
  • 支持一個或多個模型的流水線以及這些模型之間輸入和輸出張量的連接;
  • 處理多個模型的模型拼接或數據流,例如“數據處理->推理->數據后處理”等;
  • 收集每個步驟中的輸出張量,并根據規范將其作為其他步驟的輸入張量;
  • 所集成的模型能繼承所涉及模型的特征,在請求方的元數據必須符合集成中的模型;
為了實現的推理流水線功能,Triton 服務器使用集成模型與集成調度器的配合,來完成這類工作流水線的搭建管理。接著就執行以下步驟來創建一個流水線所需要的配套內容:
  1. 在模型倉里為流水線創建一個新的“組合模型”文件夾,例如為“ensemble_model”;
  2. 在目路下創建新的 config.pbtxt,并且使用“platform: "ensemble"”來定義這個模型要執行集成功能;
  3. 定義集成模型:
無論工作流水線中調用多少個模型,Triton 服務器都將這樣的組合視為一個模型,與其他模型配置一樣,需要定義輸入與輸出節點的張量類型與尺度。 以上面示例圖中的要求,這個集成模型有一個名為“IMAGE”的輸入節,與兩個名為“CLASSIFICATION”“SEGMENTATION”的輸出節點,至于數據類型與張量維度內容,就得根據實際使用的模型去匹配。這部分配置的參考內容如下:
name:"ensemble_model"
platform: "ensemble"
max_batch_size: 1
input [
  {
    name: "IMAGE"
    data_type: TYPE_STRING
    dims: [ 1 ]
  }
]
output [
  {
    name: "CLASSIFICATION"
    data_type: TYPE_FP32
    dims: [ 1000 ]
  },
  {
    name: "SEGMENTATION"
    data_type: TYPE_FP32
    dims: [ 3, 224, 224 ]
  }
]
從這個內容中可以看出,Triton 服務器將這個集成模型視為一個獨立模型。 4. 定義模型的集成調度器:這部分使用“ensemble_scheduling”來調動集成調度器,將使用到模型與數據形成完整的交互關系。 在上面示例圖中,灰色區塊所形成的工作流水線中,使用到 image_prepoecess_model、classification_model、segmentation_model 三個模型,以及 preprocessed_image 數據在模型中進行傳遞。 下面提供這部分的范例配置內容,一開始使用“ensemble_scheduling”來調用集成調度器,里面再用“step”來定義模組之間的執行關系,透過模型的“input_map”“output_map”“key:value”對的方式,串聯起模型之間的交互動作:
ensemble_scheduling{
  step [
    {
      model_name: "image_preprocess_model"
      model_version: -1
      input_map {
        key: "RAW_IMAGE"
        value: "IMAGE"
      }
      output_map {
        key: "PREPROCESSED_OUTPUT"
        value: "preprocessed_image"
      }
    },
    {
      model_name: "classification_model"
      model_version: -1
      input_map {
        key: "FORMATTED_IMAGE"
        value: "preprocessed_image"
      }
      output_map {
        key: "CLASSIFICATION_OUTPUT"
        value: "CLASSIFICATION"
      }
    },
    {
      model_name: "segmentation_model"
      model_version: -1
      input_map {
        key: "FORMATTED_IMAGE"
        value: "preprocessed_image"
      }
      output_map {
        key: "SEGMENTATION_OUTPUT"
        value: "SEGMENTATION"
      }
    }
  ]
}
這里簡單說明一下工作流程: (1) 模型 image_preprocess_model 接收外部輸入的 IMAGE 數據,進行圖像預處理任務,輸出 preprocessed_image 數據;(2) 模型 classification_model 的輸入為 preprocessed_image,表示這個模型的工作是在 image_preprocess_model 之后的任務,執行的推理輸出為 CLASSIFICATION;(3) 模型 segmentation_model 的輸入為 preprocessed_image,表示這個模型的工作是在 image_preprocess_model 之后的任務,執行的退輸出為 SEGMENTATION;(4) 上面兩步驟可以看出 classification_model 與 segmentation_model 屬于分支的同級模型,與上面工作流圖中的要求一致。 完成以上的步驟,就能用集成模型與集成調度器的搭配,來創建一個完整的推理工作流任務,相當簡單。 不過這類集成模型中,還有以下幾個需要注意的重點:
  • 這是 Triton 服務器用來執行用戶定義模型流水線的抽象形式,由于沒有與集成模型關聯的物理實例,因此不能為其指定 instance_group 字段;
  • 不過集成模型內容所組成的個別模型(例如image_preprocess_model),可以在其配置文件中指定 instance_group,并在集成接收到多個請求時單獨支持并行執行。
  • 由于集成模型將繼承所涉及模型的特性,因此在請求起點的元數據(本例為“IMAGE”)必須符合集成中的模型,如果其中一個模型是有狀態模型,那么集成模型的推理請求應該包含有狀態模型中提到的信息,這些信息將由調度器提供給有狀態模型。
總的來說,Triton 服務器提供的集成功能還是相對容易理解與操作的,只要大家留意模型之間所傳遞的數據張量格式與尺度,就能輕松搭建起這樣的推理工作流,去面對實際環境中更多變的使用需求。


原文標題:NVIDIA Triton 系列文章(13):模型與調度器-3

文章出處:【微信公眾號:NVIDIA英偉達企業解決方案】歡迎添加關注!文章轉載請注明出處。


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 英偉達
    +關注

    關注

    23

    文章

    4087

    瀏覽量

    99217

原文標題:NVIDIA Triton 系列文章(13):模型與調度器-3

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業解決方案】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    借助NVIDIA CUDA Tile IR后端推進OpenAI Triton的GPU編程

    NVIDIA CUDA Tile 是基于 GPU 的編程模型,其設計目標是為 NVIDIA Tensor Cores 提供可移植性,從而釋放 GPU 的極限性能。CUDA Tile 的一大優勢是允許開發者基于其構建自定義的 DS
    的頭像 發表于 02-10 10:31 ?252次閱讀

    NVIDIA 推出 Nemotron 3 系列開放模型

    新聞摘要: ● Nemotron 3 系列開放模型包含 Nano、Super 和 Ultra 三種規模,具有極高的效率和領先的精度,適用于代理式 AI 應用開發。 ● Nemotron 3
    的頭像 發表于 12-16 09:27 ?635次閱讀
    <b class='flag-5'>NVIDIA</b> 推出 Nemotron <b class='flag-5'>3</b> <b class='flag-5'>系列</b>開放<b class='flag-5'>模型</b>

    NVIDIA攜手Mistral AI發布全新開源大語言模型系列

    全新 Mistral 3 系列涵蓋從前沿級到緊湊型模型,針對 NVIDIA 平臺進行了優化,助力 Mistral AI 實現云到邊緣分布式智能愿景。
    的頭像 發表于 12-13 09:58 ?1251次閱讀

    NVIDIA推動面向數字與物理AI的開源模型發展

    NVIDIA 發布一系列涵蓋語音、安全與輔助駕駛領域的全新 AI 工具,其中包括面向移動出行領域的行業級開源視覺-語言-動作推理模型(Reasoning VLA) NVIDIA DRI
    的頭像 發表于 12-13 09:50 ?1342次閱讀

    利用NVIDIA Cosmos開放世界基礎模型加速物理AI開發

    NVIDIA 最近發布了 NVIDIA Cosmos 開放世界基礎模型(WFM)的更新,旨在加速物理 AI 模型的測試與驗證數據生成。借助 NVID
    的頭像 發表于 12-01 09:25 ?1142次閱讀

    面向科學仿真的開放模型系列NVIDIA Apollo正式發布

    用于加速工業和計算工程的開放模型系列 NVIDIA Apollo 于近日舉行的 SC25 大會上正式發布。
    的頭像 發表于 11-25 11:15 ?7.4w次閱讀

    NVIDIA ACE現已支持開源Qwen3-8B小語言模型

    為助力打造實時、動態的 NPC 游戲角色,NVIDIA ACE 現已支持開源 Qwen3-8B 小語言模型(SLM),可實現 PC 游戲中的本地部署。
    的頭像 發表于 10-29 16:59 ?1237次閱讀

    NVIDIA開源Audio2Face模型及SDK

    NVIDIA 現已開源 Audio2Face 模型與 SDK,讓所有游戲和 3D 應用開發者都可以構建并部署帶有先進動畫的高精度角色。NVIDIA 開源 Audio2Face 的訓練框
    的頭像 發表于 10-21 11:11 ?829次閱讀
    <b class='flag-5'>NVIDIA</b>開源Audio2Face<b class='flag-5'>模型</b>及SDK

    NVIDIA Nemotron Nano 2推理模型發布

    NVIDIA 正式推出準確、高效的混合 Mamba-Transformer 推理模型系列 NVIDIA Nemotron Nano 2。
    的頭像 發表于 08-27 12:45 ?1793次閱讀
    <b class='flag-5'>NVIDIA</b> Nemotron Nano 2推理<b class='flag-5'>模型</b>發布

    如何本地部署NVIDIA Cosmos Reason-1-7B模型

    近日,NVIDIA 開源其物理 AI 平臺 NVIDIA Cosmos 中的關鍵模型——NVIDIA Cosmos Reason-1-7B。這款先進的多模態大
    的頭像 發表于 07-09 10:17 ?825次閱讀

    使用NVIDIA Triton和TensorRT-LLM部署TTS應用的最佳實踐

    針對基于 Diffusion 和 LLM 類別的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能顯著提升推理速度。在單張 NVIDIA Ada Love
    的頭像 發表于 06-12 15:37 ?1891次閱讀
    使用<b class='flag-5'>NVIDIA</b> <b class='flag-5'>Triton</b>和TensorRT-LLM部署TTS應用的最佳實踐

    NVIDIA RTX 5880 Ada與Qwen3系列模型實測報告

    近日,阿里巴巴通義千問團隊正式推出新一代開源大語言模型——Qwen3 系列,該系列包含 6 款 Dense 稠密模型和 2 款 MoE 混合
    的頭像 發表于 05-09 15:05 ?4367次閱讀
    <b class='flag-5'>NVIDIA</b> RTX 5880 Ada與Qwen<b class='flag-5'>3</b><b class='flag-5'>系列</b><b class='flag-5'>模型</b>實測報告

    NVIDIA使用Qwen3系列模型的最佳實踐

    阿里巴巴近期發布了其開源的混合推理大語言模型 (LLM) 通義千問 Qwen3,此次 Qwen3 開源模型系列包含兩款混合專家
    的頭像 發表于 05-08 11:45 ?3005次閱讀
    <b class='flag-5'>NVIDIA</b>使用Qwen<b class='flag-5'>3</b><b class='flag-5'>系列</b><b class='flag-5'>模型</b>的最佳實踐

    英偉達GTC25亮點:NVIDIA Dynamo開源庫加速并擴展AI推理模型

    Triton 推理服務的后續產品,NVIDIA Dynamo 是一款全新的 AI 推理服務軟件,旨在為部署推理 AI 模型的 AI 工廠最大化其 token 收益。它協調并加速數千
    的頭像 發表于 03-20 15:03 ?1240次閱讀

    NVIDIA 推出開放推理 AI 模型系列,助力開發者和企業構建代理式 AI 平臺

    月 18 日 —— ?NVIDIA 今日發布具有推理功能的開源 Llama Nemotron 模型系列,旨在為開發者和企業提供業務就緒型基礎,助力構建能夠獨立工作或以團隊形式完成復雜任務的高級 AI 智能體。
    發表于 03-19 09:31 ?396次閱讀
    <b class='flag-5'>NVIDIA</b> 推出開放推理 AI <b class='flag-5'>模型</b><b class='flag-5'>系列</b>,助力開發者和企業構建代理式 AI 平臺