国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

將NVIDIA Riva模型部署到生產(chǎn)中

星星科技指導員 ? 來源:NVIDIA ? 作者:About Tanay Varshney, ? 2022-04-01 14:12 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

NVIDIA Riva 是一款 AI 語音 SDK ,用于開發(fā)實時應用程序,如轉(zhuǎn)錄、虛擬助理和聊天機器人。它包括 NGC 中經(jīng)過預訓練的最先進模型、用于在您的領(lǐng)域中微調(diào)模型的 TAO 工具包以及用于高性能推理的優(yōu)化技能。 Riva 使使用 NGC 中的 Riva 容器或使用 Helm chart 在 Kubernetes 上部署模型變得更簡單。 Riva 技能由 NVIDIA TensorRT 提供支持,并通過 NVIDIA Triton 提供服務推理服務器。

配置 Riva

在設置 NVIDIA Riva 之前,請確保您的系統(tǒng)上已安裝以下設備:

Python [3 。 6 。 9]

docker ce 》 19 。 03 。 5

nvidia-DOCKR2 3 。 4 。 0-1 :Installation Guide

如果您按照第 2 部分中的說明進行操作,那么您應該已經(jīng)安裝了所有的先決條件。

設置 Riva 的第一步是到 install the NGC Command Line Interface Tool。

圖 1 。安裝 NGC CLI

要登錄到注冊表,您必須 get access to the NGC API Key。

圖 2 。獲取 NGCAPI 密鑰

設置好工具后,您現(xiàn)在可以從 NGC 上的Riva Skills Quick Start資源下載 Riva 。要下載該軟件包,可以使用以下命令(最新版本的命令可在前面提到的 Riva 技能快速入門資源中找到):

下載的軟件包具有以下資產(chǎn),可幫助您入門:

asr _ lm _工具:這些工具可用于微調(diào)語言模型。

nb _ demo _ speech _ api 。 ipynb :Riva 的入門筆記本。

Riva _ api-1 。 6 。 0b0-py3-none-any 。 whl和NeMo 2 Riva -1 。 6 。 0b0-py3-none-any 。 whl :安裝 Riva 的滾輪文件和將 NeMo 模型轉(zhuǎn)換為 Riva 模型的工具。有關(guān)更多信息,請參閱本文后面的Inferencing with your model部分。

快速啟動腳本( Riva .*. sh , config 。 sh ):初始化并運行 Triton 推理服務器以提供 Riva AI 服務的腳本。有關(guān)更多信息,請參閱配置 Riva 和部署您的模型。

示例:基于 gRPC 的客戶機代碼示例。

配置 Riva 并部署您的模型

你可能想知道從哪里開始。為了簡化體驗, NVIDIA 通過提供一個配置文件,使用 Riva AI 服務調(diào)整您可能需要調(diào)整的所有內(nèi)容,從而幫助您使用 Riva 定制部署。對于本演練,您依賴于特定于任務的 Riva ASR AI 服務。

對于本演練,我們只討論一些調(diào)整。因為您只使用 ASR ,所以可以安全地禁用 NLP 和 TTS 。

如果您遵循第 2 部分的內(nèi)容,可以將 use _ existing _ rmirs 參數(shù)設置為 true 。我們將在后面的文章中對此進行詳細討論。

您可以選擇從模型存儲庫下載的預訓練模型,以便在不進行自定義的情況下運行。

如果您在閱讀本系列第 2 部分時有 Riva 模型,請首先將其構(gòu)建為稱為 Riva 模型中間表示( RMIR )格式的中間格式。您可以使用 Riva Service Maker 來完成此操作。 ServiceMaker 是一組工具,用于聚合 Riva 部署到目標環(huán)境所需的所有工件(模型、文件、配置和用戶設置)。

使用riva-build和riva-deploy命令執(zhí)行此操作。有關(guān)更多信息,請參閱Deploying Your Custom Model into Riva。

現(xiàn)在已經(jīng)設置了模型存儲庫,下一步是部署模型。雖然您可以這樣做manually,但我們建議您在第一次體驗時使用預打包的腳本。快速啟動腳本riva_init.sh和riva_start.sh是可用于使用config.sh中的精確配置部署模型的兩個腳本。

運行riva_init.sh時:

您在config.sh中選擇的模型的 RMIR 文件從指定目錄下的 NGC 下載。

對于每個 RMIR 模型文件,將生成相應的 Triton 推理服務器模型存儲庫。此過程可能需要一些時間,具體取決于所選服務的數(shù)量和型號。

要使用自定義模型,請將 RMIR 文件復制到config.sh(用于$riva_model_loc)中指定的目錄。要部署模型,請運行riva_start.sh。riva-speech容器將與從所選存儲庫加載到容器的模型一起旋轉(zhuǎn)。現(xiàn)在,您可以開始發(fā)送推斷請求了。

使用您的模型進行推斷

為了充分利用 NVIDIA GPU s , Riva 利用了 NVIDIA Triton 推理服務器和 NVIDIA TensorRT 。在會話設置中,應用程序會優(yōu)化盡可能低的延遲,但為了使用更多的計算資源,必須增加批大小,即同步處理的請求數(shù),這自然會增加延遲。 NVIDIA Triton 可用于在多個 GPU 上的多個模型上運行多個推理請求,從而緩解此問題。

您可以使用 GRPCAPI 在三個主要步驟中查詢這些模型:導入 LIB 、設置 gRPC 通道和獲取響應。

首先,導入所有依賴項并加載音頻。在這種情況下,您正在從文件中讀取音頻。我們在 examples 文件夾中還有一個流媒體示例。

要安裝所有 Riva 特定依賴項,可以使用包中提供的。 whl 文件。

關(guān)鍵信息

此 API 可用于構(gòu)建應用程序。您可以在單個裸機系統(tǒng)上安裝 Riva ,并開始本練習,或者使用 Kubernetes 和提供的Helm chart進行大規(guī)模部署。

圖 3 。 NVIDIA Riva 的典型部署工作流

使用此舵圖,您可以執(zhí)行以下操作:

從 NGC 中提取 Riva 服務 API 服務器、 Triton 推理服務器和其他必要的 Docker 映像。

生成 Triton 推理服務器模型庫,并啟動英偉達 Triton 服務器,并使用所選配置。

公開要用作 Kubernetes 服務的推理服務器和 Riva 服務器終結(jié)點。

結(jié)論

Riva 是一款用于開發(fā)語音應用程序的端到端 GPU 加速 SDK 。在本系列文章中,我們討論了語音識別在行業(yè)中的重要性,介紹了如何在您的領(lǐng)域定制語音識別模型以提供世界級的準確性,并向您展示了如何使用 Riva 部署可實時運行的優(yōu)化服務。

關(guān)于作者

About Tanay Varshney

Tanay Varshney 是 NVIDIA 的一名深入學習的技術(shù)營銷工程師,負責廣泛的 DL 軟件產(chǎn)品。他擁有紐約大學計算機科學碩士學位,專注于計算機視覺、數(shù)據(jù)可視化和城市分析的橫斷面。

About Sirisha Rella

Sirisha Rella 是 NVIDIA 的技術(shù)產(chǎn)品營銷經(jīng)理,專注于計算機視覺、語音和基于語言的深度學習應用。 Sirisha 獲得了密蘇里大學堪薩斯城分校的計算機科學碩士學位,是國家科學基金會大學習中心的研究生助理。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5598

    瀏覽量

    109809
  • 計算機
    +關(guān)注

    關(guān)注

    19

    文章

    7810

    瀏覽量

    93236
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    如何在NVIDIA Jetson AGX Thor上部署1200億參數(shù)大模型

    上一期介紹了如何在 NVIDIA Jetson AGX Thor 上使用 Docker 部署 vLLM 推理服務,以及使用 Chatbox 作為前端調(diào)用 vLLM 運行的模型(上期文章鏈接)。本期
    的頭像 發(fā)表于 12-26 17:06 ?4880次閱讀
    如何在<b class='flag-5'>NVIDIA</b> Jetson AGX Thor上<b class='flag-5'>部署</b>1200億參數(shù)大<b class='flag-5'>模型</b>

    如何在ZYNQ本地部署DeepSeek模型

    一個最小號 DeepSeek 模型部署 AMD Zynq UltraScale+ MPSoC 處理系統(tǒng)的項目。
    的頭像 發(fā)表于 12-19 15:43 ?7589次閱讀
    如何在ZYNQ本地<b class='flag-5'>部署</b>DeepSeek<b class='flag-5'>模型</b>

    NVIDIA Omniverse基于Container的部署推流方案

    為了讓客戶能夠高效安裝和部署 NVIDIA Omniverse 及 NVIDIA Isaac 平臺,NVIDIA 現(xiàn)已推出簡單便捷的容器化部署
    的頭像 發(fā)表于 12-17 10:17 ?695次閱讀
    <b class='flag-5'>NVIDIA</b> Omniverse基于Container的<b class='flag-5'>部署</b>推流方案

    RA8P1部署ai模型指南:從訓練模型部署?|?本周六

    在嵌入式邊緣AI中,如何把“訓練好的模型”穩(wěn)定地“跑在板子上”,決定了項目能否落地。我們帶你基于RA8P1平臺,跑通從數(shù)據(jù)準備、模型訓練、量化轉(zhuǎn)換,工程部署的整個流程,幫助你快速實現(xiàn)
    的頭像 發(fā)表于 11-20 18:06 ?2099次閱讀
    RA8P1<b class='flag-5'>部署</b>ai<b class='flag-5'>模型</b>指南:從訓練<b class='flag-5'>模型</b><b class='flag-5'>到</b><b class='flag-5'>部署</b>?|?本周六

    如何訓練好的神經(jīng)網(wǎng)絡模型部署蜂鳥e203開發(fā)板上

    本帖欲分享如何訓練好的神經(jīng)網(wǎng)絡模型部署蜂鳥e203開發(fā)板上。 1. 加載TFLite模型 std::unique_ptr interp
    發(fā)表于 10-22 08:04

    NVIDIA開源Audio2Face模型及SDK

    NVIDIA 現(xiàn)已開源 Audio2Face 模型與 SDK,讓所有游戲和 3D 應用開發(fā)者都可以構(gòu)建并部署帶有先進動畫的高精度角色。NVIDIA 開源 Audio2Face 的訓練框
    的頭像 發(fā)表于 10-21 11:11 ?834次閱讀
    <b class='flag-5'>NVIDIA</b>開源Audio2Face<b class='flag-5'>模型</b>及SDK

    DeepSeek模型如何在云服務器上部署

    隨著大型語言模型(LLM)的應用日益普及,許多開發(fā)者和企業(yè)希望像DeepSeek這樣的優(yōu)秀模型部署自己的云服務器上,以實現(xiàn)私有化、定制化
    的頭像 發(fā)表于 10-13 16:52 ?957次閱讀

    OpenAI和NVIDIA宣布達成合作,部署10吉瓦NVIDIA系統(tǒng)

    此次合作助力 OpenAI 構(gòu)建和部署至少 10 吉瓦(gigawatt)的 AI 數(shù)據(jù)中心,這些數(shù)據(jù)中心采用 NVIDIA 系統(tǒng),包含數(shù)百萬塊
    的頭像 發(fā)表于 09-23 14:37 ?1430次閱讀
    OpenAI和<b class='flag-5'>NVIDIA</b>宣布達成合作,<b class='flag-5'>部署</b>10吉瓦<b class='flag-5'>NVIDIA</b>系統(tǒng)

    vision board部署模型openmv的代碼導致連接超時怎么解決?

    在env終端中勾選了tiflte support后燒錄mdk板子上后就開始顯示連接不到 無法部署模型
    發(fā)表于 09-19 07:59

    NVIDIA從云邊緣加速OpenAI gpt-oss模型部署,實現(xiàn)150萬TPS推理

    ? 自 2016 年推出 NVIDIA DGX 以來,NVIDIA 與 OpenAI 便開始共同推動 AI 技術(shù)的邊界。此次 OpenAI gpt-oss-20b 和 gpt-oss-120b 模型
    的頭像 發(fā)表于 08-15 20:34 ?2319次閱讀
    <b class='flag-5'>NVIDIA</b>從云<b class='flag-5'>到</b>邊緣加速OpenAI gpt-oss<b class='flag-5'>模型</b><b class='flag-5'>部署</b>,實現(xiàn)150萬TPS推理

    Arm方案 基于Arm架構(gòu)的邊緣側(cè)設備(樹莓派或 NVIDIA Jetson Nano)上部署PyTorch模型

    本文將為你展示如何在樹莓派或 NVIDIA Jetson Nano 等基于 Arm 架構(gòu)的邊緣側(cè)設備上部署 PyTorch 模型
    的頭像 發(fā)表于 07-28 11:50 ?2889次閱讀

    如何本地部署NVIDIA Cosmos Reason-1-7B模型

    下一步行動。本文一步步帶你在本地服務器上完成該模型部署,并搭建一個直觀的 Web 交互界面,親身體驗前沿 AI 的“思考”過程。
    的頭像 發(fā)表于 07-09 10:17 ?829次閱讀

    如何使用Docker部署模型

    隨著深度學習和大模型的快速發(fā)展,如何高效地部署這些模型成為了一個重要的挑戰(zhàn)。Docker 作為一種輕量級的容器化技術(shù),能夠模型及其依賴環(huán)境
    的頭像 發(fā)表于 05-24 16:39 ?1147次閱讀

    電機高效再制造在企業(yè)生產(chǎn)中的應用

    高效再制造在企業(yè)生產(chǎn)中的應用.pdf (免責聲明:本文系網(wǎng)絡轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權(quán)問題,請第一時間告知,刪除內(nèi)容!)
    發(fā)表于 04-07 17:31

    K230D部署模型失敗的原因?

    MicroPython部署的無法正常運行,采用C++版本的無法實現(xiàn)部署 嘗試解決過程 1.考慮可能是固件不匹配的問題,重新燒錄了流程(生成模型后給的readme)中要求的固件,依舊無
    發(fā)表于 03-11 06:19