日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

將NVIDIA Riva模型部署到生產(chǎn)中

星星科技指導員 ? 來源:NVIDIA ? 作者:About Tanay Varshney, ? 2022-04-01 14:12 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

NVIDIA Riva 是一款 AI 語音 SDK ,用于開發(fā)實時應用程序,如轉錄、虛擬助理和聊天機器人。它包括 NGC 中經(jīng)過預訓練的最先進模型、用于在您的領域中微調(diào)模型的 TAO 工具包以及用于高性能推理的優(yōu)化技能。 Riva 使使用 NGC 中的 Riva 容器或使用 Helm chart 在 Kubernetes 上部署模型變得更簡單。 Riva 技能由 NVIDIA TensorRT 提供支持,并通過 NVIDIA Triton 提供服務推理服務器。

配置 Riva

在設置 NVIDIA Riva 之前,請確保您的系統(tǒng)上已安裝以下設備:

Python [3 。 6 。 9]

docker ce 》 19 。 03 。 5

nvidia-DOCKR2 3 。 4 。 0-1 :Installation Guide

如果您按照第 2 部分中的說明進行操作,那么您應該已經(jīng)安裝了所有的先決條件。

設置 Riva 的第一步是到 install the NGC Command Line Interface Tool。

圖 1 。安裝 NGC CLI

要登錄到注冊表,您必須 get access to the NGC API Key。

圖 2 。獲取 NGCAPI 密鑰

設置好工具后,您現(xiàn)在可以從 NGC 上的Riva Skills Quick Start資源下載 Riva 。要下載該軟件包,可以使用以下命令(最新版本的命令可在前面提到的 Riva 技能快速入門資源中找到):

下載的軟件包具有以下資產(chǎn),可幫助您入門:

asr _ lm _工具:這些工具可用于微調(diào)語言模型。

nb _ demo _ speech _ api 。 ipynb :Riva 的入門筆記本。

Riva _ api-1 。 6 。 0b0-py3-none-any 。 whl和NeMo 2 Riva -1 。 6 。 0b0-py3-none-any 。 whl :安裝 Riva 的滾輪文件和將 NeMo 模型轉換為 Riva 模型的工具。有關更多信息,請參閱本文后面的Inferencing with your model部分。

快速啟動腳本( Riva .*. sh , config 。 sh ):初始化并運行 Triton 推理服務器以提供 Riva AI 服務的腳本。有關更多信息,請參閱配置 Riva 和部署您的模型。

示例:基于 gRPC 的客戶機代碼示例。

配置 Riva 并部署您的模型

你可能想知道從哪里開始。為了簡化體驗, NVIDIA 通過提供一個配置文件,使用 Riva AI 服務調(diào)整您可能需要調(diào)整的所有內(nèi)容,從而幫助您使用 Riva 定制部署。對于本演練,您依賴于特定于任務的 Riva ASR AI 服務。

對于本演練,我們只討論一些調(diào)整。因為您只使用 ASR ,所以可以安全地禁用 NLP 和 TTS 。

如果您遵循第 2 部分的內(nèi)容,可以將 use _ existing _ rmirs 參數(shù)設置為 true 。我們將在后面的文章中對此進行詳細討論。

您可以選擇從模型存儲庫下載的預訓練模型,以便在不進行自定義的情況下運行。

如果您在閱讀本系列第 2 部分時有 Riva 模型,請首先將其構建為稱為 Riva 模型中間表示( RMIR )格式的中間格式。您可以使用 Riva Service Maker 來完成此操作。 ServiceMaker 是一組工具,用于聚合 Riva 部署到目標環(huán)境所需的所有工件(模型、文件、配置和用戶設置)。

使用riva-build和riva-deploy命令執(zhí)行此操作。有關更多信息,請參閱Deploying Your Custom Model into Riva。

現(xiàn)在已經(jīng)設置了模型存儲庫,下一步是部署模型。雖然您可以這樣做manually,但我們建議您在第一次體驗時使用預打包的腳本。快速啟動腳本riva_init.sh和riva_start.sh是可用于使用config.sh中的精確配置部署模型的兩個腳本。

運行riva_init.sh時:

您在config.sh中選擇的模型的 RMIR 文件從指定目錄下的 NGC 下載。

對于每個 RMIR 模型文件,將生成相應的 Triton 推理服務器模型存儲庫。此過程可能需要一些時間,具體取決于所選服務的數(shù)量和型號。

要使用自定義模型,請將 RMIR 文件復制到config.sh(用于$riva_model_loc)中指定的目錄。要部署模型,請運行riva_start.sh。riva-speech容器將與從所選存儲庫加載到容器的模型一起旋轉?,F(xiàn)在,您可以開始發(fā)送推斷請求了。

使用您的模型進行推斷

為了充分利用 NVIDIA GPU s , Riva 利用了 NVIDIA Triton 推理服務器和 NVIDIA TensorRT 。在會話設置中,應用程序會優(yōu)化盡可能低的延遲,但為了使用更多的計算資源,必須增加批大小,即同步處理的請求數(shù),這自然會增加延遲。 NVIDIA Triton 可用于在多個 GPU 上的多個模型上運行多個推理請求,從而緩解此問題。

您可以使用 GRPCAPI 在三個主要步驟中查詢這些模型:導入 LIB 、設置 gRPC 通道和獲取響應。

首先,導入所有依賴項并加載音頻。在這種情況下,您正在從文件中讀取音頻。我們在 examples 文件夾中還有一個流媒體示例。

要安裝所有 Riva 特定依賴項,可以使用包中提供的。 whl 文件。

關鍵信息

此 API 可用于構建應用程序。您可以在單個裸機系統(tǒng)上安裝 Riva ,并開始本練習,或者使用 Kubernetes 和提供的Helm chart進行大規(guī)模部署。

圖 3 。 NVIDIA Riva 的典型部署工作流

使用此舵圖,您可以執(zhí)行以下操作:

從 NGC 中提取 Riva 服務 API 服務器、 Triton 推理服務器和其他必要的 Docker 映像。

生成 Triton 推理服務器模型庫,并啟動英偉達 Triton 服務器,并使用所選配置。

公開要用作 Kubernetes 服務的推理服務器和 Riva 服務器終結點。

結論

Riva 是一款用于開發(fā)語音應用程序的端到端 GPU 加速 SDK 。在本系列文章中,我們討論了語音識別在行業(yè)中的重要性,介紹了如何在您的領域定制語音識別模型以提供世界級的準確性,并向您展示了如何使用 Riva 部署可實時運行的優(yōu)化服務。

關于作者

About Tanay Varshney

Tanay Varshney 是 NVIDIA 的一名深入學習的技術營銷工程師,負責廣泛的 DL 軟件產(chǎn)品。他擁有紐約大學計算機科學碩士學位,專注于計算機視覺、數(shù)據(jù)可視化和城市分析的橫斷面。

About Sirisha Rella

Sirisha Rella 是 NVIDIA 的技術產(chǎn)品營銷經(jīng)理,專注于計算機視覺、語音和基于語言的深度學習應用。 Sirisha 獲得了密蘇里大學堪薩斯城分校的計算機科學碩士學位,是國家科學基金會大學習中心的研究生助理。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    5708

    瀏覽量

    110155
  • 計算機
    +關注

    關注

    19

    文章

    7844

    瀏覽量

    93503
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    NVIDIA 攜手全球機器人領導者,物理 AI 帶入現(xiàn)實世界

    基于 NVIDIA 技術,大規(guī)模開發(fā)并部署物理 AI。 NVIDIA 發(fā)布全新 NVIDIA Cosmos 世界模型、
    的頭像 發(fā)表于 03-17 11:22 ?643次閱讀
    <b class='flag-5'>NVIDIA</b> 攜手全球機器人領導者,<b class='flag-5'>將</b>物理 AI 帶入現(xiàn)實世界

    NVIDIA Jetson模型賦能AI在邊緣端落地

    開源生成式 AI 模型不再局限于數(shù)據(jù)中心,而是開始深入現(xiàn)實世界的各種機器中。從 Orin Thor,NVIDIA Jetson 系列正在成為運行
    的頭像 發(fā)表于 03-16 16:27 ?696次閱讀
    <b class='flag-5'>NVIDIA</b> Jetson<b class='flag-5'>模型</b>賦能AI在邊緣端落地

    如何在NVIDIA Jetson AGX Thor上部署1200億參數(shù)大模型

    上一期介紹了如何在 NVIDIA Jetson AGX Thor 上使用 Docker 部署 vLLM 推理服務,以及使用 Chatbox 作為前端調(diào)用 vLLM 運行的模型(上期文章鏈接)。本期
    的頭像 發(fā)表于 12-26 17:06 ?5306次閱讀
    如何在<b class='flag-5'>NVIDIA</b> Jetson AGX Thor上<b class='flag-5'>部署</b>1200億參數(shù)大<b class='flag-5'>模型</b>

    如何在ZYNQ本地部署DeepSeek模型

    一個最小號 DeepSeek 模型部署 AMD Zynq UltraScale+ MPSoC 處理系統(tǒng)的項目。
    的頭像 發(fā)表于 12-19 15:43 ?7892次閱讀
    如何在ZYNQ本地<b class='flag-5'>部署</b>DeepSeek<b class='flag-5'>模型</b>

    NVIDIA Omniverse基于Container的部署推流方案

    為了讓客戶能夠高效安裝和部署 NVIDIA Omniverse 及 NVIDIA Isaac 平臺,NVIDIA 現(xiàn)已推出簡單便捷的容器化部署
    的頭像 發(fā)表于 12-17 10:17 ?1000次閱讀
    <b class='flag-5'>NVIDIA</b> Omniverse基于Container的<b class='flag-5'>部署</b>推流方案

    RA8P1部署ai模型指南:從訓練模型部署?|?本周六

    在嵌入式邊緣AI中,如何把“訓練好的模型”穩(wěn)定地“跑在板子上”,決定了項目能否落地。我們帶你基于RA8P1平臺,跑通從數(shù)據(jù)準備、模型訓練、量化轉換,工程部署的整個流程,幫助你快速實現(xiàn)
    的頭像 發(fā)表于 11-20 18:06 ?2472次閱讀
    RA8P1<b class='flag-5'>部署</b>ai<b class='flag-5'>模型</b>指南:從訓練<b class='flag-5'>模型</b><b class='flag-5'>到</b><b class='flag-5'>部署</b>?|?本周六

    如何訓練好的神經(jīng)網(wǎng)絡模型部署蜂鳥e203開發(fā)板上

    本帖欲分享如何訓練好的神經(jīng)網(wǎng)絡模型部署蜂鳥e203開發(fā)板上。 1. 加載TFLite模型 std::unique_ptr interp
    發(fā)表于 10-22 08:04

    NVIDIA開源Audio2Face模型及SDK

    NVIDIA 現(xiàn)已開源 Audio2Face 模型與 SDK,讓所有游戲和 3D 應用開發(fā)者都可以構建并部署帶有先進動畫的高精度角色。NVIDIA 開源 Audio2Face 的訓練框
    的頭像 發(fā)表于 10-21 11:11 ?1046次閱讀
    <b class='flag-5'>NVIDIA</b>開源Audio2Face<b class='flag-5'>模型</b>及SDK

    DeepSeek模型如何在云服務器上部署?

    隨著大型語言模型(LLM)的應用日益普及,許多開發(fā)者和企業(yè)希望像DeepSeek這樣的優(yōu)秀模型部署自己的云服務器上,以實現(xiàn)私有化、定制化
    的頭像 發(fā)表于 10-13 16:52 ?1193次閱讀

    OpenAI和NVIDIA宣布達成合作,部署10吉瓦NVIDIA系統(tǒng)

    此次合作助力 OpenAI 構建和部署至少 10 吉瓦(gigawatt)的 AI 數(shù)據(jù)中心,這些數(shù)據(jù)中心采用 NVIDIA 系統(tǒng),包含數(shù)百萬塊
    的頭像 發(fā)表于 09-23 14:37 ?1607次閱讀
    OpenAI和<b class='flag-5'>NVIDIA</b>宣布達成合作,<b class='flag-5'>部署</b>10吉瓦<b class='flag-5'>NVIDIA</b>系統(tǒng)

    vision board部署模型openmv的代碼導致連接超時怎么解決?

    在env終端中勾選了tiflte support后燒錄mdk板子上后就開始顯示連接不到 無法部署模型
    發(fā)表于 09-19 07:59

    NVIDIA從云邊緣加速OpenAI gpt-oss模型部署,實現(xiàn)150萬TPS推理

    ? 自 2016 年推出 NVIDIA DGX 以來,NVIDIA 與 OpenAI 便開始共同推動 AI 技術的邊界。此次 OpenAI gpt-oss-20b 和 gpt-oss-120b 模型
    的頭像 發(fā)表于 08-15 20:34 ?2547次閱讀
    <b class='flag-5'>NVIDIA</b>從云<b class='flag-5'>到</b>邊緣加速OpenAI gpt-oss<b class='flag-5'>模型</b><b class='flag-5'>部署</b>,實現(xiàn)150萬TPS推理

    Arm方案 基于Arm架構的邊緣側設備(樹莓派或 NVIDIA Jetson Nano)上部署PyTorch模型

    本文將為你展示如何在樹莓派或 NVIDIA Jetson Nano 等基于 Arm 架構的邊緣側設備上部署 PyTorch 模型。
    的頭像 發(fā)表于 07-28 11:50 ?3122次閱讀

    如何本地部署NVIDIA Cosmos Reason-1-7B模型

    下一步行動。本文一步步帶你在本地服務器上完成該模型部署,并搭建一個直觀的 Web 交互界面,親身體驗前沿 AI 的“思考”過程。
    的頭像 發(fā)表于 07-09 10:17 ?1049次閱讀

    如何使用Docker部署模型

    隨著深度學習和大模型的快速發(fā)展,如何高效地部署這些模型成為了一個重要的挑戰(zhàn)。Docker 作為一種輕量級的容器化技術,能夠模型及其依賴環(huán)境
    的頭像 發(fā)表于 05-24 16:39 ?1390次閱讀
    太康县| 论坛| 休宁县| 澄城县| 炎陵县| 盐津县| 渭南市| 曲阜市| 手机| 黔江区| 厦门市| 醴陵市| 云霄县| 将乐县| 富宁县| 鹰潭市| 文山县| 鲁山县| 长白| 哈密市| 濉溪县| 固安县| 青川县| 滦平县| 阿拉善盟| 光山县| 沐川县| 工布江达县| 遂平县| 南江县| 迁西县| 娱乐| 阜康市| 无极县| 呼伦贝尔市| 樟树市| 龙口市| 离岛区| 同仁县| 华安县| 天峨县|