日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何使用FIL后端部署XGBOOST模型

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:William Hicks ? 2022-04-11 14:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

深度神經(jīng)網(wǎng)絡(luò)在多個(gè)領(lǐng)域的成功促使人們對(duì)如何有效地部署這些模型以用于實(shí)際應(yīng)用進(jìn)行了大量思考和努力。然而,盡管基于樹的模型(包括隨機(jī)森林和梯度增強(qiáng)模型)在表格數(shù)據(jù)分析中 continued dominance 非常重要,而且對(duì)于解釋性非常重要的用例非常重要,但加速部署基于樹的模型(包括隨機(jī)森林和梯度增強(qiáng)模型)的努力卻沒有受到太多關(guān)注。

隨著 DoorDash 和 CapitalOne 等組織轉(zhuǎn)向基于樹的模型來分析大量關(guān)鍵任務(wù)數(shù)據(jù),提供工具以幫助部署此類模型變得簡(jiǎn)單、高效和高效變得越來越重要。

NVIDIA Triton 推理服務(wù)器 提供在 CPUGPU 上部署深度學(xué)習(xí)模型的完整解決方案,支持多種框架和模型執(zhí)行后端,包括 PyTorch 、 TensorFlow 、 ONNX 、 TensorRT 等。從 21.06.1 版開始,為了補(bǔ)充 NVIDIA Triton 推理服務(wù)器現(xiàn)有的深度學(xué)習(xí)功能,新的 林推理庫(kù)( FIL )后端 提供了對(duì)樹模型的支持,例如 XGBoost 、 LightGBM 、 Scikit-Learn RandomForest , RAPIDS 卡米爾森林 ,以及 Treelite 支持的任何其他型號(hào)。

基于 RAPIDS 森林推理庫(kù) (NVIDIA ),NVIDIA Triton 推理服務(wù)器 FIL 后端允許用戶利用 NVIDIA Triton 推理服務(wù)器的相同特性,以達(dá)到 deep learning 模型的最優(yōu)吞吐量/延遲,以在相同的系統(tǒng)上部署基于樹的模型。

在本文中,我們將簡(jiǎn)要介紹NVIDIA Triton 推理服務(wù)器本身,然后深入介紹如何使用 FIL 后端部署 XGBOOST 模型的示例。使用 NVIDIA GPU ,我們將看到,我們不必總是在部署更精確的模型或保持延遲可控之間做出選擇。

在示例筆記本中,通過利用 FIL 后端的 GPU 加速推理,在一臺(tái)配備八臺(tái) V100 GPU 的 NVIDIA DGX-1 服務(wù)器上,我們將能夠部署比 CPU 更復(fù)雜的欺詐檢測(cè)模型,同時(shí)將 p99 延遲保持在 2ms 以下, still 每秒提供超過 400K 的推斷( 630MB / s ),或者比 CPU 上的吞吐量高 20 倍。

NVIDIA Triton 推理服務(wù)器

NVIDIA Triton 推理服務(wù)器為 machine learning 模型的實(shí)時(shí)服務(wù)提供了完整的開源解決方案。 NVIDIA Triton 推理服務(wù)器旨在使性能模型部署過程盡可能簡(jiǎn)單,它為在實(shí)際應(yīng)用中嘗試部署 ML 算法時(shí)遇到的許多最常見問題提供了解決方案,包括:

多框架 支持 : 支持所有最常見的深度學(xué)習(xí)框架和序列化格式,包括 PyTorch 、 TensorFlow 、 ONNX 、 TensorRT 、 OpenVINO 等。隨著 FIL 后端的引入, NVIDIA Triton 推理服務(wù)器還提供對(duì) XGBoost 、 LightGBM 、 Scikit Learn / cuML RandomForest 和任何框架中的 Treelite 序列化模型的支持。

Dynamic Batching : 允許用戶指定一個(gè)批處理窗口,并將在該窗口中收到的任何請(qǐng)求整理成更大的批處理,以優(yōu)化吞吐量。

多種查詢類型 :優(yōu)化多種查詢類型的推理:實(shí)時(shí)、批處理、流式,還支持模型集成。

使用 NVIDIA 管道和集合 推理服務(wù)器部署的 管道和集合 Triton 型號(hào)可以通過復(fù)雜的管道或集成進(jìn)行連接,以避免客戶端和服務(wù)器之間,甚至主機(jī)和設(shè)備之間不必要的數(shù)據(jù)傳輸。

CPU 模型執(zhí)行 : 雖然大多數(shù)用戶希望利用 GPU 執(zhí)行帶來的巨大性能提升,但 NVIDIA Triton 推理服務(wù)器允許您在 CPU 或 GPU 上運(yùn)行模型,以滿足您的特定部署需求和資源可用性。

Dynamic Batching [VZX337 ]如果NVIDIA Triton 推理服務(wù)器不提供對(duì)部分管道的支持,或者如果需要專門的邏輯將各種模型鏈接在一起,則可以使用自定義 PythonC++后端精確地添加所需的邏輯。

Run anywhere :在擴(kuò)展的云或數(shù)據(jù)中心、企業(yè)邊緣,甚至在嵌入式設(shè)備上。它支持用于人工智能推理的裸機(jī)和虛擬化環(huán)境(如 VMware vSphere )。

Kubernetes 和 AI 平臺(tái)支持 :

作為 Docker 容器提供,并可輕松與 Kubernetes 平臺(tái)集成,如 AWS EKS 、谷歌 GKE 、 Azure AKS 、阿里巴巴 ACK 、騰訊 TKE 或紅帽 OpenShift 。

可在 Amazon SageMaker 、 Azure ML 、 Google Vertex AI 、阿里巴巴 AI 彈性算法服務(wù)平臺(tái)和騰訊 TI-EMS 等托管 CloudAI 工作流平臺(tái)上使用。

Enterprise support : NVIDIA AI 企業(yè)軟件套件包括對(duì) NVIDIA Triton 推理服務(wù)器的全面支持,例如訪問 NVIDIA AI 專家以獲得部署和管理指導(dǎo)、安全修復(fù)和維護(hù)發(fā)布的優(yōu)先通知、長(zhǎng)期支持( LTS )選項(xiàng)和指定的支持代理。

圖 1:NVIDIA Triton 推理服務(wù)器架構(gòu)圖。

為了更好地了解如何利用 FIL 后端的這些特性來部署樹模型,我們來看一個(gè)特定的用例。

示例: FIL 后端的欺詐檢測(cè)

為了在 NVIDIA Triton 推理服務(wù)器中部署模型,我們需要一個(gè)配置文件,指定有關(guān)部署選項(xiàng)和序列化模型本身的一些細(xì)節(jié)。模型當(dāng)前可以按以下任意格式序列化:

XGBoost 二進(jìn)制格式

XGBoost JSON

LightGBM 文本格式

Treelite 二進(jìn)制檢查點(diǎn)文件

在下面的筆記本中,我們將介紹部署欺詐檢測(cè)模型過程的每個(gè)步驟,從培訓(xùn)模型到編寫配置文件以及優(yōu)化部署參數(shù)。在此過程中,我們將演示 GPU 部署如何在保持最小延遲的同時(shí)顯著提高吞吐量。此外,由于 FIL 可以輕松地?cái)U(kuò)展到非常大和復(fù)雜的模型,而不會(huì)大幅增加延遲,因此我們將看到,對(duì)于任何給定的延遲預(yù)算,在 GPU 上部署比 CPU 上更復(fù)雜和準(zhǔn)確的模型是可能的。

筆記本:

抱歉,出了點(diǎn)問題。 Reload

抱歉,我們無法顯示此文件。

抱歉,此文件無效,無法顯示。

查看器需要 iframe 。

view raw正如我們?cè)诒竟P記本中所看到的, NVIDIA Triton 推理服務(wù)器的 FIL 后端允許我們使用序列化的模型文件和簡(jiǎn)單的配置文件輕松地為樹模型提供服務(wù)。如果沒有 NVIDIA Triton 推理服務(wù)器,那些希望服務(wù)于其他框架中的 XGBoost 、 LightGBM 或隨機(jī)林模型的人通常會(huì)求助于吞吐量延遲性能差且不支持多個(gè)框架的手動(dòng)搖瓶服務(wù)器。 NVIDIA Triton 推理服務(wù)器的動(dòng)態(tài)批處理和并發(fā)模型執(zhí)行自動(dòng)最大化吞吐量,模型分析器有助于選擇最佳部署配置。手動(dòng)選擇可能需要數(shù)百種組合,并且可能會(huì)延遲模型的展開。有了 FIL 后端,我們可以為來自所有這些框架的模型提供服務(wù),而無需定制代碼和高度優(yōu)化的性能。

結(jié)論

使用 FIL 后端,NVIDIA Triton 推理服務(wù)器現(xiàn)在提供了一個(gè)高度優(yōu)化的實(shí)時(shí)服務(wù)的森林模型,無論是在他們自己或旁邊的深度學(xué)習(xí)模型。雖然支持 CPU 和 GPU 執(zhí)行,但我們可以利用 GPU 加速來保持低延遲和高吞吐量,即使對(duì)于復(fù)雜的模型也是如此。正如我們?cè)谑纠P記本中看到的,這意味著即使延遲預(yù)算很緊,也不需要通過退回到更簡(jiǎn)單的模型來降低模型的準(zhǔn)確性。

如果您想嘗試部署自己的 XGBOST 、 LITGBM 、 SKEXCEL 或 CUML 森林模型進(jìn)行實(shí)時(shí)推理,那么您可以很容易地從 Docker container 、NVIDIA 的 GPU 優(yōu)化的 AI 軟件目錄中拉取 NVIDIA NVIDIA AI 企業(yè)套件 推理服務(wù)器 Docker container 。您可以在 FIL 后端文檔 中找到入門所需的一切。如果準(zhǔn)備部署到 Kubernetes 集群, NVIDIA Triton 還提供了 Helm charts 示例。對(duì)于希望在實(shí)際工作負(fù)載下試用 Triton 推理服務(wù)器的企業(yè), NVIDIA LaunchPad 計(jì)劃提供了一組在 Triton 中使用 Triton 的精心策劃的實(shí)驗(yàn)室。

Krieger 說:“ STAR 的獨(dú)特之處在于,它是第一個(gè)在軟組織中規(guī)劃、調(diào)整和執(zhí)行手術(shù)計(jì)劃的機(jī)器人系統(tǒng),只需極少的人工干預(yù)。”。

關(guān)于作者

William Hicks 是NVIDIA RAPIDS 團(tuán)隊(duì)的高級(jí)軟件工程師。??怂箵碛胁继m代斯大學(xué)物理學(xué)碩士學(xué)位和布朗大學(xué)文學(xué)藝術(shù)碩士學(xué)位。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5711

    瀏覽量

    110187
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5305

    瀏覽量

    136153
  • 服務(wù)器
    +關(guān)注

    關(guān)注

    14

    文章

    10412

    瀏覽量

    91808
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    瑞芯微(EASY EAI)RV1126B 模型部署示例

    1.模型部署示例介紹本小節(jié)展示yolov5模型的在EASYEAINano-TB的部署過程,該模型僅經(jīng)過簡(jiǎn)單訓(xùn)練供示例使用,不保證
    的頭像 發(fā)表于 05-06 15:24 ?5013次閱讀
    瑞芯微(EASY EAI)RV1126B <b class='flag-5'>模型</b><b class='flag-5'>部署</b>示例

    IMX8M Plus 板上部署立體視覺模型 CPU 回退錯(cuò)誤 IMX8M Plus問題

    您好,我想在 IMX8M Plus 板上部署立體視覺模型。我已經(jīng)量化了模型并將其轉(zhuǎn)換為 TFlite 架構(gòu),但是當(dāng)模型部署
    發(fā)表于 04-29 07:23

    AI模型訓(xùn)練與部署實(shí)戰(zhàn) | 線下免費(fèi)培訓(xùn)

    你是否想系統(tǒng)了解AI落地全鏈路,但缺少一個(gè)完整的實(shí)戰(zhàn)項(xiàng)目練手?模型部署環(huán)節(jié)繁多,缺乏一套清晰的實(shí)戰(zhàn)路徑?4月18日、4月25日、5月16日RT-Thread將分別在蘇州、成都、南京舉辦“AI模型訓(xùn)練
    的頭像 發(fā)表于 04-07 13:08 ?742次閱讀
    AI<b class='flag-5'>模型</b>訓(xùn)練與<b class='flag-5'>部署</b>實(shí)戰(zhàn) | 線下免費(fèi)培訓(xùn)

    如何在ZYNQ本地部署DeepSeek模型

    一個(gè)將最小號(hào) DeepSeek 模型部署到 AMD Zynq UltraScale+ MPSoC 處理系統(tǒng)的項(xiàng)目。
    的頭像 發(fā)表于 12-19 15:43 ?7922次閱讀
    如何在ZYNQ本地<b class='flag-5'>部署</b>DeepSeek<b class='flag-5'>模型</b>

    Termux手機(jī)攝像頭采集圖像/視頻流 部署 YOLO 模型推理

    Termux手機(jī)攝像頭采集圖像/視頻流 部署 YOLO 模型推理
    的頭像 發(fā)表于 12-14 07:26 ?3396次閱讀

    RA8P1部署ai模型指南:從訓(xùn)練模型部署?|?本周六

    在嵌入式邊緣AI中,如何把“訓(xùn)練好的模型”穩(wěn)定地“跑在板子上”,決定了項(xiàng)目能否落地。我們帶你基于RA8P1平臺(tái),跑通從數(shù)據(jù)準(zhǔn)備、模型訓(xùn)練、量化轉(zhuǎn)換,到工程部署的整個(gè)流程,幫助你快速實(shí)現(xiàn)在RA8P1
    的頭像 發(fā)表于 11-20 18:06 ?2535次閱讀
    RA8P1<b class='flag-5'>部署</b>ai<b class='flag-5'>模型</b>指南:從訓(xùn)練<b class='flag-5'>模型</b>到<b class='flag-5'>部署</b>?|?本周六

    使用瑞薩RUHMI工具實(shí)現(xiàn)AI模型部署過程

    AI無處不在。你在部署AI,你的競(jìng)爭(zhēng)對(duì)手也在部署AI,幾乎所有人都在做AI。然而,AI并不簡(jiǎn)單,不僅在生成有效模型上復(fù)雜,在部署上同樣充滿挑戰(zhàn)。
    的頭像 發(fā)表于 10-17 10:00 ?3002次閱讀
    使用瑞薩RUHMI工具實(shí)現(xiàn)AI<b class='flag-5'>模型</b><b class='flag-5'>部署</b>過程

    DeepSeek模型如何在云服務(wù)器上部署?

    隨著大型語言模型(LLM)的應(yīng)用日益普及,許多開發(fā)者和企業(yè)希望將像DeepSeek這樣的優(yōu)秀模型部署到自己的云服務(wù)器上,以實(shí)現(xiàn)私有化、定制化服務(wù)并保障數(shù)據(jù)安全。本文將詳細(xì)闡述部署Dee
    的頭像 發(fā)表于 10-13 16:52 ?1211次閱讀

    vision board部署模型到openmv的代碼導(dǎo)致連接超時(shí)怎么解決?

    在env終端中勾選了tiflte support后燒錄mdk到板子上后就開始顯示連接不到 無法部署模型
    發(fā)表于 09-19 07:59

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?文件保存路徑里也沒有中文 查看AICube/AI_Cube.log,看看報(bào)什么錯(cuò)?
    發(fā)表于 07-30 08:15

    【VisionFive 2單板計(jì)算機(jī)試用體驗(yàn)】3、開源大語言模型部署

    1、ollama平臺(tái)搭建 ollama可以快速地部署開源大模型,網(wǎng)址為https://ollama.com, 試用該平臺(tái),可以在多平臺(tái)上部署 Deepseek-R1, Qwen3, Llama
    發(fā)表于 07-19 15:45

    企業(yè)部署AI大模型怎么做

    當(dāng)下,AI大模型已成為驅(qū)動(dòng)決策自動(dòng)化、服務(wù)智能化與產(chǎn)品創(chuàng)新的核心引擎。然而,企業(yè)面對(duì)動(dòng)輒數(shù)百億參數(shù)的大模型部署時(shí),常陷入算力不足、響應(yīng)延遲高、成本失控等困境。如何突破瓶頸,實(shí)現(xiàn)高效、穩(wěn)定的AI
    的頭像 發(fā)表于 06-04 09:26 ?1046次閱讀

    如何使用Docker部署模型

    隨著深度學(xué)習(xí)和大模型的快速發(fā)展,如何高效地部署這些模型成為了一個(gè)重要的挑戰(zhàn)。Docker 作為一種輕量級(jí)的容器化技術(shù),能夠?qū)?b class='flag-5'>模型及其依賴環(huán)境打包成一個(gè)可移植的容器,極大地簡(jiǎn)化了
    的頭像 發(fā)表于 05-24 16:39 ?1409次閱讀

    基于RK3576開發(fā)板的RKLLM大模型部署教程

    RKLLM工具鏈?zhǔn)且粋€(gè)專為在Rockchip NPU平臺(tái)上部署大語言模型(LLM)而設(shè)計(jì)的開發(fā)套件。它主要包括RKLLM-Toolkit和RKLLM Runtime兩個(gè)核心組件
    的頭像 發(fā)表于 05-16 17:48 ?2647次閱讀
    基于RK3576開發(fā)板的RKLLM大<b class='flag-5'>模型</b><b class='flag-5'>部署</b>教程

    ElfBoard技術(shù)實(shí)戰(zhàn)|ELF 2開發(fā)板本地部署DeepSeek大模型的完整指南

    ELF 2開發(fā)板本地部署DeepSeek大模型的完整指南
    的頭像 發(fā)表于 05-16 11:13 ?2824次閱讀
    ElfBoard技術(shù)實(shí)戰(zhàn)|ELF 2開發(fā)板本地<b class='flag-5'>部署</b>DeepSeek大<b class='flag-5'>模型</b>的完整指南
    太康县| 六盘水市| 太仆寺旗| 靖江市| 綦江县| 丰都县| 应城市| 驻马店市| 瑞丽市| 东乡县| 凉城县| 临潭县| 明光市| 赤水市| 仪征市| 扶绥县| 澎湖县| 牡丹江市| 资中县| 玛多县| 大庆市| 浦城县| 三穗县| 清水县| 临潭县| 会宁县| 彰化县| 霍城县| 略阳县| 原平市| 涞源县| 天祝| 尖扎县| 锦屏县| 益阳市| 浦东新区| 塘沽区| 鲁山县| 赤城县| 东平县| 定西市|