日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

在GPU上利用TensorFlow Serving 部署ResNet

Tensorflowers ? 來源:lp ? 2019-03-05 17:51 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

TensorFlow Serving 是用于機器學(xué)習(xí)模型的高性能靈活服務(wù)系統(tǒng),而 NVIDIA TensorRT? 是實現(xiàn)高性能深度學(xué)習(xí)推理的平臺,通過將二者相結(jié)合,用戶便可獲得更高性能,從而輕松實現(xiàn) GPU 推理。TensorFlow 團隊與 NVIDIA 合作,在 TensorFlow v1.7 中首次添加了對 TensorRT 的支持。此后,我們一直密切合作,共同改進 TensorFlow-TensorRT 集成(稱為 TF-TRT)。TensorFlow Serving 1.13 現(xiàn)已實現(xiàn)這種集成,TensorFlow 2.0 很快也會進行集成。

在 之前的文章 中,我們介紹了如何借助 Docker 使用 TensorFlow Serving。在本文中,我們將展示以同樣的方式運行經(jīng) TF-TRT 轉(zhuǎn)換的模型有多簡單。與之前一樣,我們嘗試在生產(chǎn)環(huán)境中部署 ResNet 模型。下方所有示例均在配備 Titan-V GPU 的工作站上運行。

注:ResNet 鏈接

https://github.com/tensorflow/models/tree/master/official/resnet

在 GPU 上利用 TensorFlow Serving 部署 ResNet

在這項練習(xí)中,我們僅下載 經(jīng)過預(yù)訓(xùn)練的 ResNet SavedModel:

$ mkdir /tmp/resnet

$ curl -s https://storage.googleapis.com/download.tensorflow.org/models/official/20181001_resnet/savedmodels/resnet_v2_fp32_savedmodel_NHWC_jpg.tar.gz | tar --strip-components=2 -C /tmp/resnet -xvz

$ ls /tmp/resnet

1538687457

注:經(jīng)過預(yù)訓(xùn)練的 ResNet 鏈接

https://github.com/tensorflow/models/tree/master/official/resnet#pre-trained-model

在之前的文章中,我們展示了如何使用 TensorFlow Serving CPU Docker 圖像提供模型。在這里,我們運行 GPU Docker 圖像(請查看此處了解相關(guān)說明),以借助 GPU 提供并測試此模型:

$ docker pull tensorflow/serving:latest-gpu

$ docker run --rm --runtime=nvidia -p 8501:8501 --name tfserving_resnet \

-v /tmp/resnet:/models/resnet -e MODEL_NAME=resnet -t tensorflow/serving:latest-gpu &

… server.cc:286] Running gRPC ModelServer at 0.0.0.0:8500 …

… server.cc:302] Exporting HTTP/REST API at:localhost:8501 …

$ curl -o /tmp/resnet/resnet_client.py https://raw.githubusercontent.com/tensorflow/serving/master/tensorflow_serving/example/resnet_client.py

$ python /tmp/resnet/resnet_client.py

Prediction class:286, avg latency:18.0469 ms

注:此處 鏈接

https://www.tensorflow.org/serving/docker#serving_with_docker_using_your_gpu

此 docker run 命令會啟動 TensorFlow Serving 服務(wù)器,以提供 /tmp/resnet 中已下載的 SavedModel,并在主機中開放 REST API 端口 8501。resnet_client.py 會發(fā)送一些圖像給服務(wù)器,并返回服務(wù)器所作的預(yù)測?,F(xiàn)在讓我們終止 TensorFlow Serving 容器的運行,以釋放所占用的 GPU 資源。

$ docker kill tfserving_resnet

注:REST API 鏈接

https://www.tensorflow.org/tfx/serving/api_rest

利用 TF-TRT 轉(zhuǎn)換和部署模型

現(xiàn)在,我們有了工作模型。為了享受 TensorRT 帶來的好處,我們需要在 TensorFlow Serving Docker 容器內(nèi)運行轉(zhuǎn)換命令,從而將此模型轉(zhuǎn)換為使用 TensorRT 運行運算的模型:

$ docker pull tensorflow/tensorflow:latest-gpu

$ docker run --rm --runtime=nvidia -it -v /tmp:/tmp tensorflow/tensorflow:latest-gpu /usr/local/bin/saved_model_cli \

convert --dir /tmp/resnet/1538687457 --output_dir /tmp/resnet_trt/1538687457 --tag_set serve \

tensorrt --precision_mode FP32 --max_batch_size 1 --is_dynamic_op True

在這里,我們運行了 saved_model_cli 命令行工具,其中內(nèi)置了對 TF-TRT 轉(zhuǎn)換的支持。--dir 和 --output_dir 參數(shù)會指示 SavedModel 的位置以及在何處輸出轉(zhuǎn)換后的 SavedModel,而 --tag_set 則指示 SavedModel 中要轉(zhuǎn)換的圖表。隨后,我們在命令行中傳遞 tensorrt 并指定配置,明確指示其運行 TF-TRT 轉(zhuǎn)換器

--precision_mode 指示轉(zhuǎn)換器需使用的精度,目前其僅支持 FP32 和 FP16

--max_batch_size 指示輸入的批次大小上限。此轉(zhuǎn)換器要求將由 TensorRT 處理的所有張量將其首個維度作為批次維度,而該參數(shù)則指示推理過程中會產(chǎn)生的最大值。若已知推理過程中的實際批次大小上限且該值與之匹配,則轉(zhuǎn)換后的模型即為最優(yōu)模型。請注意,轉(zhuǎn)換后的模型無法處理批次規(guī)模大于此處所指定大小的輸入,但可處理批次規(guī)模更小的輸入

--is_dynamic_op 指示在模型運行時進行實際轉(zhuǎn)換。原因在于,在進行轉(zhuǎn)換時,TensorRT 需要明確所有形狀。對于本例中使用的 ResNet 模型,其張量沒有固定的形狀,因此我們需要此參數(shù)

注:saved_model_cli 鏈接

https://www.tensorflow.org/guide/saved_model#cli_to_inspect_and_execute_savedmodel

現(xiàn)在,我們只需為模型指定正確的目錄,便可利用 Docker 提供經(jīng) TF-TRT 轉(zhuǎn)換的模型,這與之前一樣簡單:

$ docker run --rm --runtime=nvidia -p 8501:8501 --name tfserving_resnet \

-v /tmp/resnet_trt:/models/resnet -e MODEL_NAME=resnet -t tensorflow/serving:latest-gpu &

… server.cc:286] Running gRPC ModelServer at 0.0.0.0:8500 …

… server.cc:302] Exporting HTTP/REST API at:localhost:8501 …

向其發(fā)送請求:

$ python /tmp/resnet/resnet_client.py

Prediction class:286, avg latency:15.0287 ms

最后,我們終止容器的運行:

$ docker kill tfserving_resnet

我們可以看到,使用 TensorFlow Serving 和 Docker 生成經(jīng) TF-TRT 轉(zhuǎn)換的模型與提供一般模型一樣簡單。此外,以上為展示內(nèi)容,其中的性能數(shù)字僅適用于我們所使用的模型和運行本示例的設(shè)備,但它的確展現(xiàn)出使用 TF-TRT 所帶來的性能優(yōu)勢。

TensorFlow 2.0 發(fā)布在即,TensorFlow 團隊和 NVIDIA 正在共同努力,以確保 TF-TRT 能在 2.0 中流暢運行。如需了解最新信息,請查看 TF-TRT GitHub 代碼庫(https://github.com/tensorflow/tensorrt)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5283

    瀏覽量

    136100
  • 機器學(xué)習(xí)
    +關(guān)注

    關(guān)注

    67

    文章

    8567

    瀏覽量

    137256
  • tensorflow
    +關(guān)注

    關(guān)注

    13

    文章

    336

    瀏覽量

    62398

原文標題:利用 NVIDIA TensorRT 優(yōu)化 TensorFlow Serving 的性能

文章出處:【微信號:tensorflowers,微信公眾號:Tensorflowers】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    i.MX8MM GPU yocto 5.0 崩潰怎么解決

    Hi, 最近,我們定制的 i.MX8MM 板從 Yocto 4.2 升級到 Yocto 5.0。我們現(xiàn)在在啟動過程中遇到隨機 GPU 崩潰,這導(dǎo)致 Weston 臺式機系統(tǒng)無法啟動。Yocto
    發(fā)表于 04-15 08:28

    NPU 運行了 eIQ TensorFlow Lite 示例模型報錯

    我們已經(jīng) NPU 運行了 eIQ TensorFlow Lite 示例模型,但它們失敗并出現(xiàn)以下錯誤: 信息:加載的模型 mobilenet_v1_1.0_224_quant.tflite
    發(fā)表于 03-18 06:52

    如何在 VisionFive v2 使用外部 GPU?

    如果舊的 amd gpu VisionFive V2 運行,我想使用帶有開源 amd 驅(qū)動程序的 amd gpu。我需要什么以及如何將 GPU
    發(fā)表于 03-13 06:38

    GPU 利用率<30%?這款開源智算云平臺讓算力不浪費 1%

    作為 AI 開發(fā)者,你是否早已受夠這些困境:花數(shù)百萬采購的 GPU 集群,利用率常年低于 30%,算力閑置如同燒錢;跨 CPU/GPU/NPU 異構(gòu)資源調(diào)度難如登天,模型訓(xùn)練卡在資源分配環(huán)節(jié);
    的頭像 發(fā)表于 01-26 14:20 ?297次閱讀

    FPGA+GPU異構(gòu)混合部署方案設(shè)計

    為滿足對 “納秒級實時響應(yīng)” 與 “復(fù)雜數(shù)據(jù)深度運算” 的雙重需求,“FPGA+GPU”異構(gòu)混合部署方案通過硬件功能精準拆分與高速協(xié)同,突破單一硬件的性能瓶頸 ——FPGA聚焦低延遲實時交易鏈路,GPU承接高復(fù)雜度數(shù)據(jù)處理任務(wù),
    的頭像 發(fā)表于 01-13 15:20 ?505次閱讀

    如何在TensorFlow Lite Micro中添加自定義操作符(1)

    相信大家部署嵌入式端的AI應(yīng)用時,一定使用過TensorFlow Lite Micro,以下簡稱TFLm。TFLm 是專為微控制器和嵌入式設(shè)備設(shè)計的輕量級機器學(xué)習(xí)推理框架,它通過模塊化的操作符系統(tǒng)
    的頭像 發(fā)表于 12-26 10:34 ?5829次閱讀

    看點:英偉達將在韓國部署26萬枚GPU 中國服務(wù)器龍頭超聚變籌備上市 中芯國際控股公司增資至59.5億美元

    給大家?guī)硪恍I(yè)界新聞: 英偉達將在韓國部署26萬枚GPU 據(jù)外媒報道,10月31日,英偉達公司宣布將與韓國政府及三星電子、SK集團、現(xiàn)代汽車集團、NaverCloud一起合作韓國
    的頭像 發(fā)表于 10-31 11:46 ?795次閱讀

    如何利用Verilog HDLFPGA實現(xiàn)SRAM的讀寫測試

    本篇將詳細介紹如何利用Verilog HDLFPGA實現(xiàn)SRAM的讀寫測試。SRAM是一種非易失性存儲器,具有高速讀取和寫入的特點。FPGA中實現(xiàn)SRAM讀寫測試,包括設(shè)計SRA
    的頭像 發(fā)表于 10-22 17:21 ?4593次閱讀
    如何<b class='flag-5'>利用</b>Verilog HDL<b class='flag-5'>在</b>FPGA<b class='flag-5'>上</b>實現(xiàn)SRAM的讀寫測試

    【上海晶珩睿莓1開發(fā)板試用體驗】TensorFlow-Lite物體歸類(classify)

    目前尚未得知睿莓1開發(fā)板上面有NPU或者DPU之類的額外處理器,因此使用樹莓派系列使用最廣泛的TensorFlow-Lite庫進行物體歸類,使用CPU運行代碼,因此占用的是CPU的算力。
    發(fā)表于 09-12 22:43

    基于瑞芯微RK3576的resnet50訓(xùn)練部署教程

    Resnet50簡介ResNet50網(wǎng)絡(luò)是2015年由微軟實驗室的何愷明提出,獲得ILSVRC2015圖像分類競賽第一名。ResNet網(wǎng)絡(luò)提出之前,傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)都是將一系列的卷
    的頭像 發(fā)表于 09-10 11:19 ?1487次閱讀
    基于瑞芯微RK3576的<b class='flag-5'>resnet</b>50訓(xùn)練<b class='flag-5'>部署</b>教程

    請問K230調(diào)試部署的時候能使用無線方式遠程訪問嗎?

    部署程序的時候我可以使用有線連接。但是我的程序在運行的時候需要不定時查看相機畫面并且上位機不能夠隨時和K230有線連接。所以我想知道有什么方式能夠無線環(huán)境下利用上位機訪問K230并查看程序?qū)崟r效果
    發(fā)表于 08-11 07:53

    aicube的n卡gpu索引該如何添加?

    請問有人知道aicube怎樣才能讀取n卡的gpu索引呢,我已經(jīng)安裝了cuda和cudnn,全局的py里添加了torch,能夠調(diào)用gpu,當還是只能看到默認的gpu0,顯示不了
    發(fā)表于 07-25 08:18

    Say Hi to ERNIE!Imagination GPU率先完成文心大模型的端側(cè)部署

    ImaginationTechnologies宣布率先完成百度文心大模型(ERNIE4.5開源版)在其GPU硬件的端側(cè)部署。適配完成后,開發(fā)者可在搭載ImaginationGPU的設(shè)備
    的頭像 發(fā)表于 07-01 08:17 ?1123次閱讀
    Say Hi to ERNIE!Imagination <b class='flag-5'>GPU</b>率先完成文心大模型的端側(cè)<b class='flag-5'>部署</b>

    無法使用OpenVINO? GPU 設(shè)備運行穩(wěn)定擴散文本到圖像的原因?

    OpenVINO? GPU 設(shè)備使用圖像大小 (1024X576) 運行穩(wěn)定擴散文本到圖像,并收到錯誤消息: RuntimeError: Exception from
    發(fā)表于 06-25 06:36

    為什么無法GPU使用INT8 和 INT4量化模型獲得輸出?

    安裝OpenVINO? 2024.0 版本。 使用 optimum-intel 程序包將 whisper-large-v3 模型轉(zhuǎn)換為 int 4 和 int8,并在 GPU 使用 OpenVINO? 運行推理。 沒有可用的輸出。
    發(fā)表于 06-23 07:11
    甘洛县| 桐柏县| 紫云| 南部县| 隆德县| 桓仁| 剑阁县| 抚松县| 津市市| 乃东县| 闸北区| 淮阳县| 常宁市| 丽江市| 桃园市| 磐安县| 康平县| 西峡县| 保康县| 河北区| 金寨县| 高雄县| 商洛市| 原阳县| 扶风县| 姚安县| 马公市| 威远县| 扶风县| 峨眉山市| 岗巴县| 横山县| 绥滨县| 西藏| 晋州市| 图们市| 南平市| 通州区| 马关县| 德州市| 巴林左旗|