日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

旭日X3派AI推理(YOLOv5測試)

地瓜機器人 ? 2022-10-31 18:11 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

X3芯片概述

BPU是地平線自研的AI加速核,在設(shè)計過程中具體結(jié)合了AIoT/Auto的場景需求,從算法、計算架構(gòu)、編譯器三個方面進行了軟硬協(xié)同優(yōu)化,使得在功耗不變前提下提高數(shù)倍的AI計算性能。
X3和J3芯片各內(nèi)置了兩個伯努利2.0的BPU核,它極大提升了對先進CNN網(wǎng)絡(luò)的支持,同時大大降低了DDR帶寬占用率,可提供實時像素級視頻分割和結(jié)構(gòu)化視頻分析等能力。

詳細的內(nèi)容請參考地平線芯片開發(fā)手冊

pYYBAGNfmxqAGTO4AAM1RGQDS4c331.png

1.圖片分類任務(wù)

這里主要對樣例中提供的程序進行測試

首先是系統(tǒng)中提供的圖片分類任務(wù)樣例

cd /app/ai_inference/01_basic_sample/
sudo python3 ./test_mobilenetv1.py

在test_mobilenetv1.py中對斑馬的圖片進行了分類,得到的結(jié)果如下,通過查看標簽編號340: 'zebra'實現(xiàn)了對圖片的準確分類。

========== Classification result ==========
cls id: 340 Confidence: 0.991851

為了簡單測試下分類算法的結(jié)果。使用其他圖片進行測試,發(fā)現(xiàn)在特征明顯時圖片分類準確度較高,如對背景干凈,特征清晰的金魚達到了0.999884的置信度,1: 'goldfish, Carassius auratus',也存在圖片分類錯誤的情況存在,如對于玉米進行檢測時998: 'ear, spike, capitulum'。

poYBAGNfmyeAZD5xAAErxUlYFpA831.png
========== Classification result ==========
cls id: 1 Confidence: 0.999884
pYYBAGNfmzGAey2cAAHTthJ1O4g085.png
========== Classification result ==========
cls id: 998 Confidence: 0.753721

2.fcos目標檢測快速驗證

使用目標檢測樣例

cd /app/ai_inference/02_usb_camera_sample/
python3 usb_camera_fcos.py

在初探中已經(jīng)對其進行簡單展示,這里將代碼進行簡單分析,主要包括以下5個部分

pYYBAGNfmzyAKKsWAAA2zUeMaVY613.png

其中加載模型 和模型正演為地平線封裝的模型方法,from hobot_dnn import pyeasy_dnn as dnn

hdmi顯示時地平線封裝的vio方法,from hobot_vio import libsrcampy as srcampy

加載的模型是通過地平線工具鏈編譯的bin模型fcos_512x512_nv12.bin,在運行中會對輸入和輸出的tensor進行打印,可以看出輸入的是512x512的圖像信息,輸入為15個tensor,其中輸出包括了檢測框坐標、類別、置信度得分等。

tensor type: NV12_SEPARATE
data type: uint8
layout: NCHW
shape: (1, 3, 512, 512)
15
tensor type: float32
data type: float32
layout: NHWC
shape: (1, 64, 64, 80)
tensor type: float32
data type: float32
layout: NHWC
shape: (1, 32, 32, 80)
tensor type: float32
data type: float32
layout: NHWC
shape: (1, 16, 16, 80)
tensor type: float32
data type: float32
layout: NHWC
shape: (1, 8, 8, 80)
tensor type: float32
data type: float32
layout: NHWC
shape: (1, 4, 4, 80)
tensor type: float32
data type: float32
layout: NHWC
shape: (1, 64, 64, 4)
tensor type: float32
data type: float32
layout: NHWC
shape: (1, 32, 32, 4)
tensor type: float32
data type: float32
layout: NHWC
shape: (1, 16, 16, 4)
tensor type: float32
data type: float32
layout: NHWC
shape: (1, 8, 8, 4)
tensor type: float32
data type: float32
layout: NHWC
shape: (1, 4, 4, 4)
tensor type: float32
data type: float32
layout: NHWC
shape: (1, 64, 64, 1)
tensor type: float32
data type: float32
layout: NHWC
shape: (1, 32, 32, 1)
tensor type: float32
data type: float32
layout: NHWC
shape: (1, 16, 16, 1)
tensor type: float32
data type: float32
layout: NHWC
shape: (1, 8, 8, 1)
tensor type: float32
data type: float32
layout: NHWC
shape: (1, 4, 4, 1)

3.改用YOLOv5進行目標檢測

更換YOLOv5模型進行目標檢測,由于工具鏈中提供了編譯后的YOLOv5模型,這里可以對其直接使用,工具鏈相關(guān)資料在AI工具鏈資料包其中

horizon_xj3_open_explorer_v1.11.4_20220413\ddk\samples\ai_toolchain\model_zoo\runtime\yolov5

直接在usb_camera_fcos.py中進行模型的替換

models = dnn.load('../models/yolov5_672x672_nv12.bin')

對輸入輸出進行打印,可以看到輸入是一個 (1, 3, 672, 672)的tensor,而輸出為3層的tensor,輸出的不同代表著需要對模型后處理進行重寫。

tensor type: NV12_SEPARATE
data type: uint8
layout: NCHW
shape: (1, 3, 672, 672)
3
tensor type: float32
data type: float32
layout: NHWC
shape: (1, 84, 84, 255)
tensor type: float32
data type: float32
layout: NHWC
shape: (1, 42, 42, 255)
tensor type: float32
data type: float32
layout: NHWC
shape: (1, 21, 21, 255)

在這里我找到之前地平線對YOLOv5的后處理的相關(guān)代碼和說明,這個位于\horizon_xj3_open_explorer_v1.11.4_20220413\ddk\samples\ai_toolchain\horizon_model_convert_sample\04_detection\03_yolov5\mapper

1.4 對于 YOLOv5 模型,我們在模型結(jié)構(gòu)上的修改點主要在于幾個輸出節(jié)點處。由于目前的浮點轉(zhuǎn)換工具鏈暫時不支持 5 維的 Reshape,所以我們在 prototxt中進行了刪除,并將其移至后處理中執(zhí)行。同時我們還添加了一個 transpose 算子,使該節(jié)點將以 NHWC 進行輸出。這是因為在地平線芯片中, BPU 硬件本身以 NHWC 的layout 運行,這樣修改后可以讓 BPU 直接輸出結(jié)果,而不在量化模型中引入額外的transpose。 詳情請見文檔中benchmark部分的圖文介紹

根據(jù)說明可以看到Y(jié)OLOv5應(yīng)該屬于異構(gòu)量化,部分網(wǎng)絡(luò)在后處理中執(zhí)行,這也就代表需要更多的處理時間。在對于樣例中給出的fcos的代碼,我們主要在后處理處做出相應(yīng)的調(diào)整,并將類別展示做出更換,其中主要代碼也是參考了地平線中給出的YOLOv5的公開代碼,做了部分的修改。

檢測結(jié)果:

運行指令

python3 usb_camera_yolov5.py

將檢測結(jié)果輸出,可以看到對環(huán)境中的大部分物品做出了及時的檢測,置信度也很高。

pYYBAGNfm0yAMRZDACBfHib-aZo763.png

對時間進行統(tǒng)計,檢測的時間根據(jù)實際環(huán)境中的復(fù)雜度變化而變化,經(jīng)過實際測試發(fā)現(xiàn)在0.5s~0.8s之間,檢測結(jié)果較快。主要對cv_time(獲取圖像并縮放到模型的輸入尺寸)、forward_time(模型的正向推演)、postprocess_time(后處理)時間進行了統(tǒng)計,其中模型量化后的時間主要是Forward_time,可以看到需要的時間較短,表明模型的量化有效的減少了檢測時間。占用的時間主要集中在后處理和顯示,還有優(yōu)化的空間。

time: 0.8004379272460938
cv_time         =  0.15749073028564453
Forward_time    =  0.06625533103942871
postprocess_time=  0.38094043731689453
chair is in the picture with confidence:0.8259
pottedplant is in the picture with confidence:0.7951
tvmonitor is in the picture with confidence:0.7798
tvmonitor is in the picture with confidence:0.4708
tvmonitor is in the picture with confidence:0.4420
time: 0.8241267204284668
cv_time         =  0.1624467372894287
Forward_time    =  0.06629300117492676
postprocess_time=  0.3649098873138428
chair is in the picture with confidence:0.6791
pottedplant is in the picture with confidence:0.7784
tvmonitor is in the picture with confidence:0.7809
tvmonitor is in the picture with confidence:0.5400

4.使用工具鏈量化模型

查看工具鏈介紹主要有以下兩種方式:

pYYBAGNfm1SAbzWGAAPgV1RdD_k335.png

這里使用浮點轉(zhuǎn)定點工具鏈,這種方法適用于最多的模型,詳細介紹可以去查看數(shù)據(jù)鏈的視頻。使用wegt下在docker文件,安裝docker讀取鏡像

docker image ls
docker run -it hub.hobot.cc/aitools/ai_toolchain_centos_7_xj3:v2.1.7 /bin/bash

這里發(fā)現(xiàn)其中有YOLOv5s的相關(guān)內(nèi)容,使用該模型進行快速部署

cd /open_explorer/horizon_xj3_open_explorer_v2.1.7_20220520/ddk/samples/ai_toolchain/horizon_model_convert_sample/04_detection/03_yolov5s/mapper
bash 01_check.sh
bash 02_preprocess.sh
bash 03_build.sh   #此步驟需要耗費一定時間

在model_output中輸出了yolov5s_672x672_nv12.bin ,由于輸出模型一致,直接在板子代碼中修改運行,得到了與YOLO相似的效果。

pYYBAGNfm2KAC-HoACJXzRLyu-g784.png

原作者:Tobark

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 嵌入式
    +關(guān)注

    關(guān)注

    5210

    文章

    20683

    瀏覽量

    337455
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    41360

    瀏覽量

    302737
  • 人工智能
    +關(guān)注

    關(guān)注

    1821

    文章

    50372

    瀏覽量

    267082
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    米爾RK3576+Hailo-8突破6 TOPS極限,讓高幀率攝像頭真正“實時”

    測試發(fā)現(xiàn),當****4路YOLOv5模型同時推理時,NPU負載率已超過75%。一旦增加到第5路, 整體延遲急劇飆升 ,系統(tǒng)響應(yīng)明顯劣化。 在單路推理
    發(fā)表于 04-02 18:03

    樹莓5還是香橙5 Pro?兩款熱門開發(fā)板的詳細對比

    ,不過會增加額外成本和硬件占用。 2)香橙5 Pro :RK3588芯片內(nèi)部集成了最高可達6TOPS算力的NPU(神經(jīng)網(wǎng)絡(luò)處理單元)。這意味著無需額外硬件,就能直接加速一些輕量級的AI推理
    發(fā)表于 03-04 19:29

    AI功能(SC171開發(fā)套件V3)2026版

    AI功能(SC171開發(fā)套件V3)2026版 序列 課程名稱 視頻課程時長 視頻課程鏈接 課件鏈接 工程源碼 1 人體目標檢測(Yolov5)案例----基于SC171開發(fā)套件V3 8
    發(fā)表于 01-15 11:18

    基于迅為RK3588開發(fā)板實現(xiàn)高性能機器狗主控解決方案-?AI能力實戰(zhàn):YOLOv5目標檢測例程

    基于迅為RK3588開發(fā)板實現(xiàn)高性能機器狗主控解決方案-?AI能力實戰(zhàn):YOLOv5目標檢測例程
    的頭像 發(fā)表于 11-28 11:32 ?1742次閱讀
    基于迅為RK3588開發(fā)板實現(xiàn)高性能機器狗主控解決方案-?<b class='flag-5'>AI</b>能力實戰(zhàn):<b class='flag-5'>YOLOv5</b>目標檢測例程

    迅為如何在RK3576上部署YOLOv5;基于RK3576構(gòu)建智能門禁系統(tǒng)

    迅為如何在RK3576開發(fā)板上部署YOLOv5;基于RK3576構(gòu)建智能門禁系統(tǒng)
    的頭像 發(fā)表于 11-25 14:06 ?2003次閱讀
    迅為如何在RK3576上部署<b class='flag-5'>YOLOv5</b>;基于RK3576構(gòu)建智能門禁系統(tǒng)

    技術(shù)分享 | RK3588基于Yolov5的目標識別演示

    YOLO是一種基于深度神經(jīng)網(wǎng)絡(luò)的目標檢測算法,用在圖像或視頻中實時識別和定位多個對象。在其各個版本的迭代中,YOLOv5憑借易用性和性能平衡在工業(yè)、醫(yī)療、農(nóng)業(yè)、零售等領(lǐng)域被廣泛的應(yīng)用。本文以啟揚
    的頭像 發(fā)表于 09-18 17:27 ?1475次閱讀
    技術(shù)分享 | RK3588基于<b class='flag-5'>Yolov5</b>的目標識別演示

    基于瑞芯微RK3576的 yolov5訓(xùn)練部署教程

    s、YOLOv5m、YOLOv5l、YOLOv5x 四個模型。YOLOv5 相比YOLOv4 而言,在檢測平均精度降低不多的基礎(chǔ)上,具有均值
    的頭像 發(fā)表于 09-11 16:43 ?3253次閱讀
    基于瑞芯微RK3576的 <b class='flag-5'>yolov5</b>訓(xùn)練部署教程

    奇瑞風(fēng)云X3系列雙車上市

    8月16日,奇瑞汽車旗下風(fēng)云品牌全新方盒子產(chǎn)品序列——風(fēng)云X3與風(fēng)云X3 PLUS正式宣告上市。風(fēng)云X3系列基于iCAR 03系列煥新升級而來,在造型設(shè)計、動力性能、智能科技、功能配置及工藝品質(zhì)等維度實現(xiàn)全方位躍升。
    的頭像 發(fā)表于 08-19 11:48 ?1288次閱讀

    【上海晶珩睿莓1開發(fā)板試用體驗】物體識別的板端推理

    。 項目介紹 準備工作:環(huán)境部署、YOLOv5 介紹、模型下載; 項目工程:工程代碼、流程圖; 效果演示:測試不同場景圖片的物體識別效果。 識別效果見頂部視頻。 準備工作 包括所需 python 庫
    發(fā)表于 08-18 21:25

    在k230上使用yolov5檢測圖像卡死,怎么解決?

    0.99以上 模型轉(zhuǎn)換指令 再將該模型放到k230設(shè)備上使用yolo大作戰(zhàn)中yolov5檢測示例,檢測就會卡死,打印出的檢測結(jié)果會超過1。 目前無從下手,大佬們求救!
    發(fā)表于 08-11 07:41

    yolov5訓(xùn)練部署全鏈路教程

    m、YOLOv5l、YOLOv5x四個模型。YOLOv5相比YOLOv4而言,在檢測平均精度降低不多的基礎(chǔ)上,具有均值權(quán)重文件更小,訓(xùn)練時間和推理
    的頭像 發(fā)表于 07-25 15:22 ?2070次閱讀
    <b class='flag-5'>yolov5</b>訓(xùn)練部署全鏈路教程

    【正點原子STM32MP257開發(fā)板試用】基于 YOLO 模型的物體識別

    推理測試如下 總結(jié) 本文介紹了正點原子 STM32MP257 開發(fā)板基于 YOLO-v5n 模型實現(xiàn)物體識別的項目設(shè)計,包括YOLOv5模型介紹、官方Demo例程
    發(fā)表于 06-21 16:32

    使用yolov5轉(zhuǎn)為kmodel之后,運行MicroPython報錯誤:IndexError: index is out of bounds怎么解決?

    ] img,img_ori=read_img(img_path) rgb888p_size=[img.shape[2],img.shape[1]] # 初始化YOLOv5實例 yolo=YOLOv5
    發(fā)表于 06-06 06:23

    在K230上部署yolov5時 出現(xiàn)the array is too big的原因?

    重現(xiàn)步驟 1將yolov5的kmodel放入k230的data數(shù)據(jù) 2使用yolo大作戰(zhàn)里的視頻流推理代碼 3運行 期待結(jié)果和實際結(jié)果 期待的結(jié)果 將目標檢測的框圈起來 實際看到的結(jié)果
    發(fā)表于 05-28 07:47

    韻樂Vinal X3/X5卡拉OK音頻處理器調(diào)音軟件簡介

    韻樂Vinal X3/X5卡拉OK音頻處理器調(diào)音軟件軟件簡介韻樂Vinal X3/X5調(diào)音軟件具有音箱處理器功能的卡拉ok效果器每個功能部分都獨立可調(diào)且有相應(yīng)的PC界面可直觀調(diào)節(jié)易于操
    發(fā)表于 05-16 15:33 ?4次下載
    黄浦区| 蒲江县| 康平县| 中山市| 蒲城县| 三台县| 安岳县| 綦江县| 金堂县| 天津市| 谢通门县| 博乐市| 鄂托克旗| 金平| 上栗县| 北海市| 沂源县| 伊春市| 驻马店市| 长沙市| 灵寿县| 德化县| 昭通市| 河津市| 乌拉特前旗| 彭州市| 澎湖县| 元谋县| 华宁县| 当涂县| 徐州市| 乐平市| 高邮市| 红桥区| 留坝县| 汾阳市| 祥云县| 罗源县| 达孜县| 登封市| 交口县|