日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

YOLOv5使用教程詳解(單卡,多卡,多機訓(xùn)練)

jf_pmFSk4VX ? 來源:GiantPandaCV ? 作者:GiantPandaCV ? 2022-11-21 15:42 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

前言

代碼倉庫地址:https://github.com/Oneflow-Inc/one-yolov5歡迎star one-yolov5項目 獲取 最新的動態(tài)。如果你有問題,歡迎在倉庫給我們提出寶貴的意見。 如果對你有幫助,歡迎來給我Star呀~

聲明:Model Train(以coco數(shù)據(jù)集為例) 。本文涉及到了大量的超鏈接,但是在微信文章里面外鏈接會被吃掉,所以歡迎大家到這里查看本篇文章的完整版本:https://start.oneflow.org/oneflow-yolo-doc/tutorials/03_chapter/quick_start.html

項目結(jié)構(gòu)預(yù)覽

8e8b9c84-68d6-11ed-8abf-dac502259ad0.pngimage

安裝

gitclonehttps://github.com/Oneflow-Inc/one-yolov5#clone
cdone-yolov5
pipinstall-rrequirements.txt#install

訓(xùn)練

兩種訓(xùn)練方式

  1. 帶權(quán)重訓(xùn)練
$pythonpath/to/train.py--datacoco.yaml--weightsyolov5s--img640
  1. 不帶權(quán)重訓(xùn)練
$pythonpath/to/train.py--datacoco.yaml--weights''--cfgyolov5s.yaml--img640

GPU訓(xùn)練

$pythontrain.py--datacoco.yaml--weightsyolov5s--device0

多GPU訓(xùn)練

$python-moneflow.distributed.launch--nproc_per_node2train.py--batch64--datacoco.yaml--weightsyolov5s--device0,1

注意:

  • --nproc_per_node 指定要使用多少GPU。舉個例子:在上面 多GPU訓(xùn)練指令中它是2。

  • --batch 是總批量大小。它將平均分配給每個GPU。在上面的示例中,每GPU是64/2=32。

  • --cfg : 指定一個包含所有評估參數(shù)的配置文件。

  • 上面的代碼默認(rèn)使用GPU 0…(N-1)。使用特定的GPU?可以通過簡單在 --device 后跟指定GPU來實現(xiàn)。「案例」,在下面的代碼中,我們將使用GPU 2,3。

$python-moneflow.distributed.launch--nproc_per_node2train.py--batch64--datacoco.yaml--cfgyolov5s.yaml--weights''--device2,3

恢復(fù)訓(xùn)練

如果你的訓(xùn)練進程中斷了,你可以這樣恢復(fù)先前的訓(xùn)練進程。

#多卡訓(xùn)練.
python-moneflow.distributed.launch--nproc_per_node2train.py--resume

你也可以通過 --resume 參數(shù)指定要恢復(fù)的模型路徑

#記得把/path/to/your/checkpoint/path替換為你要恢復(fù)訓(xùn)練的模型權(quán)重路徑
--resume/path/to/your/checkpoint/path

使用SyncBatchNorm

SyncBatchNorm可以提高多gpu訓(xùn)練的準(zhǔn)確性,但會顯著降低訓(xùn)練速度。它僅適用于多GPU DistributedDataParallel 訓(xùn)練。

建議最好在每個GPU上的樣本數(shù)量較?。?em style="font-style:italic;color:#000000;">樣本數(shù)量<=8)時使用。

要使用SyncBatchNorm,只需將添加 --sync-bn 參數(shù)選項,具體「案例」如下:

$python-moneflow.distributed.launch--nproc_per_node2train.py--batch64--datacoco.yaml--cfgyolov5s.yaml--weights''--sync-bn

評估

下面的命令是在COCO val2017數(shù)據(jù)集上以640像素的圖像大小測試 yolov5x 模型。yolov5x是可用小模型中最大且最精確的,其它可用選項是 yolov5n ,yolov5m,yolov5s,yolov5l ,以及他們的 P6 對應(yīng)項比如 yolov5s6 ,或者你自定義的模型,即 runs/exp/weights/best 。有關(guān)可用模型的更多信息,請參閱我們的README-TABLE

$pythonval.py--weightsyolov5x--datacoco.yaml--img640

推理

首先,下載一個訓(xùn)練好的模型權(quán)重文件,或選擇你自己訓(xùn)練的模型;

然后,通過 detect.py文件進行推理。

pythonpath/to/detect.py--weightsyolov5s--source0#webcam
img.jpg#image
vid.mp4#video
path/#directory
path/*.jpg#glob
'https://youtu.be/Zgi9g1ksQHc'#YouTube
'rtsp://example.com/media.mp4'#RTSP,RTMP,HTTPstream

訓(xùn)練結(jié)果

本地日志

默認(rèn)情況下,所有結(jié)果都記錄為runs/train,并為每個新訓(xùn)練創(chuàng)建一個新的訓(xùn)練結(jié)果目錄,如runs/train/exp2、runs/train/exp3等。查看訓(xùn)練和測試JPG以查看 mosaics, labels, predictions and augmentation 效果。注意:Mosaic Dataloader 用于訓(xùn)練(如下所示),這是Ultralytics發(fā)表的新概念,首次出現(xiàn)在YOLOv4中。

train_batch0.jpg 顯示 batch 為 0 的 (mosaics and labels):

8ea4ce16-68d6-11ed-8abf-dac502259ad0.jpgimg

val_batch0_labels.jpg 展示測試 batch 為 0 的labels:

8ebcfad6-68d6-11ed-8abf-dac502259ad0.jpgimg

val_batch0_pred.jpg 展示測試 batch 為 0 predictions(預(yù)測):8ee1bcb8-68d6-11ed-8abf-dac502259ad0.jpg

訓(xùn)練訓(xùn)損失和性能的指標(biāo)有記錄到Tensorboard和自定義結(jié)果中results.csv日志文件,訓(xùn)練訓(xùn)完成后作為結(jié)果繪制 results.png如下。在這里,我們展示了在COCO128上訓(xùn)練的YOLOV5結(jié)果

  • 從零開始訓(xùn)練 (藍(lán)色)。
  • 加載預(yù)訓(xùn)練權(quán)重 --weights yolov5s (橙色)。
8f2203d6-68d6-11ed-8abf-dac502259ad0.pngimg

具體的指標(biāo)分析詳見文章《模型精確度評估》

訓(xùn)練技巧

聲明:大多數(shù)情況下,只要數(shù)據(jù)集足夠大且標(biāo)記良好,就可以在不改變模型或訓(xùn)練設(shè)置的情況下獲得良好的結(jié)果。如果一開始你沒有得到好的結(jié)果,你可以采取一些步驟來改進,但我們始終建議用戶在考慮任何更改之前先使用所有默認(rèn)設(shè)置進行一次訓(xùn)練。這有助于建立評估基準(zhǔn)和發(fā)現(xiàn)需要改進的地方 。

模型選擇

類似于YOLOv5x和YOLOv5x6的大型模型在幾乎所有情況下都會產(chǎn)生更好的結(jié)果,但參數(shù)更多,需要更多的CUDA內(nèi)存進行訓(xùn)練,運行速度較慢。

對于移動部署,我們推薦YOLOv5s/m,對于云部署,我們建議YOLOV5l/x。

有關(guān)所有模型的完整比較,請參閱詳細(xì)表

[外鏈圖片轉(zhuǎn)存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-FotYkHQk-1668949640644)( https://user-images.githubusercontent.com/35585791/201064824-f97c82d5-6bba-4421-86d9-194e47842e35.png)]

  • 從預(yù)先訓(xùn)練的權(quán)重開始訓(xùn)練。建議用于中小型數(shù)據(jù)集(即VOC、VisDrone、GlobalWheat)。將模型的名稱傳遞給--weights參數(shù)。模型自動從latest YOLOv5 releasse 下載 。
pythontrain.py--datacustom.yaml--weightsyolov5s
yolov5m
yolov5l
yolov5x
custom_pretrained#自定義的網(wǎng)絡(luò)結(jié)構(gòu)文件

  • 從頭開始訓(xùn)練的話,推薦用大的數(shù)據(jù)集(即 COCO、Objects365、OIv6 )在 --cfg 選項后傳遞你感興趣的網(wǎng)絡(luò)結(jié)構(gòu)文件參數(shù) 以及空的 --weights '' 參數(shù):
pythontrain.py--datacustom.yaml--weights''--cfgyolov5s.yaml
yolov5m.yaml
yolov5l.yaml
yolov5x.yaml

訓(xùn)練配置

在修改任何內(nèi)容之前,首先使用默認(rèn)設(shè)置進行訓(xùn)練,以建立性能基線。訓(xùn)練參數(shù)的完整列表,能夠在train.py文件中發(fā)現(xiàn)。

  • Epochs : 默認(rèn)訓(xùn)練300個epochs。如果早期過擬合,則可以減少訓(xùn)練。如果在300個周期后未發(fā)生過擬合,則可以訓(xùn)練更長,比如600、1200個epochs。

  • Image size: COCO以 --img 640,的分辨率進行訓(xùn)練,但由于數(shù)據(jù)集中有大量的小對象,它可以從更高分辨率(如--img 1280)的訓(xùn)練中訓(xùn)練。如果有許多小對象,則自定義數(shù)據(jù)集將從更高分辨率的訓(xùn)練中獲益。最好的推斷結(jié)果是在相同的--img 處獲得的 ,即如果在-img 1280處進行訓(xùn)練,也應(yīng)該在--img 1280處進行測試和檢測。

  • Batch Size: 使用更大的 --batch-size 。能夠有效緩解小樣本數(shù)產(chǎn)生的batchnorm統(tǒng)計的錯誤。

  • Hyperparameters:默認(rèn)超參數(shù)在hyp.scratch-low.yaml文件中。我們建議你在考慮修改任何超參數(shù)之前,先使用默認(rèn)超參數(shù)進行訓(xùn)練。一般來說,增加增強超參數(shù)將減少和延遲過度擬合,允許更長的訓(xùn)練和得到更高mAP值。減少損耗分量增益超參數(shù),如hyp['obj'],將有助于減少這些特定損耗分量中的過度擬合。有關(guān)優(yōu)化這些超參數(shù)的自動化方法,請參閱我們的 《超參數(shù)演化教程》。

  • ...更多訓(xùn)練的超參數(shù)配置請查看本文的附錄。

拓展

使用多機訓(xùn)練

這僅適用于多GPU分布式數(shù)據(jù)并行訓(xùn)練。

在訓(xùn)練之前,確保所有機器上的文件都相同,數(shù)據(jù)集、代碼庫等。之后,確保機器可以相互通信。

你必須選擇一臺主機器(其他機器將與之對話)。記下它的地址(master_addr)并選擇一個端口(master-port)。對于下面的示例,將使用master_addr=192.168.1.1和master_ port=1234。

要使用它,可以執(zhí)行以下指令:

#Onmastermachine0
$python-moneflow.distributed.launch--nproc_per_nodeG--nnodesN--node_rank0--master_addr"192.168.1.1"--master_port1234train.py--batch64--datacoco.yaml--cfgyolov5s.yaml--weights''
#OnmachineR
$python-moneflow.distributed.launch--nproc_per_nodeG--nnodesN--node_rankR--master_addr"192.168.1.1"--master_port1234train.py--batch64--datacoco.yaml--cfgyolov5s.yaml--weights''

其中G是每臺機器的GPU數(shù)量,N是機器數(shù)量,R是從0到(N-1)的機器數(shù)量。

假設(shè)我有兩臺機器,每臺機器有兩個GPU,對于上面的情況,G=2,N=2,R=1。

在連接所有N臺機器之前,訓(xùn)練不會開始。輸出將僅顯示在主機上!

注意

  • oneflow目前不支持windows平臺
  • --batch 必須是GPU數(shù)量的倍數(shù)。
  • GPU 0 將比其他GPU占用略多的內(nèi)存,因為它維護EMA并負(fù)責(zé)檢查點等。
  • 如果你得到 RuntimeError: Address already in use ,可能是因為你一次正在運行多個訓(xùn)練程序。要解決這個問題,只需通過添加--master_port來使用不同的端口號,如下所示
$python-moneflow.distributed.launch--master_port1234--nproc_per_node2...

配置代碼

#prepare
t=https://github.com/Oneflow-Inc/one-yolov5:latest&&sudodockerpull$t&&sudodockerrun-it--ipc=host--gpusall-v"$(pwd)"/coco:/usr/src/coco$t
pipinstall--preoneflow-fhttps://staging.oneflow.info/branch/master/cu112
cd..&&rm-rfapp&&gitclonehttps://github.com/Oneflow-Inc/one-yolov5-bmasterapp&&cdapp
cpdata/coco.yamldata/coco_profile.yaml

#profile
pythontrain.py--batch-size16--datacoco_profile.yaml--weightsyolov5l--epochs1--device0
python-moneflow.distributed.launch--nproc_per_node2train.py--batch-size32--datacoco_profile.yaml--weightsyolov5l--epochs1--device0,1
python-moneflow.distributed.launch--nproc_per_node4train.py--batch-size64--datacoco_profile.yaml--weightsyolov5l--epochs1--device0,1,2,3
python-moneflow.distributed.launch--nproc_per_node8train.py--batch-size128--datacoco_profile.yaml--weightsyolov5l--epochs1--device0,1,2,3,4,5,6,7

附件

表3.1

表3.1 : train.py參數(shù)解析表

參數(shù) help 幫助
--weight initial weights path 加載的權(quán)重文件路徑
--cfg model.yaml path 模型配置文件,網(wǎng)絡(luò)結(jié)構(gòu) 路徑
--data dataset.yaml path 數(shù)據(jù)集配置文件,數(shù)據(jù)集路徑
--hyp hyperparameters path 超參數(shù)文件 路徑
--epochs Total training rounds 訓(xùn)練總輪次
--batch-size total batch size for all GPUs, -1 for autobatch 一次訓(xùn)練所選取的樣本數(shù)
--imgsz train, val image size (pixels) 輸入圖片分辨率大小
--rect rectangular training 是否采用矩形訓(xùn)練,默認(rèn)False
--resume resume most recent training 接著打斷訓(xùn)練上次的結(jié)果接著訓(xùn)練
--nosave only save final checkpoint 只保存最終的模型,默認(rèn)False
--noautoanchor disable AutoAnchor 不自動調(diào)整anchor,默認(rèn)False
--noplots save no plot files 不保存打印文件,默認(rèn)False
--evolve evolve hyperparameters for x generations 是否進行超參數(shù)進化,默認(rèn)False
--bucket gsutil bucket 谷歌云盤bucket,一般不會用到
--cache --cache images in "ram" (default) or "disk" 是否提前緩存圖片到內(nèi)存,以加快訓(xùn)練速度,默認(rèn)False
--device cuda device, i.e. 0 or 0,1,2,3 or cpu 訓(xùn)練的設(shè)備,cpu;0(表示一個gpu設(shè)備cuda:0);0,1,2,3(多個gpu設(shè)備)
--multi-scale vary img-size +/- 50%% 是否進行多尺度訓(xùn)練,默認(rèn)False
--single-cls train multi-class data as single-class 數(shù)據(jù)集是否只有一個類別,默認(rèn)False
--optimizer optimizer 優(yōu)化器
--sync-bn use SyncBatchNorm, only available in DDP mode 是否使用跨卡同步BN,在DDP模式使用
--workers max dataloader workers (per RANK in DDP mode) dataloader的最大worker數(shù)量
--project save to project path 保存到項目結(jié)果地址
--name save to project/name/ 保存到項目結(jié)果/名稱
--exist-ok existing project/name ok, do not increment 現(xiàn)有項目/名稱確定,不遞增,默認(rèn)False
--quad quad dataloader 四元數(shù)據(jù)加載器 開啟之后在尺寸大于640的圖像上識別效果更好,但是有可能會使在640尺寸的圖片上效果更差
--cos-lr cosine LR scheduler 是否采用退火余弦學(xué)習(xí)率,默認(rèn)False
--label-smoothing Label smoothing epsilon 標(biāo)簽平滑
--patience EarlyStopping patience (epochs without improvement) 早停機制,默認(rèn)False
--freez Freeze layers: backbone=10, first3=0 1 2 凍結(jié)層數(shù),默認(rèn)不凍結(jié)
--save-period Save checkpoint every x epochs (disabled if < 1) 用于記錄訓(xùn)練日志信息,int 型,默認(rèn) -1
--seed Global training seed 隨機數(shù)種子設(shè)置
--local_rank Automatic DDP Multi-GPU argument, do not modify 自動單機多卡訓(xùn)練 一般不改動

Reference

  • https://github.com/ultralytics/yolov5/wiki/Train-Custom-Data
  • https://docs.ultralytics.com/quick-start/


審核編輯 :李倩


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5297

    瀏覽量

    136134
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1240

    瀏覽量

    26273

原文標(biāo)題:《YOLOv5全面解析教程》六,YOLOv5使用教程詳解(單卡,多卡,多機訓(xùn)練)

文章出處:【微信號:GiantPandaCV,微信公眾號:GiantPandaCV】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    瑞芯微(EASY EAI)RV1126B yolov8訓(xùn)練部署教程

    1.Yolov8簡介YOLOv8是ultralytics公司在2023年1月10號開源的基于YOLOV5進行更新的下一個重大更新版本,目前支持圖像分類、物體檢測和實例分割任務(wù),鑒于Yolov5
    的頭像 發(fā)表于 05-09 14:44 ?67次閱讀
    瑞芯微(EASY EAI)RV1126B <b class='flag-5'>yolov</b>8<b class='flag-5'>訓(xùn)練</b>部署教程

    瑞芯微(EASY EAI)RV1126B yolov5訓(xùn)練部署教程

    m、YOLOv5l、YOLOv5x四個模型。YOLOv5相比YOLOv4而言,在檢測平均精度降低不多的基礎(chǔ)上,具有均值權(quán)重文件更小,訓(xùn)練時間
    的頭像 發(fā)表于 05-09 14:20 ?70次閱讀
    瑞芯微(EASY EAI)RV1126B <b class='flag-5'>yolov5</b><b class='flag-5'>訓(xùn)練</b>部署教程

    基于PXIe總線的板卡通道同步機制研究

    本文以PXIe平臺為基礎(chǔ),聚焦同一PXIe機箱內(nèi)塊采集之間的通道同步問題,首先介紹板卡同步的典型應(yīng)用場景及面臨的挑戰(zhàn),然后分析若只保證單卡同步、板卡之間異步可能引發(fā)的系統(tǒng)級問題,
    的頭像 發(fā)表于 12-18 09:35 ?669次閱讀
    基于PXIe總線的<b class='flag-5'>多</b>板卡通道同步機制研究

    5G路由器】極速網(wǎng)絡(luò)無線覆蓋

    工業(yè)通信設(shè)備的理想升級選擇。5G路由器1.三模三-網(wǎng)絡(luò)保障三重網(wǎng)絡(luò)防護:同時支持三大運營商(移動/聯(lián)通/電信)SIM
    的頭像 發(fā)表于 12-04 11:11 ?4954次閱讀
    【<b class='flag-5'>多</b>模<b class='flag-5'>多</b><b class='flag-5'>卡</b><b class='flag-5'>5</b>G路由器】極速網(wǎng)絡(luò)無線覆蓋

    基于迅為RK3588開發(fā)板實現(xiàn)高性能機器狗主控解決方案-?AI能力實戰(zhàn):YOLOv5目標(biāo)檢測例程

    基于迅為RK3588開發(fā)板實現(xiàn)高性能機器狗主控解決方案-?AI能力實戰(zhàn):YOLOv5目標(biāo)檢測例程
    的頭像 發(fā)表于 11-28 11:32 ?1752次閱讀
    基于迅為RK3588開發(fā)板實現(xiàn)高性能機器狗主控解決方案-?AI能力實戰(zhàn):<b class='flag-5'>YOLOv5</b>目標(biāo)檢測例程

    迅為如何在RK3576上部署YOLOv5;基于RK3576構(gòu)建智能門禁系統(tǒng)

    迅為如何在RK3576開發(fā)板上部署YOLOv5;基于RK3576構(gòu)建智能門禁系統(tǒng)
    的頭像 發(fā)表于 11-25 14:06 ?2020次閱讀
    迅為如何在RK3576上部署<b class='flag-5'>YOLOv5</b>;基于RK3576構(gòu)建智能門禁系統(tǒng)

    技術(shù)分享 | RK3588基于Yolov5的目標(biāo)識別演示

    YOLO是一種基于深度神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測算法,用在圖像或視頻中實時識別和定位多個對象。在其各個版本的迭代中,YOLOv5憑借易用性和性能平衡在工業(yè)、醫(yī)療、農(nóng)業(yè)、零售等領(lǐng)域被廣泛的應(yīng)用。本文以啟揚
    的頭像 發(fā)表于 09-18 17:27 ?1487次閱讀
    技術(shù)分享 | RK3588基于<b class='flag-5'>Yolov5</b>的目標(biāo)識別演示

    基于瑞芯微RK3576的 yolov5訓(xùn)練部署教程

    s、YOLOv5m、YOLOv5l、YOLOv5x 四個模型。YOLOv5 相比YOLOv4 而言,在檢測平均精度降低不多的基礎(chǔ)上,具有均值
    的頭像 發(fā)表于 09-11 16:43 ?3270次閱讀
    基于瑞芯微RK3576的 <b class='flag-5'>yolov5</b><b class='flag-5'>訓(xùn)練</b>部署教程

    在k230上使用yolov5檢測圖像卡死,怎么解決?

    0.99以上 模型轉(zhuǎn)換指令 再將該模型放到k230設(shè)備上使用yolo大作戰(zhàn)中yolov5檢測示例,檢測就會卡死,打印出的檢測結(jié)果會超過1。 目前無從下手,大佬們求救!
    發(fā)表于 08-11 07:41

    yolov5訓(xùn)練部署全鏈路教程

    m、YOLOv5l、YOLOv5x四個模型。YOLOv5相比YOLOv4而言,在檢測平均精度降低不多的基礎(chǔ)上,具有均值權(quán)重文件更小,訓(xùn)練時間
    的頭像 發(fā)表于 07-25 15:22 ?2078次閱讀
    <b class='flag-5'>yolov5</b><b class='flag-5'>訓(xùn)練</b>部署全鏈路教程

    RK3576 Yolov11訓(xùn)練部署教程

    1.Yolo11簡介YOLO11系列是YOLO家族中最先進的(SOTA)、最輕量級、最高效的模型,其表現(xiàn)優(yōu)于其前輩。它由Ultralytics創(chuàng)建,該組織發(fā)布了YOLOv8,這是迄今為止最穩(wěn)定
    的頭像 發(fā)表于 07-25 15:22 ?1305次閱讀
    RK3576 <b class='flag-5'>Yolov</b>11<b class='flag-5'>訓(xùn)練</b>部署教程

    【Sipeed MaixCAM Pro開發(fā)板試用體驗】 + 04 + 機器學(xué)習(xí)YOLO體驗

    的精度 這張圖片是我通過在線訓(xùn)練平臺使用yolov5訓(xùn)練得出的模型精度,可以明顯的看出訓(xùn)練出的 模型精度最高有0.924 ,是一個非常高的結(jié)果。(圖中
    發(fā)表于 07-24 21:35

    使用yolov5轉(zhuǎn)為kmodel之后,運行MicroPython報錯誤:IndexError: index is out of bounds怎么解決?

    ] img,img_ori=read_img(img_path) rgb888p_size=[img.shape[2],img.shape[1]] # 初始化YOLOv5實例 yolo=YOLOv5
    發(fā)表于 06-06 06:23

    在K230上部署yolov5時 出現(xiàn)the array is too big的原因?

    重現(xiàn)步驟 1將yolov5的kmodel放入k230的data數(shù)據(jù) 2使用yolo大作戰(zhàn)里的視頻流推理代碼 3運行 期待結(jié)果和實際結(jié)果 期待的結(jié)果 將目標(biāo)檢測的框圈起來 實際看到的結(jié)果
    發(fā)表于 05-28 07:47

    一文詳解芯片封裝技術(shù)

    芯片封裝在現(xiàn)代半導(dǎo)體領(lǐng)域至關(guān)重要,主要分為平面芯片封裝和芯片堆疊封裝。芯片堆疊封裝又細(xì)分為芯片3D堆疊引線鍵合封裝、3D堆疊引線鍵
    的頭像 發(fā)表于 05-14 10:39 ?2558次閱讀
    一文<b class='flag-5'>詳解</b><b class='flag-5'>多</b>芯片封裝技術(shù)
    泾阳县| 拜城县| 金昌市| 蒲城县| 屏东市| 邯郸市| 巫山县| 伊金霍洛旗| 宜兰县| 新兴县| 无为县| 巧家县| 香港| 江都市| 铜川市| 固镇县| 塔河县| 武宁县| 大方县| 威海市| 大渡口区| 西乡县| 卓尼县| 通渭县| 东兰县| 阜城县| 厦门市| 武平县| 崇阳县| 拉萨市| 花莲市| 葵青区| 文水县| 卢龙县| 图木舒克市| 平武县| 永胜县| 浦城县| 汝南县| 阿拉善盟| 耒阳市|