日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

Flexus X 實例 ultralytics 模型 yolov10 深度學習 AI 部署與應用

jf_81200783 ? 來源:jf_81200783 ? 作者:jf_81200783 ? 2024-12-24 12:24 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

前言:

???深度學習新紀元,828 B2B 企業(yè)節(jié) Flexus X 實例特惠!想要高效訓練 YOLOv10 模型,實現(xiàn)精準圖像識別?Flexus X 以卓越算力,助您輕松駕馭大規(guī)模數(shù)據(jù)集,加速模型迭代,讓 AI 智能觸手可及。把握此刻,讓創(chuàng)新不再受限!

???本實驗演示從 0 到 1 部署 YOLOv10 深度學習 AI 大模型的環(huán)境搭建、模型訓練、權(quán)重使用,以及各項指標解讀。實驗環(huán)境為 Flexus 云服務器 X 實例 服務器,配置:4vCPUs | 12GiB

環(huán)境準備

購買服務器配置

本次實驗使用的是 Flexus 云服務器 X 實例 服務器。

wKgZPGdqN4aACF0MAACgmpc9Lao686.png

在性能設置中我選擇了自定義模式,使用了 4vCPUs | 12GiB,因為本次要實驗的是 yolov10 的部署與應用,Windows 操作系統(tǒng)具有更加直觀的用戶界面和強大的圖形支持,我選擇了公共鏡像 Windows Server 2022 數(shù)據(jù)中心版。以上配置僅供參考,并非硬性要求!

wKgZO2dqN4eAeh8cAAFEfS3HPcg100.png

連接服務器

在華為云服務器控制臺中找到我們剛剛購買的服務器,將彈性公網(wǎng) IP 地址復制下來。

wKgZPGdqN4eASFNLAAEaWj5iWQA053.png

快捷鍵 Windows + R 打開運行窗口,輸入 mstsc,回車!

wKgZO2dqN4iABtq5AABAG-DoOEI269.png

輸入計算機:彈性公網(wǎng) IP 地址;用戶名:MicrosoftAccountAdministrator,單擊“確定”。

wKgZPGdqN4iAGuIrAACY8p1tkG8604.png

然后輸入密碼,就成功的連接到我們的服務器了。

wKgZO2dqN4mAFcdKAAfPU8Dqy_0433.png

如果忘記密碼了,可以在操作列中點擊重置密碼,重新設置我們的服務器密碼。

wKgZPGdqN4qAZJwIAAAW4Ctw3IU649.png

安裝 Python

我們先來安裝 python3,打開官網(wǎng)地址

Download Python | Python.org

在官網(wǎng)下一個大于大于 3.8 的 python 安裝包(官方建議使用 3.9 的版本),選擇 amd64 的 exe 版本

wKgZO2dqN4qADbHWAAIeXdZedFo051.png

安裝的時候勾選最底下的幫我們添加環(huán)境變量

wKgZPGdqN4uAe-kqAAFfrbGswxw814.png

等待片刻,出現(xiàn)下面這個界面就是安裝成功了。

wKgZO2dqN4yATKlXAAE_WiG4l2Y805.png

CMD 打開控制臺小黑窗,執(zhí)行 python -V 和 pip -V 查看 python 版本與 pip 版本,看看我們的環(huán)境變量是否設置成功。

wKgZPGdqN4yAK5N1AAAXuY5QzQw023.png

安裝 Pytorch

到官網(wǎng)安裝 Pytorch

Start Locally | PyTorch

在安裝之前看看自己買的服務器是否有 GPU,可以使用命令來查看

查看 CPU 型號:cat /proc/cpuinfo | grep "model name"

查看 GPU 型號(Nvidia GPU):nvidia-smi --query-gpu=gpu_name --format=csv

查看 GPU 型號(AMD Radeon GPU):sudo lshw -C display

因為我這臺是只有 CPU 的,因此在官網(wǎng)中選擇 Stable(穩(wěn)定版),系統(tǒng) Linux,用 pip 來安裝吧,然后 Compute Platform 選擇 CPU,然后把 Run this Command:中的命令???cmd 打開黑窗口執(zhí)行。

wKgZO2dqN42AUeKdAAEeyL9T6fg279.png

我這里執(zhí)行的是

pip3 install torch torchvision torchaudio 直接執(zhí)行可能會很慢,我在后面加上指定鏡像源,切換為國內(nèi)鏡像 pip3 install torch torchvision torchaudio -i https://pypi.mirrors.ustc.edu.cn/simple/

出現(xiàn)如下畫面即是成功下載完成。

wKgZPGdqN42AeP1KAACGwYj4YG8854.png

部署 YOLOv10

YOLOv10 是 YOLO(You Only Look Once)系列的最新版本,由清華大學的研究人員開發(fā),旨在進一步提高實時目標檢測的效率和準確性。以下是對 YOLOv10 的詳細介紹:

wKgZO2dqN46AaEEBAAEpnY14SCE251.png

之前的 YOLO 版本在后處理和模型架構(gòu)方面仍存在不足,特別是依賴于非最大抑制(NMS)進行后處理,這限制了模型的端到端部署并增加了推理延遲。YOLOv10 通過消除 NMS 和優(yōu)化模型組件,旨在解決這些問題,實現(xiàn)更高的性能和效率。

拉取 YOLOv10 代碼并安裝相關(guān)依賴

打開 YOLOV0 的 GItHub 代碼庫,將源碼下載到本地,解壓。

GitHub - THU-MIG/yolov10: YOLOv10: Real-Time End-to-End Object Detection

wKgZPGdqN4-AJl9xAAFCyhOrfQg941.png

解壓完成后,打開命令行窗口,cd 到源碼的工作目錄,執(zhí)行下面兩個命令。

wKgZO2dqN4-AFFu5AAGMePeumaU870.png

wKgZPGdqN5CAGK7_AAASXmVrBiI066.png

當以上相關(guān)依賴都安裝完畢后,執(zhí)行以下訓練命令測試我們的環(huán)境(此步驟可跳過)。

yolo detect train data=coco.yaml model=yolov10s.yaml epochs=5 batch=256 imgsz=640

第一次執(zhí)行會自動下載官方提供的訓練案例文件,需要等待較長時間。

wKgZO2dqN5CAQ2smAABWyEBmroI501.png

數(shù)據(jù)集準備

YOLOv10 作為實時目標檢測模型,理論上支持多種類型的數(shù)據(jù)集,只要這些數(shù)據(jù)集符合 YOLOv10 的輸入格式和標注要求。具體來說,YOLOv10 可以支持的數(shù)據(jù)集包括但不限于以下幾種類型:

1.通用目標檢測數(shù)據(jù)集:如 COCO(Common Objects in Context)數(shù)據(jù)集,這是一個大型、豐富的圖像數(shù)據(jù)集,用于目標檢測、分割、關(guān)鍵點檢測等多種任務。YOLOv10 在 COCO 數(shù)據(jù)集上取得了顯著的性能提升,展現(xiàn)出優(yōu)異的精度-效率平衡能力。

2.特定領域數(shù)據(jù)集:YOLOv10 也可以應用于特定領域的數(shù)據(jù)集,如交通標志檢測數(shù)據(jù)集、人臉檢測數(shù)據(jù)集、車輛檢測數(shù)據(jù)集等。這些數(shù)據(jù)集通常針對特定場景或任務進行收集和標注,以滿足特定領域的需求。

3.自定義數(shù)據(jù)集:用戶還可以根據(jù)自己的需求創(chuàng)建自定義數(shù)據(jù)集,并使用 YOLOv10 進行訓練和測試。自定義數(shù)據(jù)集需要按照 YOLOv10 的輸入格式進行標注和組織,包括圖像文件、標簽文件以及可能的數(shù)據(jù)集配置文件等。

通常來說,我們需要將標注結(jié)果與原圖按比例分配到三個文件夾中

如你有 100 張標注了的圖片,大約 80 張圖片用于訓練數(shù)據(jù),約 10 張圖片用于驗證數(shù)據(jù),約 10 張圖片用于測試數(shù)據(jù)

train 路徑用于訓練模型,val 路徑用于驗證模型,test 路徑用于測試模型。在訓練和驗證期間,模型將在不同的數(shù)據(jù)集上進行訓練和驗證,以便評估模型的性能。在測試期間,模型將使用整個數(shù)據(jù)集進行測試,以確定其性能指標

需要注意的是:訓練過的圖片通常不能用于驗證數(shù)據(jù)。這是因為在訓練期間,模型已經(jīng)對這些圖片進行了訓練,并學會了識別這些圖片中的對象和場景類別。

因為數(shù)據(jù)標注要花費大量的時間,這里直接拿出我最愛的皮卡丘標注數(shù)據(jù)

400多張“皮卡丘”原圖與標注結(jié)果以及yolov8的訓練結(jié)果best.pt權(quán)重和ONNX格式文件_yolov8權(quán)重轉(zhuǎn)onnx資源-CSDN文庫

wKgZPGdqN5GAfqwTAAAkjqH8InY414.png

在這個壓縮包中有皮卡丘圖片與標注信息,還有 yolov8 的訓練好的權(quán)重文件,我們只留下 images 和 labels 用來訓練 yolov10 版本的權(quán)重。

因為我比較懶,能用代碼解決的事就用代碼,下面我們使用 python 對數(shù)據(jù)集進行隨機分配。

修改下面代碼中 66-67 行中的

src_data_folder = '數(shù)據(jù)集路徑' target_data_folder = '處理后的數(shù)據(jù)集'

wKgZO2dqN5GABQ-eAACl7fgmBxs861.png

wKgZPGdqN5KAUtX2AAEIzQAISiU383.png

wKgZO2dqN5KABjR4AAD1vuoQw_o245.png

wKgZPGdqN5OAIvepAAD7w-nQkc8642.png

wKgZO2dqN5SAUgRWAABBgU0pWOQ603.png

wKgZPGdqN5SAED-rAACHXTIwWwo154.png

因為在 yolo 訓練中,我們并不需要將圖片和標注結(jié)果分開存放,因此我們將 train 和 val 中的 images 和 labels 里的文件都全部移出來,然后將這兩個文件夾刪掉即可。

wKgZO2dqN5WAeQEPAACfI5Sw9_s513.png

要注意的是,不管是 train 還是 val 都需要檢查是否包含這么一個 classes.txt 文件,如果沒有的話需要自己手動補上,因為我這里的素材只有一個皮卡丘目標,并且標注為 1 了,所以只寫了一個 1。

wKgZPGdqN5WALLcaAADBgAKzLO4591.png

訓練數(shù)據(jù)集的配置文件

參考路徑 C:yolov10-mainultralyticscfgdatasets 找到 voc.yaml,復制一份,自定義一個名字

執(zhí)行完識別命令后,可在輸出信息中看到識別結(jié)果文件所在位置,detectpredict(數(shù)字會自動疊加)

wKgZO2dqN5aAe8vCAABICgs81wM184.png

wKgZPGdqN5aAdlUjAAD2FbyAv8g426.png

任意打開一張圖片,找出識別前的圖片對比一下,皮卡丘已經(jīng)被框出來了,并打上我們設置的 pkq 標簽。

至此~我們就完成了 YOLOv10 目標檢測模型的訓練與識別工作了!整個實驗操作下來,F(xiàn)lexus 云服務器 X 實例的表現(xiàn)都是非常出色的!

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    41479

    瀏覽量

    302797
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5612

    瀏覽量

    124669
  • 華為云
    +關(guān)注

    關(guān)注

    3

    文章

    2837

    瀏覽量

    19379
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    【幸狐Omni3576邊緣計算套件試用體驗】YOLO26 板端部署

    訓練模型獲取等; YOLO26:目標檢測、實例分割、圖像分類、姿態(tài)估計、旋轉(zhuǎn)框檢測等; 準備工作 包括硬件連接、OpenCV 安裝、Ultralytics部署、YOLO26
    發(fā)表于 04-19 22:02

    【飛凌嵌入式RV1126B開發(fā)板試用體驗】+ 5. YOLOv8目標識別部署

    和測試https://bbs.elecfans.com/jishu_2512474_1_1.html 6 YOLOv8目標識別部署 6.1 模型訓練 在Windows上使用Anaconda提供訓練環(huán)境
    發(fā)表于 03-23 20:19

    邊緣AI算力臨界點:深度解析176TOPS香橙派AI Station的產(chǎn)業(yè)價值

    、內(nèi)存革命:48GB/96GB LPDDR4X 背后的帶寬博弈 很多開發(fā)者容易陷入唯算力論的誤區(qū),但在實際部署模型時,內(nèi)存容量和帶寬往往是真正的性能瓶頸。OrangePi AI St
    發(fā)表于 03-10 14:19

    【團購】獨家全套珍藏!龍哥LabVIEW視覺深度學習實戰(zhàn)課(11大系列課程,共5000+分鐘)

    (第10系列)、YOLOv8-Tiny工業(yè)優(yōu)化版(第9系列),滿足產(chǎn)線端設備算力限制,模型推理速度提升300%。 LabVIEW生態(tài)整合 作為工業(yè)自動化領域主流開發(fā)環(huán)境,LabVIEW與深度
    發(fā)表于 12-04 09:28

    【團購】獨家全套珍藏!龍哥LabVIEW視覺深度學習實戰(zhàn)課程(11大系列課程,共5000+分鐘)

    (第10系列)、YOLOv8-Tiny工業(yè)優(yōu)化版(第9系列),滿足產(chǎn)線端設備算力限制,模型推理速度提升300%。 LabVIEW生態(tài)整合 作為工業(yè)自動化領域主流開發(fā)環(huán)境,LabVIEW與深度
    發(fā)表于 12-03 13:50

    使用ROCm?優(yōu)化并部署YOLOv8模型

    作者:AVNET 李鑫杰 一,YOLOv8介紹? YOLOv8 由 Ultralytics 于 2023 年 1 月 10 日發(fā)布,在準確性和速度方面提供了前沿的性能。
    的頭像 發(fā)表于 09-24 18:32 ?1035次閱讀
    使用ROCm?優(yōu)化并<b class='flag-5'>部署</b><b class='flag-5'>YOLOv</b>8<b class='flag-5'>模型</b>

    基于瑞芯微RK3576的 yolov5訓練部署教程

    1.Yolov5簡介 YOLOv5 模型Ultralytics 公司于 2020 年 6 月 9 日公開發(fā)布的。YOLOv5
    的頭像 發(fā)表于 09-11 16:43 ?3261次閱讀
    基于瑞芯微RK3576的 <b class='flag-5'>yolov</b>5訓練<b class='flag-5'>部署</b>教程

    求助,關(guān)于K230部署yolov8時遇到問題求解

    使用yolov8訓練出來了一個十個類別的模型并且按照要求轉(zhuǎn)換成了.kmodel模型,在部署到K230時 使用yolo大作戰(zhàn)里面的代碼提示我list out of range但是我看了我
    發(fā)表于 08-12 07:26

    在K230中,如何使用AI Demo中的object_detect_yolov8n,YOLOV8多目標檢測模型?

    在K230的AI開發(fā)教程文檔中,可以看到有源碼的AI Demo,其中包括yolov8n模型,在倉庫里可以看到源碼 我想請問各位大佬,如何使用這個程序?如何更改程序,替換為我自己的
    發(fā)表于 08-07 06:48

    這個套件讓樹莓派5運行幾乎所有YOLO模型!Conda 與 Ultralytics

    如何在樹莓派上設置YOLO計算機視覺?Conda與Ultralytics在本指南中,我們將學習如何使用Conda在樹莓派上安裝UltralyticsYOLO視覺套件。該套件將允許你運行Ultralytics支持的幾乎所有YOLO
    的頭像 發(fā)表于 07-31 11:51 ?5955次閱讀
    這個套件讓樹莓派5運行幾乎所有YOLO<b class='flag-5'>模型</b>!Conda 與 <b class='flag-5'>Ultralytics</b>!

    ai_cube訓練模型最后部署失敗是什么原因?

    ai_cube訓練模型最后部署失敗是什么原因?文件保存路徑里也沒有中文 查看AICube/AI_Cube.log,看看報什么錯?
    發(fā)表于 07-30 08:15

    YOLOv8轉(zhuǎn)換到kmodel時出現(xiàn)undefined symbol錯誤怎么解決?

    使用yolo v8訓練視覺檢測模型,使用yolov8版本為8.3.159,訓練完后在windows使用ultralytics中的函數(shù)導出.pt文件為.onnx文件,然后在WSL
    發(fā)表于 07-28 06:20

    yolov5訓練部署全鏈路教程

    1.Yolov5簡介YOLOv5模型Ultralytics公司于2020年6月9日公開發(fā)布的。YOLOv5
    的頭像 發(fā)表于 07-25 15:22 ?2076次閱讀
    <b class='flag-5'>yolov</b>5訓練<b class='flag-5'>部署</b>全鏈路教程

    RK3576 Yolov11訓練部署教程

    1.Yolo11簡介YOLO11系列是YOLO家族中最先進的(SOTA)、最輕量級、最高效的模型,其表現(xiàn)優(yōu)于其前輩。它由Ultralytics創(chuàng)建,該組織發(fā)布了YOLOv8,這是迄今為止最穩(wěn)定
    的頭像 發(fā)表于 07-25 15:22 ?1299次閱讀
    RK3576 <b class='flag-5'>Yolov</b>11訓練<b class='flag-5'>部署</b>教程

    【幸狐Omni3576邊緣計算套件試用體驗】幸狐Omni3576開發(fā)板移植YOLOV10和推理測試

    、量化精度分析以及模型加密。RKNN 軟件??梢詭椭脩艨焖俚膶?AI 模型部署到 Rockchip 芯片。整體的框架如下: 為了使用 RKNPU,首先需要在計算機(最新的Kit支持
    發(fā)表于 05-24 12:27
    贵定县| 云安县| 罗甸县| 达州市| 庄浪县| 通江县| 伊春市| 孝感市| 济宁市| 乌兰察布市| 普洱| 江门市| 泰来县| 花莲市| 诸城市| 齐河县| 于田县| 广丰县| 鱼台县| 姚安县| 乾安县| 舞阳县| 永川市| 姚安县| 西和县| 上林县| 台州市| 察隅县| 武威市| 山东省| 景东| 成都市| 包头市| 健康| 吉水县| 淳安县| 睢宁县| 平舆县| 栾城县| 京山县| 师宗县|