日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

RetinaNet深度學(xué)習(xí)模型突破航空圖像目標(biāo)檢測難題

曦智科技 ? 來源:曦智科技 ? 2026-05-15 09:23 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

你是否好奇,計算機是如何從一張高分辨率的衛(wèi)星或航拍圖像中,精準(zhǔn)識別出幾十個甚至上百個不同目標(biāo)的?這些目標(biāo)有的呈任意方向,有的尺寸差異極大,背景更是復(fù)雜多變。面對這樣的挑戰(zhàn),一個名為RetinaNet的深度學(xué)習(xí)模型交出了亮眼的答卷——它讓One-stage檢測器超越了傳統(tǒng)Two-stage方法的精度,成為了航空圖像分析領(lǐng)域的重要工具。

DOTA數(shù)據(jù)集

航空圖像與普通圖像不同:

目標(biāo)方向任意(不再是“正”著的汽車)

目標(biāo)尺寸變化極大(從大型橋梁到小型車輛)

背景復(fù)雜(機場、港口、居民區(qū)混雜)

DOTA數(shù)據(jù)集(Dataset forObject deTection inAerial images)正是為此而生。它包含2806張高分辨率圖像,累計標(biāo)注了超過18萬個目標(biāo),涵蓋飛機、船舶、車輛、港口、橋梁等18個類別。

值得注意的是,DOTA的標(biāo)注方式非常特殊——用四個點的坐標(biāo)表示一個旋轉(zhuǎn)框,而不是普通的水平矩形框。這是因為航空圖像中的目標(biāo)往往朝向任意方向,只有旋轉(zhuǎn)框才能精確貼合。

每一行標(biāo)注包含10個數(shù)值,前8個是旋轉(zhuǎn)矩形四個角的坐標(biāo),第9個是類別,第10個表示識別難易程度。標(biāo)注格式為:

(x1, y1, x2, y2, x3, y3, x4, y4, category, 0/1)*0代表容易被檢測,1代表不容易被檢測

為了讓模型更魯棒,研究者們還對圖像進(jìn)行了數(shù)據(jù)增強,包括亮度調(diào)整、加噪聲、旋轉(zhuǎn)、鏡像、平移、裁剪等。這些操作不僅增加了數(shù)據(jù)多樣性,也讓模型更好地適應(yīng)真實場景。

RetinaNet:

One-stage首次超越Two-stage

在RetinaNet出現(xiàn)之前,目標(biāo)檢測領(lǐng)域有兩個陣營:

Two-stage(如Faster R-CNN):

精度高,但速度慢

One-stage(如SSD):

速度快,但精度往往不如前者

RetinaNet的突破在于:它讓One-stage在精度上超越了Two-stage方法。

核心秘訣就是Focal Loss(焦點損失)。

在結(jié)構(gòu)上,RetinaNet 沒有沿用特征金字塔網(wǎng)絡(luò)(FPN)的完整路徑,而是直接從 C3 層開始生成 P3 特征層,跳過了計算量較大的 C2;P6 也不是簡單的最大池化,而是通過卷積下采樣得到,特征層級更是一直延伸到 P7,覆蓋了從幾十像素到八百多像素的廣闊目標(biāo)尺度。

在 P3 到 P7 的每一層,RetinaNet 都為每個位置預(yù)先設(shè)置了 9 個錨框——3 種尺度搭配 3 種長寬比,確保無論目標(biāo)是大是小、是方是長,都能被“框”住。

51796998-4ce9-11f1-90a1-92fbcf53809c.png

*圖片來自于文章“光計算在RetinaNet目標(biāo)檢測任務(wù)中的應(yīng)用”

在預(yù)測器的設(shè)計上,RetinaNet 采用了一種極其簡潔卻高效的思路:用兩個并行的全卷積分支,一個負(fù)責(zé)分類,一個負(fù)責(zé)回歸,而且所有特征層共享同一套卷積權(quán)重。分類分支輸出“類別數(shù) × 錨框數(shù)”的通道,回歸分支則輸出“4 × 錨框數(shù)”的偏移量參數(shù),這種結(jié)構(gòu)既保持了計算的高效性,又讓預(yù)測結(jié)果與每個錨框一一對應(yīng)。

51d54ad8-4ce9-11f1-90a1-92fbcf53809c.png

*圖片來自于文章“光計算在RetinaNet目標(biāo)檢測任務(wù)中的應(yīng)用”

而在樣本匹配策略上,RetinaNet 同樣干凈利落——只要錨框與真實框的交并比(IoU)大于 0.5 就視為正樣本,小于 0.4 則為負(fù)樣本,介于中間的則直接忽略。正是這樣一套“結(jié)構(gòu)+預(yù)測+匹配”的組合,為后續(xù) Focal Loss 的發(fā)揮打下了堅實的基礎(chǔ)。

522d36da-4ce9-11f1-90a1-92fbcf53809c.png

*圖片來自于文章“光計算在RetinaNet目標(biāo)檢測任務(wù)中的應(yīng)用”

Focal Loss:從“淹沒”到“聚焦”

RetinaNet真正的靈魂,是Focal Loss(焦點損失)。

問題:負(fù)樣本泛濫

在單階段檢測器中,錨框數(shù)量巨大(例如幾十萬個),但正樣本往往只有幾十個。即使采用正負(fù)樣本1:3的采樣策略,訓(xùn)練過程仍然被大量容易區(qū)分的負(fù)樣本主導(dǎo)。

解決方案:動態(tài)縮放

傳統(tǒng)的交叉熵?fù)p失(CE)對所有樣本一視同仁。Focal Loss引入了一個調(diào)制因子:

528bf026-4ce9-11f1-90a1-92fbcf53809c.png

當(dāng)樣本容易區(qū)分(Pt接近1)時,(1-Pt)y接近0,損失被大幅壓低。

當(dāng)樣本難以區(qū)分(Pt較小)時,調(diào)制因子接近1,損失基本保留。

配合平衡因子?t,F(xiàn)ocal Loss同時解決了正負(fù)樣本不平衡和難易樣本不平衡兩大問題。

模型量化:讓RetinaNet“輕裝上陣”

當(dāng)模型訓(xùn)練完成,下一步就是部署。在光計算等硬件平臺上,模型需要從浮點精度轉(zhuǎn)換為定點精度,這個過程稱為模型量化。

工具:MOCA

MOCA是一套基于MQBench的量化工具,支持8/4/3/2bit的定點量化,并能夠?qū)С鲞m用于光計算硬件的ONNX模型。

QAT訓(xùn)練:低比特訓(xùn)練

QAT(量化感知訓(xùn)練)通過在訓(xùn)練過程中模擬量化誤差,讓模型提前適應(yīng)低比特表示。在RetinaNet的QAT訓(xùn)練中,研究者對比了不同輸入尺寸和光計算模擬器的效果:

1024×1024輸入:mAP較高,但計算量更大

512×512輸入:速度更快,精度略有下降

最終在光計算模擬器上的測試結(jié)果證明,量化后的RetinaNet仍能保持較高的檢測精度,同時大幅提升推理效率。

如果你對技術(shù)細(xì)節(jié)感興趣,歡迎閱讀原文。

參考文獻(xiàn)

[1] 曦智科技. 光計算在RetinaNet目標(biāo)檢測任務(wù)中的應(yīng)用[EB/OL]. 2026-04-02. https://www.xztech.ai/community/cases/1.

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 計算機
    +關(guān)注

    關(guān)注

    19

    文章

    7847

    瀏覽量

    93544
  • 目標(biāo)檢測
    +關(guān)注

    關(guān)注

    0

    文章

    235

    瀏覽量

    16559
  • 曦智科技
    +關(guān)注

    關(guān)注

    0

    文章

    45

    瀏覽量

    8129

原文標(biāo)題:讓無人機“慧眼識物”:RetinaNet如何攻克航空圖像目標(biāo)檢測難題?

文章出處:【微信號:曦智科技,微信公眾號:曦智科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測模型

    的是百度的Picodet模型,它是一種基于深度卷積網(wǎng)絡(luò)(DNN)的輕量級目標(biāo)檢測模型,具有非常高的檢測
    發(fā)表于 12-19 14:33

    全網(wǎng)唯一一套labview深度學(xué)習(xí)教程:tensorflow+目標(biāo)檢測:龍哥教你學(xué)視覺—LabVIEW深度學(xué)習(xí)教程

    到的, 深度學(xué)習(xí)可以搞定。特別是在圖像分類, 目標(biāo)檢測這些問題上取得了顯著的提升。下圖是近幾年來深度
    發(fā)表于 08-10 10:38

    航空圖像壓縮系統(tǒng)的DSP設(shè)計及實現(xiàn)

    根據(jù)航空圖像壓縮系統(tǒng)的特點和要求,選擇提升小波+SPIHT算法作為系統(tǒng)的實現(xiàn)方案。為了提高算法的執(zhí)行效率,對提升小波中的邊界處理問題進(jìn)行了合理簡化,同時對SPIHT算法的實現(xiàn)
    發(fā)表于 07-19 16:04 ?8次下載

    航空圖像壓縮系統(tǒng)的DSP設(shè)計方案解析

    航空圖像由于可以提供大量豐富的直觀信息,因而在軍事偵察、搶險救災(zāi)、氣象探測等領(lǐng)域得到了廣泛應(yīng)用。航空圖像由于是遠(yuǎn)距離成像,所以分辨率較低且數(shù)據(jù)量很大。如果要把拍攝的航空圖像實時回傳,就必須對其進(jìn)行
    發(fā)表于 11-03 15:32 ?0次下載
    <b class='flag-5'>航空圖像</b>壓縮系統(tǒng)的DSP設(shè)計方案解析

    基于深度卷積神經(jīng)網(wǎng)絡(luò)的航空目標(biāo)檢測與識別

    的bounding-box的回歸問題,用一個24層卷積神經(jīng)網(wǎng)絡(luò)模型來完成bounding-box的預(yù)測;然后,利用圖像分類網(wǎng)絡(luò)來完成目標(biāo)切片的分類任務(wù)。大尺寸圖像上的傳統(tǒng)
    發(fā)表于 12-01 15:55 ?0次下載
    基于<b class='flag-5'>深度</b>卷積神經(jīng)網(wǎng)絡(luò)的<b class='flag-5'>航空</b>器<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測</b>與識別

    一種新的目標(biāo)分類特征深度學(xué)習(xí)模型

    為提高低配置計算環(huán)境中的視覺目標(biāo)實時在線分類特征提取的時效性和分類準(zhǔn)確率,提出一種新的目標(biāo)分類特征深度學(xué)習(xí)模型。根據(jù)高時效性要求,選用分類器
    發(fā)表于 03-20 17:30 ?0次下載
    一種新的<b class='flag-5'>目標(biāo)</b>分類特征<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>

    基于深度學(xué)習(xí)模型的點云目標(biāo)檢測及ROS實現(xiàn)

    近年來,隨著深度學(xué)習(xí)圖像視覺領(lǐng)域的發(fā)展,一類基于單純的深度學(xué)習(xí)模型的點云
    的頭像 發(fā)表于 11-05 16:47 ?1.9w次閱讀

    如何使用深度學(xué)習(xí)進(jìn)行視頻行人目標(biāo)檢測

    近年來,隨著深度學(xué)習(xí)在計算機視覺領(lǐng)域的廣泛應(yīng)用,基于深度學(xué)習(xí)的視頻運動目標(biāo)檢測受到廣大學(xué)者的青睞
    發(fā)表于 11-19 16:01 ?22次下載
    如何使用<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>進(jìn)行視頻行人<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測</b>

    探究深度學(xué)習(xí)目標(biāo)視覺檢測中的應(yīng)用與展望

    目標(biāo)視覺檢測是計算機視覺領(lǐng)域的一個重要問題,在視頻監(jiān)控、自主駕駛、人機交互等方面具有重要的研究意義和應(yīng)用價值.近年來,深度學(xué)習(xí)圖像分類研究
    的頭像 發(fā)表于 01-13 10:59 ?6615次閱讀

    基于深度學(xué)習(xí)圖像修復(fù)模型及實驗對比

    深度學(xué)習(xí)技術(shù)在解決¨大面積缺失圖像修復(fù)”問題時具有重要作用并帶來了深遠(yuǎn)影響,文中在簡要介紹傳統(tǒng)圖像修復(fù)方法的基礎(chǔ)上,重點介紹了基于深度
    發(fā)表于 04-08 09:38 ?20次下載
    基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的<b class='flag-5'>圖像</b>修復(fù)<b class='flag-5'>模型</b>及實驗對比

    雙向特征融合的數(shù)據(jù)自適應(yīng)SAR圖像艦船目標(biāo)檢測模型

    合成孔徑雷達(dá)(synthetic aperture radar,SAR)圖像進(jìn)行艦船目標(biāo)檢測是實施海洋監(jiān)視的重要手段?;?b class='flag-5'>深度學(xué)習(xí)
    發(fā)表于 11-12 11:15 ?2420次閱讀
    雙向特征融合的數(shù)據(jù)自適應(yīng)SAR<b class='flag-5'>圖像</b>艦船<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測</b><b class='flag-5'>模型</b>

    基于深度學(xué)習(xí)目標(biāo)檢測研究綜述

    基于深度學(xué)習(xí)目標(biāo)檢測研究綜述 來源:《電子學(xué)報》?,作者羅會蘭等 摘 要:?目標(biāo)檢測是計算機視
    發(fā)表于 01-06 09:14 ?2855次閱讀
    基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測</b>研究綜述

    使用航空圖像深度學(xué)習(xí)算法識別被野火破壞的結(jié)構(gòu)

    Luis Obispo )的研究人員合作,該項目使用航空圖像深度學(xué)習(xí)算法,精確定位野火事件后的建筑物損壞。這項研究可以引導(dǎo)救災(zāi)人員前往最需要的地區(qū),同時讓關(guān)心的房主了解情況。
    的頭像 發(fā)表于 04-08 09:11 ?1407次閱讀

    簡述深度學(xué)習(xí)的基準(zhǔn)目標(biāo)檢測及其衍生算法

    基于深度學(xué)習(xí)目標(biāo)檢測方法根據(jù)有無區(qū)域提案階段劃分為區(qū)域提案檢測模型和單階段
    的頭像 發(fā)表于 02-27 15:31 ?2507次閱讀
    簡述<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的基準(zhǔn)<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測</b>及其衍生算法

    基于深度學(xué)習(xí)的小目標(biāo)檢測

    在計算機視覺領(lǐng)域,目標(biāo)檢測一直是研究的熱點和難點之一。特別是在小目標(biāo)檢測方面,由于小目標(biāo)圖像
    的頭像 發(fā)表于 07-04 17:25 ?3025次閱讀
    南平市| 高淳县| 安岳县| 改则县| 鱼台县| 梅州市| 新宾| 广水市| 密云县| 资中县| 四川省| 汾西县| 安徽省| 清原| 尼勒克县| 建水县| 抚顺市| 宁强县| 昌都县| 盐亭县| 防城港市| 屏南县| 宁夏| 宁津县| 齐河县| 汪清县| 游戏| 茂名市| 鄂尔多斯市| 临清市| 涞源县| 乐安县| 仙居县| 宾阳县| 吴川市| 荥经县| 花垣县| 宜兰县| 和平县| 清水河县| 高尔夫|