日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

目標(biāo)檢測:Faster RCNN算法詳解

ss ? 來源:shenxiaolu1984 ? 作者:shenxiaolu1984 ? 2021-01-13 16:25 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文是繼RCNN[1],fast RCNN[2]之后,目標(biāo)檢測界的領(lǐng)軍人物Ross Girshick團(tuán)隊在2015年的又一力作。簡單網(wǎng)絡(luò)目標(biāo)檢測速度達(dá)到17fps,在PASCAL VOC上準(zhǔn)確率為59.9%;復(fù)雜網(wǎng)絡(luò)達(dá)到5fps,準(zhǔn)確率78.8%。

作者在github上給出了基于matlabpython的源碼。對Region CNN算法不了解的同學(xué),請先參看這兩篇文章:《RCNN算法詳解》,《fast RCNN算法詳解》。

思想

從RCNN到fast RCNN,再到本文的faster RCNN,目標(biāo)檢測的四個基本步驟(候選區(qū)域生成,特征提取,分類,位置精修)終于被統(tǒng)一到一個深度網(wǎng)絡(luò)框架之內(nèi)。所有計算沒有重復(fù),完全在GPU中完成,大大提高了運(yùn)行速度。

faster RCNN可以簡單地看做“區(qū)域生成網(wǎng)絡(luò)+fast RCNN“的系統(tǒng),用區(qū)域生成網(wǎng)絡(luò)代替fast RCNN中的Selective Search方法。本篇論文著重解決了這個系統(tǒng)中的三個問題:

如何設(shè)計區(qū)域生成網(wǎng)絡(luò)

如何訓(xùn)練區(qū)域生成網(wǎng)絡(luò)

如何讓區(qū)域生成網(wǎng)絡(luò)和fast RCNN網(wǎng)絡(luò)共享特征提取網(wǎng)絡(luò)

區(qū)域生成網(wǎng)絡(luò):結(jié)構(gòu)

基本設(shè)想是:在提取好的特征圖上,對所有可能的候選框進(jìn)行判別。由于后續(xù)還有位置精修步驟,所以候選框?qū)嶋H比較稀疏。

特征提取

原始特征提?。ㄉ蠄D灰色方框)包含若干層conv+relu,直接套用ImageNet上常見的分類網(wǎng)絡(luò)即可。本文試驗了兩種網(wǎng)絡(luò):5層的ZF[3],16層的VGG-16[[^-4]],具體結(jié)構(gòu)不再贅述。

額外添加一個conv+relu層,輸出5139256維特征(feature)。

候選區(qū)域(anchor)

特征可以看做一個尺度5139的256通道圖像,對于該圖像的每一個位置,考慮9個可能的候選窗口:三種面積{ 12 8 2 , 25 6 2 , 51 2 2 } × \{128^2, 256^2, 512^2 \}\times{1282,2562,5122}×三種比例{ 1 : 1 , 1 : 2 , 2 : 1 } \{ 1:1, 1:2, 2:1\}{1:1,1:2,2:1}。這些候選窗口稱為anchors。下圖示出5139個anchor中心,以及9種anchor示例。

在整個faster RCNN算法中,有三種尺度。

原圖尺度:原始輸入的大小。不受任何限制,不影響性能。

歸一化尺度:輸入特征提取網(wǎng)絡(luò)的大小,在測試時設(shè)置,源碼中opts.test_scale=600。anchor在這個尺度上設(shè)定。這個參數(shù)和anchor的相對大小決定了想要檢測的目標(biāo)范圍。

網(wǎng)絡(luò)輸入尺度:輸入特征檢測網(wǎng)絡(luò)的大小,在訓(xùn)練時設(shè)置,源碼中為224*224。

窗口分類和位置精修

分類層(cls_score)輸出每一個位置上,9個anchor屬于前景和背景的概率;窗口回歸層(bbox_pred)輸出每一個位置上,9個anchor對應(yīng)窗口應(yīng)該平移縮放的參數(shù)。

對于每一個位置來說,分類層從256維特征中輸出屬于前景和背景的概率;窗口回歸層從256維特征中輸出4個平移縮放參數(shù)。

就局部來說,這兩層是全連接網(wǎng)絡(luò);就全局來說,由于網(wǎng)絡(luò)在所有位置(共51*39個)的參數(shù)相同,所以實際用尺寸為1×1的卷積網(wǎng)絡(luò)實現(xiàn)。

實際代碼中,將51399個候選位置根據(jù)得分排序,選擇最高的一部分,再經(jīng)過Non-Maximum Suppression獲得2000個候選結(jié)果。之后才送入分類器和回歸器。

所以Faster-RCNN和RCNN, Fast-RCNN一樣,屬于2-stage的檢測算法。

區(qū)域生成網(wǎng)絡(luò):訓(xùn)練

樣本

考察訓(xùn)練集中的每張圖像:

a. 對每個標(biāo)定的真值候選區(qū)域,與其重疊比例最大的anchor記為前景樣本

b. 對a)剩余的anchor,如果其與某個標(biāo)定重疊比例大于0.7,記為前景樣本;如果其與任意一個標(biāo)定的重疊比例都小于0.3,記為背景樣本

c. 對a),b)剩余的anchor,棄去不用。

d. 跨越圖像邊界的anchor棄去不用

代價函數(shù)

同時最小化兩種代價:

a. 分類誤差

b. 前景樣本的窗口位置偏差

具體參看fast RCNN中的“分類與位置調(diào)整”段落。

超參數(shù)

原始特征提取網(wǎng)絡(luò)使用ImageNet的分類樣本初始化,其余新增層隨機(jī)初始化。

每個mini-batch包含從一張圖像中提取的256個anchor,前景背景樣本1:1.

前60K迭代,學(xué)習(xí)率0.001,后20K迭代,學(xué)習(xí)率0.0001。

momentum設(shè)置為0.9,weight decay設(shè)置為0.0005。[4]

共享特征

區(qū)域生成網(wǎng)絡(luò)(RPN)和fast RCNN都需要一個原始特征提取網(wǎng)絡(luò)(下圖灰色方框)。這個網(wǎng)絡(luò)使用ImageNet的分類庫得到初始參數(shù)W 0 W_0W0?,但要如何精調(diào)參數(shù),使其同時滿足兩方的需求呢?本文講解了三種方法。

輪流訓(xùn)練

a. 從W 0 W_0W0?開始,訓(xùn)練RPN。用RPN提取訓(xùn)練集上的候選區(qū)域

b. 從W 0 W_0W0?開始,用候選區(qū)域訓(xùn)練Fast RCNN,參數(shù)記為W 1 W_1W1?

c. 從W 1 W_1W1?開始,訓(xùn)練RPN…

具體操作時,僅執(zhí)行兩次迭代,并在訓(xùn)練時凍結(jié)了部分層。論文中的實驗使用此方法。

如Ross Girshick在ICCV 15年的講座Training R-CNNs of various velocities中所述,采用此方法沒有什么根本原因,主要是因為”實現(xiàn)問題,以及截稿日期“。

近似聯(lián)合訓(xùn)練

直接在上圖結(jié)構(gòu)上訓(xùn)練。在backward計算梯度時,把提取的ROI區(qū)域當(dāng)做固定值看待;在backward更新參數(shù)時,來自RPN和來自Fast RCNN的增量合并輸入原始特征提取層。

此方法和前方法效果類似,但能將訓(xùn)練時間減少20%-25%。公布的python代碼中包含此方法。

聯(lián)合訓(xùn)練

直接在上圖結(jié)構(gòu)上訓(xùn)練。但在backward計算梯度時,要考慮ROI區(qū)域的變化的影響。推導(dǎo)超出本文范疇,請參看15年NIP論文[5]。

實驗

除了開篇提到的基本性能外,還有一些值得注意的結(jié)論

與Selective Search方法(黑)相比,當(dāng)每張圖生成的候選區(qū)域從2000減少到300時,本文RPN方法(紅藍(lán))的召回率下降不大。說明RPN方法的目的性更明確。

使用更大的Microsoft COCO庫[6]訓(xùn)練,直接在PASCAL VOC上測試,準(zhǔn)確率提升6%。說明faster RCNN遷移性良好,沒有over fitting。

Girshick, Ross, et al. “Rich feature hierarchies for accurate object detection and semantic segmentation.” Proceedings of the IEEE conference on computer vision and pattern recognition. 2014. ??

Girshick, Ross. “Fast r-cnn.” Proceedings of the IEEE International Conference on Computer Vision. 2015. ??

M. D. Zeiler and R. Fergus, “Visualizing and understanding convolutional neural networks,” in European Conference on Computer Vision (ECCV), 2014. ??

learning rate-控制增量和梯度之間的關(guān)系;momentum-保持前次迭代的增量;weight decay-每次迭代縮小參數(shù),相當(dāng)于正則化。 ??

Jaderberg et al. “Spatial Transformer Networks”

NIPS 2015 ??

30萬+圖像,80類檢測庫。

責(zé)任編輯:xj

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    ELF-RV1126B YOLOv8官方例程目標(biāo)檢測部署驗證

    基于官方資料包例程完成圖片或攝像頭目標(biāo)檢測、結(jié)果顯示和 FPS 記錄。
    的頭像 發(fā)表于 04-03 16:08 ?276次閱讀
    ELF-RV1126B YOLOv8官方例程<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測</b>部署驗證

    新一代單目標(biāo) AI 跟蹤算法,解決典型困難場景下的跟蹤穩(wěn)定性問題

    幀用訓(xùn)練好的分類器尋找最優(yōu)區(qū)域。但是這樣的算法在很多場景下會出現(xiàn)高概率的丟失目標(biāo),所以在經(jīng)過我司算法工程師的努力下,新一代單目標(biāo)AI跟蹤算法
    的頭像 發(fā)表于 03-17 17:59 ?710次閱讀
    新一代單<b class='flag-5'>目標(biāo)</b> AI 跟蹤<b class='flag-5'>算法</b>,解決典型困難場景下的跟蹤穩(wěn)定性問題

    目標(biāo)追蹤的簡易實現(xiàn):模板匹配

    一直不變的,當(dāng)目標(biāo)靠近或者遠(yuǎn)離攝像頭的時候,在視頻中就會表現(xiàn)出目標(biāo)尺度大小的變化,這給算法的自適應(yīng)能力帶來了挑戰(zhàn);遮擋與消失,即目標(biāo)物體在運(yùn)動過程中可能會被其他物體短暫地遮擋,因此需要
    發(fā)表于 10-28 07:21

    RISC-V 算法原理及串口通信

    閾值時,即可判斷為運(yùn)動目標(biāo),從而實現(xiàn)目標(biāo)檢測功能。 將算法硬化的主要流程圖如下: 軟件算法:軟件基于Nuclei SDK開
    發(fā)表于 10-28 06:16

    數(shù)據(jù)濾波算法的具體實現(xiàn)步驟是怎樣的?

    (高頻電磁、瞬時脈沖等),選擇適配的濾波算法并落地。以下以電能質(zhì)量監(jiān)測中最常用的 IIR 低通濾波(抗高頻干擾)、滑動平均濾波(抗瞬時脈沖)、卡爾曼濾波(抗動態(tài)波動) 為例,詳解具體實現(xiàn)步驟: 一、前置準(zhǔn)備:明確濾波目標(biāo)與硬件基
    的頭像 發(fā)表于 10-10 16:45 ?1027次閱讀

    廣和通發(fā)布端側(cè)目標(biāo)檢測模型FiboDet

    為提升端側(cè)設(shè)備視覺感知與決策能力,廣和通全自研端側(cè)目標(biāo)檢測模型FiboDet應(yīng)運(yùn)而生。該模型基于廣和通在邊緣計算與人工智能領(lǐng)域的深度積累,面向工業(yè)、交通、零售等多個行業(yè)提供高性能、低功耗、高性價比的視覺檢測解決方案。
    的頭像 發(fā)表于 09-26 13:39 ?1745次閱讀

    有哪些常見的AI算法可以用于裝置數(shù)據(jù)的異常檢測?

    在裝置數(shù)據(jù)(如工業(yè)設(shè)備傳感器數(shù)據(jù)、電子裝置運(yùn)行參數(shù)、化工裝置工況數(shù)據(jù)等)的異常檢測中,AI 算法的選擇需結(jié)合數(shù)據(jù)特點(如 時序性、維度、標(biāo)注情況 )、檢測目標(biāo)(如實時性、精度、可解釋性
    的頭像 發(fā)表于 09-18 09:27 ?1089次閱讀
    有哪些常見的AI<b class='flag-5'>算法</b>可以用于裝置數(shù)據(jù)的異常<b class='flag-5'>檢測</b>?

    如何利用AI算法進(jìn)行裝置數(shù)據(jù)的異常檢測

    - 異常閉環(huán)” 的全流程設(shè)計,實現(xiàn)精準(zhǔn)、高效的異常識別。以下是具體實施框架與關(guān)鍵步驟: 一、第一步:明確裝置數(shù)據(jù)異常類型與檢測目標(biāo) 在選擇 AI 算法前,需先定義 “異常” 的具體場景 —— 工業(yè)裝置的異常并非單一形態(tài),不同異
    的頭像 發(fā)表于 09-05 15:27 ?2288次閱讀
    如何利用AI<b class='flag-5'>算法</b>進(jìn)行裝置數(shù)據(jù)的異常<b class='flag-5'>檢測</b>?

    基于FPGA的SSD目標(biāo)檢測算法設(shè)計

    隨著人工智能的發(fā)展,神經(jīng)網(wǎng)絡(luò)正被逐步應(yīng)用于智能安防、自動駕駛、醫(yī)療等各行各業(yè)。目標(biāo)識別作為人工智能的一項重要應(yīng)用也擁有著巨大的前景,隨著深度學(xué)習(xí)的普及和框架的成熟,卷積神經(jīng)網(wǎng)絡(luò)模型的識別精度越來越高
    的頭像 發(fā)表于 07-10 11:12 ?2785次閱讀
    基于FPGA的SSD<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測算法</b>設(shè)計

    氣密性檢測儀的核心應(yīng)用范疇及其所針對的檢測目標(biāo)

    在工業(yè)生產(chǎn)與質(zhì)量控制領(lǐng)域,氣密性檢測儀是保障產(chǎn)品品質(zhì)與性能的關(guān)鍵設(shè)備。以下將圍繞氣密性檢測儀的核心應(yīng)用范疇及其所針對的檢測目標(biāo)展開介紹,以下是對上述關(guān)于氣密性
    的頭像 發(fā)表于 06-27 15:03 ?740次閱讀
    氣密性<b class='flag-5'>檢測</b>儀的核心應(yīng)用范疇及其所針對的<b class='flag-5'>檢測</b><b class='flag-5'>目標(biāo)</b>

    【HarmonyOS 5】VisionKit人臉活體檢測詳解

    【HarmonyOS 5】VisionKit人臉活體檢測詳解 ##鴻蒙開發(fā)能力 ##HarmonyOS SDK應(yīng)用服務(wù)##鴻蒙金融類應(yīng)用 (金融理財# 一、VisionKit人臉活體檢測
    的頭像 發(fā)表于 06-21 11:52 ?1099次閱讀
    【HarmonyOS 5】VisionKit人臉活體<b class='flag-5'>檢測</b><b class='flag-5'>詳解</b>

    基于LockAI視覺識別模塊:C++目標(biāo)檢測

    檢測是計算機(jī)視覺領(lǐng)域中的一個關(guān)鍵任務(wù),它不僅需要識別圖像中存在哪些對象,還需要定位這些對象的位置。具體來說,目標(biāo)檢測算法會輸出每個檢測到的對象的邊界框(Bounding Box)以及其
    發(fā)表于 06-06 14:43

    基于LockAI視覺識別模塊:C++目標(biāo)檢測

    本文檔基于瑞芯微RV1106的LockAI凌智視覺識別模塊,通過C++語言做的目標(biāo)檢測實驗。本文檔展示了如何使用lockzhiner_vision_module::PaddleDet類進(jìn)行目標(biāo)
    的頭像 發(fā)表于 06-06 13:56 ?1036次閱讀
    基于LockAI視覺識別模塊:C++<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測</b>

    基于RK3576開發(fā)板的車輛檢測算法

    車輛檢測是一種基于深度學(xué)習(xí)的對人進(jìn)行檢測定位的目標(biāo)檢測,能廣泛的用于園區(qū)管理、交通分析等多種場景,是違停識別、堵車識別、車流統(tǒng)計等多種算法
    的頭像 發(fā)表于 05-08 17:34 ?1665次閱讀
    基于RK3576開發(fā)板的車輛<b class='flag-5'>檢測算法</b>

    基于RK3576開發(fā)板的安全帽檢測算法

    安全帽佩戴檢測是工地、生產(chǎn)安全、安防的重中之重,但人為主觀檢測的方式時效性差且不能全程監(jiān)控。AI技術(shù)的日漸成熟催生了安全帽佩戴檢測方案,成為了監(jiān)督佩戴安全帽的利器。本安全帽檢測算法是一
    的頭像 發(fā)表于 05-08 16:59 ?2162次閱讀
    基于RK3576開發(fā)板的安全帽<b class='flag-5'>檢測算法</b>
    北票市| 宜昌市| 濉溪县| 波密县| 稷山县| 贞丰县| 洛扎县| 上饶市| 武清区| 铜鼓县| 类乌齐县| 松溪县| 苍溪县| 特克斯县| 廉江市| 水城县| 屏东市| 达日县| 台江县| 麻栗坡县| 浪卡子县| 来凤县| 彩票| 兰州市| 射洪县| 增城市| 大安市| 墨江| 元阳县| 凤阳县| 噶尔县| 瑞安市| 蓬安县| 治多县| 临朐县| 浦北县| 甘孜县| 伊宁县| 射阳县| 晋州市| 彰化县|