日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

目標(biāo)跟蹤相關(guān)知識總結(jié)

jf_96884364 ? 來源:代碼的路 ? 作者:代碼的路 ? 2023-01-11 17:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

原文鏈接

feather map

在cnn的每個卷積層,數(shù)據(jù)都是以三維形式存在的??梢钥闯稍S多個二維圖片疊在一起,其中每一個稱為一個feature map。

1.在輸入層,如果是灰度圖片,那就只有一個feature map;如果是彩色圖片,一般就是3個feature map(紅綠藍(lán))。

2.在其它層,層與層之間會有若干個卷積核(kernel),上一層每個feature map跟每個卷積核做卷積,都會產(chǎn)生下一層的一個feature map,有N個卷積核,下層就會產(chǎn)生N個feather map。

卷積核(filter)

每個卷積核具有長寬深三個維度;卷積核的深度與當(dāng)前圖像的深度(feather map的張數(shù))相同。卷積核的個數(shù)與下一層需要多少個feather map相同。在CNN的一個卷積層中:卷積核的長、寬都是人為指定的,長X寬也被稱為卷積核的尺寸,常用的尺寸為3X3,5X5等;例如,在原始圖像層 (輸入層),如果圖像是灰度圖像,其feather map數(shù)量為1,則卷積核的深度也就是1;如果圖像是grb圖像,其feather map數(shù)量為3,則卷積核的深度也就是3。

訓(xùn)練數(shù)據(jù)

  • batchsize:批大小。在深度學(xué)習(xí)中,一般采用SGD訓(xùn)練,即每次訓(xùn)練在訓(xùn)練集中取batchsize個樣本訓(xùn)練;
  • iteration:1個iteration等于使用batchsize個樣本訓(xùn)練一次;
  • epoch:1個epoch等于使用訓(xùn)練集中的全部樣本訓(xùn)練一次,通俗的講epoch的值就是整個數(shù)據(jù)集被輪幾次。

例如300個樣本訓(xùn)練一次,epoch=1,batchsize = 10 ,iteration=30。

BN(Batch Normalization)層

BN層即batch-norm層,一般是深度學(xué)習(xí)中用于加速訓(xùn)練速度和一種方法,一般放置在卷積層(conv層)或者全連接層之后,將數(shù)據(jù)歸一化并加速了訓(xùn)練擬合速度。

常用位置:conv→bn→relu

如果網(wǎng)絡(luò)使用sigmod激活函數(shù),誤差在向前傳遞的時候,經(jīng)過sigmod單元,需要乘sigmod的梯度,而sigmod的梯度最大是0.25,因此越向前傳遞,誤差就越小了,這就是梯度消散,但是梯度爆炸是什么?注意誤差在經(jīng)過全連接或者卷積層時,也要乘以權(quán)重w,如果w都比較大,大過sigmod造成的減小,這樣越往前誤差就越來越大,產(chǎn)生梯度爆炸。

BN層的計算圖如下面所示,x是輸入數(shù)據(jù),到xhat均值方差歸一化,后面xhat到y(tǒng)其實就是普通的一個線性變換,類似全連接但是沒有交叉。如果沒有BN層,x直接輸入后面的網(wǎng)絡(luò),訓(xùn)練過程中x分布的變換必然導(dǎo)致后面的網(wǎng)絡(luò)去調(diào)整學(xué)習(xí)以來適應(yīng)x的均值和方差,映入了BN層,xhat是一個歸一化的數(shù)據(jù),代價就是網(wǎng)絡(luò)中多了一個線性層y,但是前者帶來的性能更加大,因此加速了。

AUC(Area Under Curve)

一個正例,一個負(fù)例,預(yù)測為正的概率值比預(yù)測為負(fù)的概率值還要大的可能性。所以根據(jù)定義:我們最直觀的有兩種計算AUC的方法:

1:繪制ROC曲線,ROC曲線下面的面積就是AUC的值

2:假設(shè)總共有(m+n)個樣本,其中正樣本m個,負(fù)樣本n個,總共有mn個樣本對,計數(shù),正樣本預(yù)測為正樣本的概率值大于負(fù)樣本預(yù)測為正樣本的概率值記為1,累加計數(shù),然后除以(mn)就是AUC的值。

AUC作為數(shù)值可以直觀的評價分類器的好壞,值越大越好。

均值平均精度MAP(Mean Average Precision)

我們使用loU和閾值判斷是否為目標(biāo)。計算模型得到的每個檢測框的loU值,用計算出的loU值與設(shè)定的loU閾值比較,就可以計算出每個圖像中每個類的正確檢測次數(shù)(A)。對于每個圖像,我們都有g(shù)round truth的數(shù)據(jù),因此也知道了該圖像中給定類別的實際目標(biāo)(B)的數(shù)量。我們也計算了正確預(yù)測的數(shù)量(A)(True possitive)。因此我們可以使用這個公式來計算該類模型的精度(A/B)

Precesion_{C}=\\frac{N(TruePositives){C}}{N(TotalObjects){C}}

即給定一張圖像的類別C的Precision=圖像正確預(yù)測的數(shù)量除以在圖像張這一類的總的目標(biāo)數(shù)量。 假如現(xiàn)在有一個給定的類,驗證集中有100個圖像,并且我們知道每個圖像都有其中的所有類(基于ground truth)。所以我們可以得到100個精度值,計算這100個精度值的平均值,得到的就是該類的平均精度。

AveragePrecesion_{C}=\\frac{\\sum Precesion_{C}}{N(TotalImages)_{C}}

即一個C類的平均精度=在驗證集上所有的圖像對于類C的精度值的和/有類C這個目標(biāo)的所有圖像的數(shù)量。 現(xiàn)在加入我們整個集合中有20個類,對于每個類別,我們都先計算loU,接下來計算精度,然后計算平均精度。所有我們現(xiàn)在有20個不同的平均精度值。使用這些平均精度值,我們可以輕松的判斷任何給定類別的模型的性能。

但是問題是使用20個不同的平均精度使我們難以度量整個模型,所以我們可以選用一個單一的數(shù)字來表示一個模型的表現(xiàn)(一個度量來統(tǒng)一它們),我們可以取所有類的平均精度值的平均值,即MAP(均值平均精度)。

MeanAveragePrecesion=\\frac{\\sum AveragePrecesion_{C}}{N(Classes)}

MAP=所有類別的平均精度求和除以所有類別。即數(shù)據(jù)集中所有類的平均精度的平均值。

EAO 期望平均覆蓋率

EAO提出的目的也是希望一個好的跟蹤器同時擁有好的精度A和魯棒性R,如果直接用A和R的兩個數(shù)加權(quán)和則有失公允,所以需要重新定義。

假設(shè)有N_s幀長的一個視頻,那么一個跟 蹤器在這段視頻上的覆蓋率精度(Overlay accuracy)op為每一幀op的均值,op就是bonding box與ground truth的交并比用Φ表示,即:

Φ_{N_{s}}=\\frac{1}{N_{s}}\\sum {\\atop i=1:N_{s}}Φ_{i}

那么一個理想的EAO就是把N_s從1到一個期望的極大值對應(yīng)的N_s求個平均,就是期望平均覆蓋率,恰如其名,等價于下圖的曲線下面積:

shortcut connection

ResNet結(jié)構(gòu)使用了一種連接方式,即“繞近路”的意思。

Bottleneck(瓶頸層)

其意思就是輸入輸出維度差距較大,就像一個瓶頸一樣,上窄下寬亦或上寬下窄。1x1 filters 可以起到一個改變輸出維數(shù)(channels)的作用。可以看到,右圖中 1x1 filters把維度(channels)升高了,輸入輸出維度差距較大。

感受野:

在卷積神經(jīng)網(wǎng)絡(luò)CNN中,決定某一層輸出結(jié)果中一個元素所對應(yīng)的輸入層的區(qū)域大小,被稱作感受野receptive field。用數(shù)學(xué)的語言就是感受野是CNN中的某一層輸出結(jié)果的一個元素對應(yīng)輸入層的一個映射。

學(xué)習(xí)更多編程知識,請關(guān)注我的公眾號:

代碼的路

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 圖像處理
    +關(guān)注

    關(guān)注

    29

    文章

    1350

    瀏覽量

    59722
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4810

    瀏覽量

    98619
  • 目標(biāo)跟蹤
    +關(guān)注

    關(guān)注

    2

    文章

    89

    瀏覽量

    15401
  • 代碼
    +關(guān)注

    關(guān)注

    30

    文章

    4977

    瀏覽量

    74425
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    356

    瀏覽量

    23561
  • 卷積神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    4

    文章

    375

    瀏覽量

    12932
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    視頻跟蹤目標(biāo)取差器)-基于DM8168實現(xiàn)的自動視頻跟蹤

    、外形比例、速度、運動方向等自動獲取目標(biāo)。視頻跟蹤:內(nèi)置質(zhì)心、邊緣、多目標(biāo)相關(guān)、相位相關(guān)、場景鎖定等多種
    發(fā)表于 09-05 11:14

    視頻跟蹤目標(biāo)跟蹤算法簡介(上海凱視力成信息科技有限...

    本帖最后由 shkslc 于 2013-10-10 10:25 編輯 跟蹤算法簡介AVT21提供了多種跟蹤算法:質(zhì)心跟蹤算法(Centroid)、多目標(biāo)
    發(fā)表于 09-29 08:59

    基于OPENCV的運動目標(biāo)跟蹤實現(xiàn)

    CAMSHIFT算法是一種基于顏色直方圖的目標(biāo)跟蹤算法。在視頻跟蹤過程中,CAMSHIFT算法利用選定目標(biāo)的顏色直方圖模型得到每幀圖像的顏色投影圖,并根據(jù)上一幀
    發(fā)表于 12-23 14:21

    基于QT+OpenCv的目標(biāo)跟蹤算法實現(xiàn)

    視頻目標(biāo)跟蹤,本文將首先向大家介紹常用的粒子濾波視頻目標(biāo)跟蹤算法,對其原理進(jìn)行簡單的分析,為后續(xù)進(jìn)一步選擇和應(yīng)用算法實現(xiàn)目標(biāo)
    發(fā)表于 09-21 10:42

    基于kalman預(yù)測和自適應(yīng)模板的目標(biāo)相關(guān)跟蹤研究

    文中提出了一種基于kalman預(yù)測和自適應(yīng)模板的目標(biāo)相關(guān)跟蹤算法。通過kalman預(yù)測下一幀圖像中目標(biāo)的狀態(tài),縮小整個圖像上目標(biāo)檢測的搜索范
    發(fā)表于 12-28 10:53 ?21次下載
    基于kalman預(yù)測和自適應(yīng)模板的<b class='flag-5'>目標(biāo)</b><b class='flag-5'>相關(guān)</b><b class='flag-5'>跟蹤</b>研究

    基于核相關(guān)濾波器的目標(biāo)旋轉(zhuǎn)跟蹤算法_李龍

    基于核相關(guān)濾波器的目標(biāo)旋轉(zhuǎn)跟蹤算法_李龍
    發(fā)表于 03-19 19:25 ?0次下載

    基于KCFSE結(jié)合尺度預(yù)測的目標(biāo)跟蹤方法

    目標(biāo)跟蹤是計算機(jī)視覺領(lǐng)域的一個基本問題,其主要應(yīng)用于視頻監(jiān)控,人機(jī)交與機(jī)器人視覺感知等場景。目標(biāo)跟蹤可分為短時間目標(biāo)
    發(fā)表于 10-28 11:05 ?1次下載
    基于KCFSE結(jié)合尺度預(yù)測的<b class='flag-5'>目標(biāo)</b><b class='flag-5'>跟蹤</b>方法

    基于融合的快速目標(biāo)跟蹤算法

    提出了一種基于融合的快速目標(biāo)跟蹤算法。該方法將目標(biāo)預(yù)測模型、目標(biāo)模板匹配以及目標(biāo)空間信息融合到統(tǒng)一框架內(nèi)。該方法通過預(yù)測模型,預(yù)測下一幀中
    發(fā)表于 12-05 09:11 ?0次下載
    基于融合的快速<b class='flag-5'>目標(biāo)</b><b class='flag-5'>跟蹤</b>算法

    基于無線傳感器網(wǎng)絡(luò)移動目標(biāo)探測跟蹤

    探測為主和以定位為主的兩類方法,著重介紹以探測為主的移動式目標(biāo)跟蹤方法的研究現(xiàn)狀.通過對比現(xiàn)有方法在跟蹤質(zhì)量和網(wǎng)絡(luò)能耗等方面的優(yōu)缺點,揭示了現(xiàn)有研究存在的問題,總結(jié)了移動式
    發(fā)表于 12-22 16:11 ?0次下載
    基于無線傳感器網(wǎng)絡(luò)移動<b class='flag-5'>目標(biāo)</b>探測<b class='flag-5'>跟蹤</b>

    視覺目標(biāo)跟蹤相關(guān)算法、優(yōu)缺點及發(fā)展趨勢

    視覺目標(biāo)跟蹤指在一個視頻序列中,給定第一幀目標(biāo)區(qū)域,在后續(xù)幀中自動匹配到該目標(biāo)區(qū)堿的任務(wù)。通常來說,由于場景遮擋、光照變化、物體本身形變等復(fù)雜因素,
    發(fā)表于 04-08 09:44 ?14次下載
    視覺<b class='flag-5'>目標(biāo)</b><b class='flag-5'>跟蹤</b><b class='flag-5'>相關(guān)</b>算法、優(yōu)缺點及發(fā)展趨勢

    分享目標(biāo)跟蹤入門篇之相關(guān)濾波

    前 言 目標(biāo)跟蹤是計算機(jī)視覺領(lǐng)域的一個重要問題,目前廣泛應(yīng)用在體育賽事轉(zhuǎn)播、安防監(jiān)控和無人機(jī)、無人車、機(jī)器人等領(lǐng)域。簡單來說,目標(biāo)跟蹤就是在連續(xù)的視頻序列中,建立所要
    的頭像 發(fā)表于 06-09 17:40 ?3875次閱讀
    分享<b class='flag-5'>目標(biāo)</b><b class='flag-5'>跟蹤</b>入門篇之<b class='flag-5'>相關(guān)</b>濾波

    視頻目標(biāo)跟蹤分析

    視頻目標(biāo)跟蹤要求在已知第一幀感興趣物體的位置和尺度信息的情況下,對該目標(biāo)在后續(xù)視頻幀中進(jìn)行持續(xù)的定位和尺度估計W。廣義的目標(biāo)跟蹤通常包含單
    的頭像 發(fā)表于 07-05 11:24 ?2664次閱讀

    最常見的目標(biāo)跟蹤算法

    對象跟蹤問題一直是計算機(jī)視覺的熱點任務(wù)之一,簡單的可以分為單目標(biāo)跟蹤與多目標(biāo)跟蹤,最常見的目標(biāo)
    的頭像 發(fā)表于 09-14 16:20 ?3923次閱讀

    QAM調(diào)制的相關(guān)知識

    本文旨在總結(jié)最近復(fù)習(xí)的QAM調(diào)制的相關(guān)知識
    的頭像 發(fā)表于 05-23 11:47 ?4893次閱讀
    QAM調(diào)制的<b class='flag-5'>相關(guān)</b><b class='flag-5'>知識</b>

    目標(biāo)跟蹤算法總結(jié)歸納

    目標(biāo)跟蹤是計算機(jī)視覺領(lǐng)域中的一個重要任務(wù),它旨在從視頻或圖像序列中準(zhǔn)確地檢測和跟蹤多個移動目標(biāo)。不過在落地部署時,有一些關(guān)鍵點需要解決。
    的頭像 發(fā)表于 04-28 09:42 ?4455次閱讀
    多<b class='flag-5'>目標(biāo)</b><b class='flag-5'>跟蹤</b>算法<b class='flag-5'>總結(jié)</b>歸納
    华池县| 定襄县| 曲水县| 大田县| 永昌县| 筠连县| 亚东县| 普安县| 加查县| 纳雍县| 正蓝旗| 甘洛县| 厦门市| 台江县| 连江县| 洛南县| 哈尔滨市| 峨山| 鞍山市| 和静县| 迁安市| 仪征市| 息烽县| 马龙县| 中卫市| 前郭尔| 玛多县| 察隅县| 碌曲县| 南木林县| 礼泉县| 英德市| 宁化县| 观塘区| 石棉县| 铜鼓县| 饶河县| 唐河县| 富锦市| 桃江县| 文化|