日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展及各模型的優(yōu)缺點(diǎn)

新機(jī)器視覺(jué) ? 來(lái)源:新機(jī)器視覺(jué) ? 2023-01-29 15:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

前言

在CV領(lǐng)域,我們需要熟練掌握最基本的知識(shí)就是各種卷積神經(jīng)網(wǎng)絡(luò)CNN的模型架構(gòu),不管我們?cè)趫D像分類或者分割,目標(biāo)檢測(cè),NLP等,我們都會(huì)用到基本的CNN網(wǎng)絡(luò)架構(gòu)。

CNN從最初的2012年AlexNet橫空出世到2014年VGG席卷世界以及2015年ResNet奠定了該領(lǐng)域的霸主地位,網(wǎng)絡(luò)模型變得越變?cè)缴?,而且也得到證明,越深的網(wǎng)絡(luò)擬合效果越好,但網(wǎng)絡(luò)相應(yīng)的參數(shù)量計(jì)算量都極速增加,不利于技術(shù)的推廣和應(yīng)用。

因此,一些輕量級(jí)的網(wǎng)絡(luò)結(jié)構(gòu)也慢慢隨之出現(xiàn),比如MobileNet系列,ShuffleNet系列,以及ResNext、DenseNet、EfficenceNet等模型,他們都互相吸取彼此的優(yōu)點(diǎn),不但降低了參數(shù)量或者計(jì)算量,同時(shí)分類精度更高,因而受到了更多的關(guān)注。接下來(lái)我們就對(duì)CNN的各種網(wǎng)絡(luò)結(jié)構(gòu)以及他們的優(yōu)缺點(diǎn)進(jìn)行一次詳細(xì)的解讀!

AlexNet(2012)

fed675f6-9903-11ed-bfe3-dac502259ad0.png

1、增加了relu非線性激活函數(shù),增強(qiáng)了模型的非線性表達(dá)能力。成為以后卷積層的標(biāo)配。

2、dropout層防止過(guò)擬合,成為以后fc層的標(biāo)配。

3、通過(guò)數(shù)據(jù)增強(qiáng),來(lái)減少過(guò)擬合。

4、引入標(biāo)準(zhǔn)化層(Local Response Normalization):通過(guò)放大那些對(duì)分類貢獻(xiàn)較大的神經(jīng)元,抑制那些對(duì)分類貢獻(xiàn)較小的神經(jīng)元,通過(guò)局部歸一的手段,來(lái)達(dá)到作用。

VGG(2014)

fedd38c8-9903-11ed-bfe3-dac502259ad0.png

論文的主要?jiǎng)?chuàng)新點(diǎn)在于:

1、用3x3小卷積核代替了5x5或者7x7的卷積核 2、基于ALexnet加深了網(wǎng)絡(luò)深度,證明了更深的網(wǎng)絡(luò),能更好的提取特征。

GoogleNet(2014)

fee6791a-9903-11ed-bfe3-dac502259ad0.png

在設(shè)計(jì)網(wǎng)絡(luò)結(jié)構(gòu)時(shí),不僅僅考慮網(wǎng)絡(luò)的深度,也會(huì)考慮網(wǎng)絡(luò)的寬度,并將這種結(jié)構(gòu)定義為Inception結(jié)構(gòu)。

feef7b46-9903-11ed-bfe3-dac502259ad0.png

1、引入1x1卷積的主要目的是為了減少維度,還用于修正線性激活(ReLU)

2、網(wǎng)絡(luò)最后采用了average pooling(平均池化)來(lái)代替全連接層

后面的Inception v2/v3都是基于v1的這種方法在擴(kuò)展,主要目標(biāo)有:

1、參數(shù)量降低,計(jì)算量減少。

2、網(wǎng)絡(luò)變深,網(wǎng)絡(luò)非線性表達(dá)能力更強(qiáng)

ResNet(2015)

問(wèn)題:

1、增加深度帶來(lái)的首個(gè)問(wèn)題就是梯度爆炸/消散的問(wèn)題,這是由于隨著層數(shù)的增多,在網(wǎng)絡(luò)中反向傳播的梯度會(huì)隨著連乘變得不穩(wěn)定,變得特別大或者特別小。這其中經(jīng)常出現(xiàn)的是梯度消散的問(wèn)題。

2、為了克服梯度消散也想出了許多的解決辦法,如使用BatchNorm,將激活函數(shù)換為ReLu,使用Xaiver初始化等,可以說(shuō)梯度消散已經(jīng)得到了很好的解決

fef80afe-9903-11ed-bfe3-dac502259ad0.png

已知有網(wǎng)絡(luò)degradation的情況下,不求加深度能提高準(zhǔn)確性,能不能至少讓深度網(wǎng)絡(luò)實(shí)現(xiàn)和淺層網(wǎng)絡(luò)一樣的性能,即讓深度網(wǎng)絡(luò)后面的層至少實(shí)現(xiàn)恒等映射的作用,根據(jù)這個(gè)想法,作者提出了residual模塊來(lái)幫助網(wǎng)絡(luò)實(shí)現(xiàn)恒等映射。

ff011b12-9903-11ed-bfe3-dac502259ad0.png

ResNet的設(shè)計(jì)特點(diǎn):

1、核心單元模塊化,可進(jìn)行簡(jiǎn)單堆疊。 2、Shortcut方式解決網(wǎng)絡(luò)梯度消失問(wèn)題。 3、Average Pooling層代替fc層。 4、引入BN層加快網(wǎng)絡(luò)訓(xùn)練速度和收斂時(shí)的穩(wěn)定性。 5、加大網(wǎng)絡(luò)深度,提高模型的特征抽取能力。

MobileNet v1

谷歌在2017年提出專注于移動(dòng)端或者嵌入式設(shè)備中的輕量級(jí)CNN網(wǎng)絡(luò):MobileNet。最大的創(chuàng)新點(diǎn)是深度可分離卷積。

通過(guò)將標(biāo)準(zhǔn)卷積分解為深度卷積核逐點(diǎn)卷積,能夠顯著的降低參數(shù)量和計(jì)算量。引入Relu6激活函數(shù)。

ff0beaba-9903-11ed-bfe3-dac502259ad0.png

參數(shù)量計(jì)算量的計(jì)算:

ff15a23a-9903-11ed-bfe3-dac502259ad0.png

網(wǎng)絡(luò)結(jié)構(gòu)如下:

ff20e8c0-9903-11ed-bfe3-dac502259ad0.png

MobileNet v2

改進(jìn)點(diǎn)主要有以下幾個(gè)方面:

1、引入殘差結(jié)構(gòu),先升維再降維,增強(qiáng)梯度的傳播,顯著減少推理期間所需的內(nèi)存占用

Inverted Residuals:

殘差模塊:輸入首先經(jīng)過(guò)1x1的卷積進(jìn)行壓縮,然后使用3x3的卷積進(jìn)行特征提取,最后在用1x1的卷積把通道數(shù)變換回去。整個(gè)過(guò)程是“壓縮-卷積-擴(kuò)張”。這樣做的目的是減少3x3模塊的計(jì)算量,提高殘差模塊的計(jì)算效率。

ff2e1018-9903-11ed-bfe3-dac502259ad0.png

倒殘差模塊:輸入首先經(jīng)過(guò)1x1的卷積進(jìn)行通道擴(kuò)張,然后使用3x3的depthwise卷積,最后使用1x1的pointwise卷積將通道數(shù)壓縮回去。整個(gè)過(guò)程是“擴(kuò)張-卷積-壓縮”。

對(duì)低維度做ReLU運(yùn)算,很容易造成信息的丟失。而在高維度進(jìn)行ReLU運(yùn)算的話,信息的丟失則會(huì)很少。

ff384ccc-9903-11ed-bfe3-dac502259ad0.png

Linear Bottleneck:

這個(gè)模塊是為了解決一開(kāi)始提出的那個(gè)低維-高維-低維的問(wèn)題,即將最后一層的ReLU6替換成線性激活函數(shù),而其他層的激活函數(shù)依然是ReLU6。

MobileNet v3

V3結(jié)合了V1的深度可分離卷積,V2的Inverted Residuals 和 Linear Bottleneck,以及加入SE模塊、利用NAS(神經(jīng)結(jié)構(gòu)的搜索)來(lái)搜索網(wǎng)絡(luò)參數(shù)。

ff3f3d34-9903-11ed-bfe3-dac502259ad0.png

互補(bǔ)搜索技術(shù) —— NAS & NetAdapt

h-swish激活函數(shù)

out = F.relu6(x + 3., self.inplace) / 6. return out * x

改進(jìn)一:下圖是MobileNet-v2的整理模型架構(gòu),可以看到,網(wǎng)絡(luò)的最后部分首先通過(guò)1x1卷積映射到高維,然后通過(guò)GAP收集特征,最后使用1x1卷積劃分到K類。所以其中起抽取特征作用的是在7x7分辨率上做1x1卷積的那一層。

而V3是先進(jìn)行池化然后再進(jìn)行1x1卷積提取特征,V2是先1X1卷積提取特征再池化。

ff4b71c6-9903-11ed-bfe3-dac502259ad0.png

ShuffleNet

組卷積

Group convolution是將輸入層的不同特征圖進(jìn)行分組,然后采用不同的卷積核再對(duì)各個(gè)組進(jìn)行卷積,這樣會(huì)降低卷積的計(jì)算量。

因?yàn)橐话愕木矸e都是在所有的輸入特征圖上做卷積,可以說(shuō)是全通道卷積,這是一種通道密集連接方式(channel dense connection),而group convolution相比則是一種通道稀疏連接方式(channel sparse connection)。

depthwise convolution,這是一種比較特殊的group convolution,此時(shí)分組數(shù)恰好等于通道數(shù),意味著每個(gè)組只有一個(gè)特征圖。

分組卷積的會(huì)帶來(lái)一個(gè)矛盾就是特征通信。group convolution層另一個(gè)問(wèn)題是不同組之間的特征圖需要通信。所以MobileNet等網(wǎng)絡(luò)采用密集的1x1 pointwise convolution,因?yàn)橐WCgroup convolution之后不同組的特征圖之間的信息交流。

為達(dá)到特征通信目的,我們不采用dense pointwise convolution,考慮其他的思路:channel shuffle

ff5788b2-9903-11ed-bfe3-dac502259ad0.png

ShuffleNet的核心是采用了兩種操作:pointwise group convolution和channel shuffle,這在保持精度的同時(shí)大大降低了模型的計(jì)算量。其基本單元?jiǎng)t是在一個(gè)殘差單元的基礎(chǔ)上改進(jìn)而成。

ff5f7b80-9903-11ed-bfe3-dac502259ad0.png

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    356

    瀏覽量

    23558
  • 卷積神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    4

    文章

    375

    瀏覽量

    12928
  • resnet
    +關(guān)注

    關(guān)注

    0

    文章

    14

    瀏覽量

    3426

原文標(biāo)題:卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展及各模型的優(yōu)缺點(diǎn)

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    卷積神經(jīng)網(wǎng)絡(luò)如何讓自動(dòng)駕駛識(shí)別障礙物?

    自動(dòng)駕駛的發(fā)展過(guò)程中,感知系統(tǒng)一直承擔(dān)車(chē)輛“眼睛”的角色,其核心任務(wù)是讓計(jì)算機(jī)理解復(fù)雜多變的物理世界。卷積神經(jīng)網(wǎng)絡(luò)(CNN)作為一種專門(mén)用于處理圖像和視頻等網(wǎng)格狀數(shù)據(jù)結(jié)構(gòu)的深度學(xué)習(xí)模型
    的頭像 發(fā)表于 04-11 09:59 ?1492次閱讀
    <b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>如何讓自動(dòng)駕駛識(shí)別障礙物?

    自動(dòng)駕駛中常提的卷積神經(jīng)網(wǎng)絡(luò)是個(gè)啥?

    在自動(dòng)駕駛領(lǐng)域,經(jīng)常會(huì)聽(tīng)到卷積神經(jīng)網(wǎng)絡(luò)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò),簡(jiǎn)稱為CNN,是一種專門(mén)用來(lái)處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度學(xué)習(xí)模型。CNN在圖像
    的頭像 發(fā)表于 11-19 18:15 ?2277次閱讀
    自動(dòng)駕駛中常提的<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>是個(gè)啥?

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)原理及在MCU200T上仿真測(cè)試

    CNN算法簡(jiǎn)介 我們硬件加速器的模型為L(zhǎng)enet-5的變型,網(wǎng)絡(luò)粗略分共有7層,細(xì)分共有13層。包括卷積,最大池化層,激活層,扁平層,全連接層。下面是各層作用介紹: 卷積層:提取
    發(fā)表于 10-29 07:49

    NMSIS神經(jīng)網(wǎng)絡(luò)庫(kù)使用介紹

    :   神經(jīng)網(wǎng)絡(luò)卷積函數(shù)   神經(jīng)網(wǎng)絡(luò)激活函數(shù)   全連接層函數(shù)   神經(jīng)網(wǎng)絡(luò)池化函數(shù)   Softmax 函數(shù)   神經(jīng)網(wǎng)絡(luò)支持功能
    發(fā)表于 10-29 06:08

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議

    整個(gè)模型非常巨大。所以要想實(shí)現(xiàn)輕量級(jí)的CNN神經(jīng)網(wǎng)絡(luò)模型,首先應(yīng)該避免嘗試單層神經(jīng)網(wǎng)絡(luò)。 2)減少卷積核的大?。篊NN
    發(fā)表于 10-28 08:02

    卷積運(yùn)算分析

    的數(shù)據(jù),故設(shè)計(jì)了ConvUnit模塊實(shí)現(xiàn)單個(gè)感受域規(guī)模的卷積運(yùn)算. 卷積運(yùn)算:不同于數(shù)學(xué)當(dāng)中提及到的卷積概念,CNN神經(jīng)網(wǎng)絡(luò)中的卷積嚴(yán)格意義
    發(fā)表于 10-28 07:31

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    模型。 我們使用MNIST數(shù)據(jù)集,訓(xùn)練一個(gè)卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型,用于手寫(xiě)數(shù)字識(shí)別。一旦模型被訓(xùn)練并保存,就可以用于對(duì)新圖像進(jìn)行推理和預(yù)
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    讀取。接下來(lái)需要使用擴(kuò)展指令,完成神經(jīng)網(wǎng)絡(luò)的部署,此處僅對(duì)第一層卷積+池化的部署進(jìn)行說(shuō)明,其余層與之類似。 1.使用 Custom_Dtrans 指令,將權(quán)重?cái)?shù)據(jù)、輸入數(shù)據(jù)導(dǎo)入硬件加速器內(nèi)。對(duì)于權(quán)重
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    1.算法簡(jiǎn)介液態(tài)神經(jīng)網(wǎng)絡(luò)(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡(luò)架構(gòu),其設(shè)計(jì)理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲(chóng)的神經(jīng)結(jié)構(gòu),盡管這種微生物的
    的頭像 發(fā)表于 09-28 10:03 ?1602次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    神經(jīng)網(wǎng)絡(luò)的并行計(jì)算與加速技術(shù)

    隨著人工智能技術(shù)的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和廣泛的應(yīng)用前景。然而,神經(jīng)網(wǎng)絡(luò)模型的復(fù)雜度和規(guī)模也在不斷增加,這使得傳統(tǒng)的串行計(jì)算方式面臨著巨大的挑戰(zhàn),如計(jì)算速度慢、
    的頭像 發(fā)表于 09-17 13:31 ?1329次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的并行計(jì)算與加速技術(shù)

    基于神經(jīng)網(wǎng)絡(luò)的數(shù)字預(yù)失真模型解決方案

    在基于神經(jīng)網(wǎng)絡(luò)的數(shù)字預(yù)失真(DPD)模型中,使用不同的激活函數(shù)對(duì)整個(gè)系統(tǒng)性能和能效有何影響?
    的頭像 發(fā)表于 08-29 14:01 ?3695次閱讀

    小白學(xué)大模型:國(guó)外主流大模型匯總

    )領(lǐng)域。論文的核心是提出了一種名為T(mén)ransformer的全新模型架構(gòu),它完全舍棄了以往序列模型(如循環(huán)神經(jīng)網(wǎng)絡(luò)RNNs和卷積神經(jīng)網(wǎng)絡(luò)CNN
    的頭像 發(fā)表于 08-27 14:06 ?1190次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:國(guó)外主流大<b class='flag-5'>模型</b>匯總

    卷積神經(jīng)網(wǎng)絡(luò)如何監(jiān)測(cè)皮帶堵料情況 #人工智能

    卷積神經(jīng)網(wǎng)絡(luò)
    jf_60804796
    發(fā)布于 :2025年07月01日 17:08:42

    無(wú)刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測(cè)方法的研究

    摘要:論文通過(guò)對(duì)無(wú)刷電機(jī)數(shù)學(xué)模型的推導(dǎo),得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了一個(gè)以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)轉(zhuǎn)角預(yù)測(cè),并采用改進(jìn)遺傳算法來(lái)訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù),借助
    發(fā)表于 06-25 13:06

    基于FPGA搭建神經(jīng)網(wǎng)絡(luò)的步驟解析

    本文的目的是在一個(gè)神經(jīng)網(wǎng)絡(luò)已經(jīng)通過(guò)python或者M(jìn)ATLAB訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型,將訓(xùn)練好的模型的權(quán)重和偏置文件以TXT文件格式導(dǎo)出,然后通過(guò)python程序?qū)xt文件轉(zhuǎn)化為coe
    的頭像 發(fā)表于 06-03 15:51 ?1540次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的步驟解析
    都兰县| 永定县| 青海省| 巨鹿县| 长武县| 五寨县| 平安县| 连州市| 双桥区| 沙洋县| 鹤壁市| 正蓝旗| 蕉岭县| 临邑县| 德兴市| 贡山| 阳春市| 墨玉县| 岳普湖县| 宾阳县| 平遥县| 延寿县| 岚皋县| 西丰县| 壤塘县| 高尔夫| 玉田县| 芮城县| 彰化县| 炉霍县| 建始县| 昌宁县| 大冶市| 信宜市| 三亚市| 红安县| 通道| 商洛市| 开原市| 衡山县| 灌云县|