128 —>256 —>512 —>512 。這樣圖像的面積縮小到1/4,輸出通道數(shù)變?yōu)?倍,輸出tensor的總尺寸每次縮小一半。" />

日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

AlexNet主要使用到的新技術

Dbwd_Imgtec ? 來源:未知 ? 作者:李倩 ? 2018-08-21 15:10 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

AlexNet

2012年,Hinton的學生Alex Krizhevsky提出了深度卷積神經(jīng)網(wǎng)絡模型AlexNet,獲得當年ILSVRC(Image Large Scale Visual Recognition Challenge)比賽分類項目的冠軍。

AlexNet主要使用到的新技術如下:

a) 成功使用ReLU作為CNN的激活函數(shù),并驗證了其在較深網(wǎng)絡中的有效性,解決了Sigmod在網(wǎng)絡較深時的梯度彌散問題。b) 訓練時在最后幾個全連接層使用Dropout隨機忽略一部分神經(jīng)元以避免模型過擬合,c) 使用重疊的最大池化。AlexNet全部使用最大池化,避免平均池化的模糊效果;并提出讓步長比池化核的尺寸小,這樣池化層的輸出之間會有重疊覆蓋,特升了特征的豐富性。d) 提出LRN(Local Response Normalization,局部響應歸一化)層,如今已很少使用。e) 使用CUDA加速深度卷積神經(jīng)網(wǎng)絡的訓練。當初用的還是兩塊GRX 580 GPU,發(fā)展的好快呀。f)數(shù)據(jù)增強,隨機從256*256的原始圖像中截取224*224大小的區(qū)域作為網(wǎng)絡輸入。

整個AlexNet有5個卷積層和3個全連接層。

其參數(shù)圖如下:

關于計算params和FLOPs的方法,參看Deep Learning for Computer Vision: Memory usage and computational considerations

使用tensorflow實現(xiàn)AlexNet

參考網(wǎng)址:https://github.com/tensorflow/models/tree/master/tutorials/image/alexnet

VGGNet

VGGNet結構非常簡潔,其特點如下:

a) 通過反復堆疊3*3的小型卷積核和2*2的最大池化層構建。b) VGGNet擁有5段卷積,每一段卷積網(wǎng)絡都會將圖像的邊長縮小一半,但將卷積通道數(shù)翻倍:64 —>128 —>256 —>512 —>512 。這樣圖像的面積縮小到1/4,輸出通道數(shù)變?yōu)?倍,輸出tensor的總尺寸每次縮小一半。c) 經(jīng)常多個完全一樣的3*3的卷積層堆疊在一起。這其實是非常有用的設計:3個3*3的卷積層串聯(lián)相當于1個7*7的卷積層,即一個像素會跟周圍7*7的像素產(chǎn)生關聯(lián),可以說感受野大小是7*7。而且前者擁有比后者更少的參數(shù)量,3×3×37×7=55%3×3×37×7=55%。更重要的是,3個3*3的卷積層擁有比1個7*7的卷積層更多的線性變換(前者可以使用三次ReLU激活函數(shù)),使得CNN對特征的學習能力更強。

d) 訓練時有個小技巧:先訓練級別A的簡單網(wǎng)絡,再復用A網(wǎng)絡的權重初始化后幾個復雜模型,這樣訓練收斂的速度更快。

使用tensorflow實現(xiàn)VGGNet

參考網(wǎng)址:https://github.com/machrisaa/tensorflow-vgg

Google Inception Net

具有如下特點:

a)在控制了計算量和參數(shù)量的同時,獲得了非常好的分類性能。Inception V1有22層深,但其計算量只有15億次浮點運算,同時只有500萬的參數(shù)量,即為AlexNet參數(shù)量(6000萬)的1/12。為什么要降低參數(shù)量?第一,參數(shù)越多模型越龐大,(同樣深度下)需要供模型學習的數(shù)據(jù)量就越大,而目前高質量的數(shù)據(jù)又很貴;第二,參數(shù)越多,耗費的計算資源也越大。Inception V1參數(shù)少但效果好的原因之一就在于其模型參數(shù)更深、表達能力更強。b)去除了最后的全連接層,使用1*1的卷積層來替代,這樣是模型訓練更快并減輕了過擬合。關于這方面可參見:為什么使用卷積層替代CNN末尾的全連接層c)精心設計的Inception Module(Network In Network的思想)有選擇地保留不同層次的高階特征,最大程度地豐富網(wǎng)絡的表達能力。一般來說卷積層要提升表達能力,主要依靠增加輸出通道數(shù)(副作用是計算量大和過擬合)。因為每一個輸出通道對應一個濾波器,同一個濾波器共享參數(shù)只能提取一類特征,因此一個輸出通道只能做一種特征處理。Inception Module一般情況下有4個分支:第一個分支為1*1卷積(性價比很高,低成本(計算量?。┑目缤ǖ捞卣髯儞Q,同時可以對輸出通道升維和降維),第二個分支為1個1*1卷積再接分解后(factorized)的1*n和n*1卷積 (Factorization into small convolutions的思想),第三個分支和第二個類似但一般更深一些,第四個分支為最大池化(增加了網(wǎng)絡對不同尺度的適應性,Multi-Scale的思想)。因此Inception Module通過比較簡單的特征抽象(分支1)、比較復雜的特征抽象(分支2和分支3)和一個簡化結構的池化層(分支4)有選擇地保留不同層次的高階特征,這樣可以最大程度地豐富網(wǎng)絡的表達能力。

d) Inception V2提出了著名的Batch Normalization方法。BN用于神經(jīng)網(wǎng)絡某層時,會對每一個mini-batch數(shù)據(jù)內(nèi)部進行標準化(normalization)處理,是輸出規(guī)范化到N(0, 1)的正態(tài)分布,減少了Internal Covariate shift。關于這方面可參見:為什么會出現(xiàn)Batch Normalization層e) Inception V3引入了Factorization into small convolutions的思想,將一個較大的二維卷積拆成兩個較小的一維卷積。比如,將7*7卷積拆成1*7和7*1兩個卷積。這樣做節(jié)約了大量參數(shù),加速運算并減輕了過擬合(比將7*7卷積拆成3個3*3卷積更節(jié)約參數(shù));并且論文指出這種非對稱的卷積結構拆分比對稱地拆分為幾個相同的小卷積核效果更明顯,可以處理更多、更豐富的空間特征,增加特征多樣性。

使用tensorflow實現(xiàn)inception_v3

參考網(wǎng)址:https://github.com/tensorflow/models/blob/master/slim/nets/inception_v3.py

ResNet

這是一種新的網(wǎng)絡思想,說一下我自己的理解。

為什么會出現(xiàn)Residual Learning

人們觀察到一個典型現(xiàn)象:當網(wǎng)絡一直加深時,準確率會趨于峰值,然后再加深網(wǎng)絡準確率反而會下降(在訓練集和測試集上均是如此,這顯然就不是過擬合了)。ResNet作者把這種現(xiàn)象稱為degradation problem。

然后大家開始想,前向傳播過程中信息量越來越少是不錯,但也不至于逼近效果越來越差呀。聰明的小伙子(嚴肅來講應該是大神)He提出:把新增加的層變?yōu)楹愕扔成洌╥dentity mappings),這樣至少效果不會越來越差吧。既然網(wǎng)絡能擬合函數(shù)H(x),是不是也能同樣擬合H(x)-x。說干就干,實驗是檢驗真理的唯一標準。于是得出結論“擬合H(x)-x比直接擬合H(x)更簡單”(當然理論上他也有一套自己的解釋:如果我們想要得到的最優(yōu)結果是x,擬合前者顯然更簡單,權重直接為0即可;雖然現(xiàn)實中我們想要的并非x,但我們想要的更應該接近x而非接近0吧)。哈哈,深度殘差網(wǎng)絡就這樣誕生了。

ResNet單元模塊

如上圖所示為兩種類型的block,block定義如下:

y=F(x,Wi)+xy=F(x,Wi)+x

對于block里只有兩個卷積的情況,

F=W2σ(W1x)F=W2σ(W1x)

上述公式里兩者相加存在一個問題:1. 各個維度相同,直接相加即可2. 維度不同(在第一張圖網(wǎng)絡的虛線處,feature map尺寸大小和通道數(shù)均發(fā)生變化),論文中說給x加個WsWs的映射。我的理解是對x加個池化(stride=2)即可滿足尺寸變化,然后再利用1*1小卷積升維即可。

ResNet網(wǎng)絡特點

a) 網(wǎng)絡較瘦,控制了參數(shù)數(shù)量;b) 存在明顯層級,特征圖個數(shù)逐層遞進,保證輸出特征表達能力;c)沒有使用Dropout,利用BN和全局平均池化進行正則化,加快了訓練速度;d) 層數(shù)較高時減少了3x3卷積個數(shù),并用1x1卷積控制了3x3卷積的輸入輸出特征圖數(shù)量,稱這種結構為“瓶頸”(bottleneck)。參考:https://zhuanlan.zhihu.com/p/22447440

使用tensorflow實現(xiàn)Resnet_v2

參考網(wǎng)址:https://github.com/tensorflow/models/blob/master/slim/nets/resnet_v2.py

參考:1.以上相關模型的論文,這里就不貼了2.書籍《Tensorflow實戰(zhàn)》

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標題:幾種經(jīng)典卷積神經(jīng)網(wǎng)絡介紹

文章出處:【微信號:Imgtec,微信公眾號:Imagination Tech】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    AlexNet到ResNet的網(wǎng)絡架構進步

    自從2012年AlexNet在競賽中成功“超神”后,參加ILSVRC 2013的CNN模型數(shù)量大幅提升,其中紐約大學的Matthew Zeiler和Rob Fergus憑借ZF Net成為了競賽
    的頭像 發(fā)表于 06-30 10:03 ?2.4w次閱讀
    從<b class='flag-5'>AlexNet</b>到ResNet的網(wǎng)絡架構進步

    coolset新技術

    coolset新技術
    發(fā)表于 08-14 20:48

    電源新技術

    開關電源相關的新技術資料。
    發(fā)表于 09-09 13:57

    哈哈,分享硬件知識:智能硬件新技術

    智能硬件新技術
    發(fā)表于 04-08 11:23

    如何高效學習一門新技術

    成就感滿滿,感覺到對于新技術終于算是基本掌握了,雖然還有一些知識點沒有應用到,也不過是時間問題罷了,再回頭看以前的一些程序設計,又有了很多新的思路。 經(jīng)驗教訓 以下是總結的一些經(jīng)驗教訓: 貪多嚼不爛 雖然
    發(fā)表于 06-16 15:51

    納米防水技術特點介紹(新技術

    納米技術的在中國是一個新技術,中國能做的就一兩家。納米防水技術要有特殊的設備,都要自我研發(fā),加納米材料,以及技術。應用領域可滿足手機等消費電子產(chǎn)品,服飾,登山鞋等紡織品以及醫(yī)療領域相關
    發(fā)表于 09-19 13:34

    尋找電源領域的最新技術?

    近日,德州儀器Pradeep Shenoy發(fā)表文章《尋找電源領域的最新技術?來APEC一探究竟》,以下是全部內(nèi)容: logo
    發(fā)表于 08-05 06:03

    電能計量基礎及新技術

    電能計量基礎及新技術資料分享來自網(wǎng)絡資源
    發(fā)表于 10-02 15:49

    手機的新技術盤點

    個過程中,有越來越多的人享受到了新技術給手機使用體驗帶來的巨大提升。然而新的一年已經(jīng)來臨,將有哪些手機新技術誕生?又有哪些新技術將在平民價位段中普及開來呢?希望本文能夠給您一些指引。
    發(fā)表于 10-22 08:47

    如何尋找電源領域的最新技術?

    尋找電源領域的最新技術
    發(fā)表于 12-03 06:25

    音頻創(chuàng)新技術主要應用在哪些領域?

    音頻創(chuàng)新技術有哪些優(yōu)勢?音頻創(chuàng)新技術主要應用在哪些領域?
    發(fā)表于 06-16 08:33

    PyTorch教程8.1之深度卷積神經(jīng)網(wǎng)絡(AlexNet)

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程8.1之深度卷積神經(jīng)網(wǎng)絡(AlexNet).pdf》資料免費下載
    發(fā)表于 06-05 10:09 ?0次下載
    PyTorch教程8.1之深度卷積神經(jīng)網(wǎng)絡(<b class='flag-5'>AlexNet</b>)

    拉力傳感器主要使用在哪些行業(yè)

    拉力傳感器主要使用在哪些行業(yè)
    的頭像 發(fā)表于 12-20 17:30 ?1747次閱讀
    拉力傳感器<b class='flag-5'>主要使</b>用在哪些行業(yè)

    哪些材料需要使用到雙85恒溫恒濕試驗箱做測試

    主要討論哪些材料需要使用到雙85恒溫恒濕試驗箱做測試。   首先,我們想到最多的是電子電器行業(yè)、光伏行業(yè)、LED行業(yè)和太陽能行業(yè)。光伏行業(yè)的光伏組件,包括單晶硅組
    的頭像 發(fā)表于 02-03 09:45 ?2194次閱讀
    哪些材料需<b class='flag-5'>要使</b><b class='flag-5'>用到</b>雙85恒溫恒濕試驗箱做測試

    PCBA生產(chǎn)線中主要使用的測試治具

    校準、壽命、性能等數(shù)據(jù)進行測試。那么測試需要哪些設備呢?目前PCBA生產(chǎn)線中主要使用的測試治具分類如下: 1、ICT測試 該測試主要是針對PCB電路板和元器件的,應用范圍比較小,而且該設備比較貴,往往只有高端產(chǎn)品才會使用到,它的
    的頭像 發(fā)表于 06-28 09:37 ?3086次閱讀
    宜君县| 鄯善县| 福州市| 西乌珠穆沁旗| 江孜县| 巫山县| 盐源县| 博爱县| 玉林市| 多伦县| 温泉县| 井陉县| 寿宁县| 菏泽市| 阳原县| 龙山县| 德格县| 会昌县| 磴口县| 韶山市| 基隆市| 陆良县| 长治县| 工布江达县| 绿春县| 冀州市| 正镶白旗| 湘乡市| 杭州市| 高阳县| 平乡县| 墨脱县| 清水县| 葵青区| 康保县| 金昌市| 铁力市| 和顺县| 锦屏县| 淮北市| 汶上县|