日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

如何去掉batch normalization層來加速神經(jīng)網(wǎng)絡

深度學習自然語言處理 ? 來源:AI公園 ? 作者:AI公園 ? 2020-11-24 09:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導讀

如何去掉batch normalization層來加速神經(jīng)網(wǎng)絡。

介紹

Batch Normalization是將各層的輸入進行歸一化,使訓練過程更快、更穩(wěn)定的一種技術。在實踐中,它是一個額外的層,我們通常添加在計算層之后,在非線性之前。它包括兩個步驟:

首先減去其平均值,然后除以其標準差

進一步通過γ縮放,通過β偏移,這些是batch normalization層的參數(shù),當網(wǎng)絡不需要數(shù)據(jù)的時候,均值為0、標準差為1。

Batch normalization在神經(jīng)網(wǎng)絡的訓練中具有較高的效率,因此得到了廣泛的應用。但它在推理的時候有多少用處呢?

一旦訓練結束,每個Batch normalization層都擁有一組特定的γ和β,還有μ和σ,后者在訓練過程中使用指數(shù)加權平均值進行計算。這意味著在推理過程中,Batch normalization就像是對上一層(通常是卷積)的結果進行簡單的線性轉換。

由于卷積也是一個線性變換,這也意味著這兩個操作可以合并成一個單一的線性變換!這將刪除一些不必要的參數(shù),但也會減少推理時要執(zhí)行的操作數(shù)量。

在實踐中怎么做?

用一點數(shù)學知識,我們可以很容易地重新對卷積進行排列來處理batch normalization。提醒一下,對一個輸入x進行卷積之后再進行batch normalization的運算可以表示為:

那么,如果我們重新排列卷積的W和b,考慮batch normalization的參數(shù),如下:

我們可以去掉batch normalization層,仍然得到相同的結果!

注意:通常,在batch normalization層之前的層中是沒有bias的,因為這是無用的,也是對參數(shù)的浪費,因為任何常數(shù)都會被batch normalization抵消掉。

這樣做的效果怎樣?

我們將嘗試兩種常見的架構:

使用batch norm的VGG16

ResNet50

為了演示,我們使用ImageNet dataset和PyTorch。兩個網(wǎng)絡都將訓練5個epoch,看看參數(shù)數(shù)量和推理時間的變化。

1. VGG16

我們從訓練VGG16 5個epoch開始(最終的準確性并不重要):

參數(shù)的數(shù)量:

單個圖像的初始推理時間為:

如果使用了batch normalization折疊,我們有:

以及:

8448個參數(shù)被去掉了,更好的是,幾乎快了0.4毫秒!最重要的是,這是完全無損的,在性能方面絕對沒有變化:

讓我們看看它在Resnet50的情況下是怎么樣的!

2. Resnet50

同樣的,我們開始訓練它5個epochs:

初始參數(shù)量為:

推理時間為:

使用batch normalization折疊后,有:

和:

現(xiàn)在,我們有26,560的參數(shù)被移除,更驚訝的hi,推理時間減少了1.5ms,性能一點也沒降。

責任編輯:lq!

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡

    關注

    42

    文章

    4844

    瀏覽量

    108206
  • 參數(shù)
    +關注

    關注

    11

    文章

    1870

    瀏覽量

    34044
  • 線性
    +關注

    關注

    0

    文章

    220

    瀏覽量

    26374

原文標題:使用Batch Normalization折疊來加速模型推理

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    為什么 VisionFive V1 板上的 JH7100 中并存 NVDLA 引擎和神經(jīng)網(wǎng)絡引擎?

    我想知道為什么 VisionFive V1 板上的 JH7100 中并存 NVDLA 引擎和神經(jīng)網(wǎng)絡引擎,請問?您能否舉一些關于他們的用例的例子?
    發(fā)表于 03-25 06:01

    神經(jīng)網(wǎng)絡的初步認識

    日常生活中的智能應用都離不開深度學習,而深度學習則依賴于神經(jīng)網(wǎng)絡的實現(xiàn)。什么是神經(jīng)網(wǎng)絡?神經(jīng)網(wǎng)絡的核心思想是模仿生物神經(jīng)系統(tǒng)的結構,特別是大腦中神經(jīng)
    的頭像 發(fā)表于 12-17 15:05 ?489次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡</b>的初步認識

    CNN卷積神經(jīng)網(wǎng)絡設計原理及在MCU200T上仿真測試

    數(shù)的提出很大程度的解決了BP算法在優(yōu)化深層神經(jīng)網(wǎng)絡時的梯度耗散問題。當x&gt;0 時,梯度恒為1,無梯度耗散問題,收斂快;當x&lt;0 時,該的輸出為0。 CNN
    發(fā)表于 10-29 07:49

    NMSIS神經(jīng)網(wǎng)絡庫使用介紹

    :   神經(jīng)網(wǎng)絡卷積函數(shù)   神經(jīng)網(wǎng)絡激活函數(shù)   全連接函數(shù)   神經(jīng)網(wǎng)絡池化函數(shù)   Softmax 函數(shù)   神經(jīng)網(wǎng)絡支持功能
    發(fā)表于 10-29 06:08

    構建CNN網(wǎng)絡模型并優(yōu)化的一般化建議

    :Dropout隨機跳過神經(jīng)網(wǎng)絡模型中某些神經(jīng)元之間的連接,通過隨機制造缺陷進行訓練提升整個神經(jīng)網(wǎng)絡的魯棒性。 6)指定合理的學習率策略:一旦
    發(fā)表于 10-28 08:02

    SNN加速器內(nèi)部神經(jīng)元數(shù)據(jù)連接方式

    的數(shù)量級,而且生物軸突的延遲和神經(jīng)元的時間常數(shù)比數(shù)字電路的傳播和轉換延遲要大得多,AER 的工作方式和神經(jīng)網(wǎng)絡的特點相吻合,所以受生物啟發(fā)的神經(jīng)形態(tài)處理器中的NoC或SNN加速器通常使
    發(fā)表于 10-24 07:34

    在Ubuntu20.04系統(tǒng)中訓練神經(jīng)網(wǎng)絡模型的一些經(jīng)驗

    , batch_size=512, epochs=20)總結 這個核心算法中的卷積神經(jīng)網(wǎng)絡結構和訓練過程,是用來對MNIST手寫數(shù)字圖像進行分類的。模型將圖像作為輸入,通過卷積和池化提取圖像的特征,然后通過全連接
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡部署相關操作

    讀取。接下來需要使用擴展指令,完成神經(jīng)網(wǎng)絡的部署,此處僅對第一卷積+池化的部署進行說明,其余與之類似。 1.使用 Custom_Dtrans 指令,將權重數(shù)據(jù)、輸入數(shù)據(jù)導入硬件加速
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(LNN):時間連續(xù)性與動態(tài)適應性的神經(jīng)網(wǎng)絡

    1.算法簡介液態(tài)神經(jīng)網(wǎng)絡(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡架構,其設計理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲的神經(jīng)結構,盡管這種微生物的
    的頭像 發(fā)表于 09-28 10:03 ?1602次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡</b>(LNN):時間連續(xù)性與動態(tài)適應性的<b class='flag-5'>神經(jīng)網(wǎng)絡</b>

    神經(jīng)網(wǎng)絡的并行計算與加速技術

    問題。因此,并行計算與加速技術在神經(jīng)網(wǎng)絡研究和應用中變得至關重要,它們能夠顯著提升神經(jīng)網(wǎng)絡的性能和效率,滿足實際應用中對快速響應和大規(guī)模數(shù)據(jù)處理的需求。神經(jīng)網(wǎng)絡并行
    的頭像 發(fā)表于 09-17 13:31 ?1331次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡</b>的并行計算與<b class='flag-5'>加速</b>技術

    基于神經(jīng)網(wǎng)絡的數(shù)字預失真模型解決方案

    在基于神經(jīng)網(wǎng)絡的數(shù)字預失真(DPD)模型中,使用不同的激活函數(shù)對整個系統(tǒng)性能和能效有何影響?
    的頭像 發(fā)表于 08-29 14:01 ?3695次閱讀

    無刷電機小波神經(jīng)網(wǎng)絡轉子位置檢測方法的研究

    摘要:論文通過對無刷電機數(shù)學模型的推導,得出轉角:與三相相電壓之間存在映射關系,因此構建了一個以三相相電壓為輸人,轉角為輸出的小波神經(jīng)網(wǎng)絡實現(xiàn)轉角預測,并采用改進遺傳算法訓練網(wǎng)絡
    發(fā)表于 06-25 13:06

    神經(jīng)網(wǎng)絡專家系統(tǒng)在電機故障診斷中的應用

    摘要:針對傳統(tǒng)專家系統(tǒng)不能進行自學習、自適應的問題,本文提出了基于種經(jīng)網(wǎng)絡專家系統(tǒng)的并步電機故障診斷方法。本文將小波神經(jīng)網(wǎng)絡和專家系統(tǒng)相結合,充分發(fā)揮了二者故障診斷的優(yōu)點,很大程度上降低了對電機
    發(fā)表于 06-16 22:09

    神經(jīng)網(wǎng)絡RAS在異步電機轉速估計中的仿真研究

    眾多方法中,由于其結構簡單,穩(wěn)定性好廣泛受到人們的重視,且已被用于產(chǎn)品開發(fā)。但是MRAS仍存在在低速區(qū)速度估計精度下降和對電動機參數(shù)變化非常敏感的問題。本文利用神經(jīng)網(wǎng)絡的特點,使估計更為簡單、快速
    發(fā)表于 06-16 21:54

    基于FPGA搭建神經(jīng)網(wǎng)絡的步驟解析

    本文的目的是在一個神經(jīng)網(wǎng)絡已經(jīng)通過python或者MATLAB訓練好的神經(jīng)網(wǎng)絡模型,將訓練好的模型的權重和偏置文件以TXT文件格式導出,然后通過python程序將txt文件轉化為coe文件,(coe
    的頭像 發(fā)表于 06-03 15:51 ?1541次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡</b>的步驟解析
    阿拉善盟| 鄯善县| 宜都市| 微山县| 抚州市| 米泉市| 高平市| 阿巴嘎旗| 团风县| 松桃| 永吉县| 五原县| 广宗县| 延长县| 衡山县| 阳原县| 深水埗区| 绵阳市| 永新县| 湟中县| 安徽省| 格尔木市| 开封县| 肥乡县| 招远市| 乌什县| 鄂伦春自治旗| 久治县| 天津市| 西乡县| 且末县| 三江| 盘锦市| 滨州市| 三门峡市| 福安市| 沙湾县| 莱西市| 镇坪县| 长岛县| 墨脱县|