日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

Batch大小不一定是2的n次冪?

電子工程師 ? 來源:量子位 ? 作者:量子位 ? 2022-08-08 16:29 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Batch大小不一定是2的n次冪?

是否選擇2的n次冪在運行速度上竟然也相差無幾?

有沒有感覺常識被顛覆?

這是威斯康星大學麥迪遜分校助理教授Sebastian Raschka(以下簡稱R教授)的最新結論。

5bc08726-16c2-11ed-ba43-dac502259ad0.png

神經(jīng)網(wǎng)絡訓練中,2的n次冪作為Batch大小已經(jīng)成為一個標準慣例,即64、128、256、512、1024等。

一直有種說法,是這樣有助于提高訓練效率。

但R教授做了一番研究之后,發(fā)現(xiàn)并非如此。

在介紹他的試驗方法之前,首先來回顧一下這個慣例究竟是怎么來的?

2的n次冪從何而來?

一個可能的答案是:因為CPUGPU的內(nèi)存架構都是由2的n次冪構成的。

或者更準確地說,根據(jù)內(nèi)存對齊規(guī)則,cpu在讀取內(nèi)存時是一塊一塊進行讀取的,塊的大小可以是2,4,8,16(總之是2的倍數(shù))。

5bdb5d76-16c2-11ed-ba43-dac502259ad0.png

因此,選取2的n次冪作為batch大小,主要是為了將一個或多個批次整齊地安裝在一個頁面上,以幫助GPU并行處理。

其次,矩陣乘法和GPU計算效率之間也存在一定的聯(lián)系。

5bf09aa6-16c2-11ed-ba43-dac502259ad0.jpg

假設我們在矩陣之間有以下矩陣乘法A和B:

5c011c32-16c2-11ed-ba43-dac502259ad0.jpg

當A的行數(shù)等于B的列數(shù)的時候,兩個矩陣才能相乘。

其實就是矩陣A的第一行每個元素分別與B的第一列相乘再求和,得到C矩陣的第一個數(shù),然后A矩陣的第一行再與B矩陣的第二列相乘,得到第二個數(shù),然后是A矩陣的第二行與B矩陣的第一列……

5c10effe-16c2-11ed-ba43-dac502259ad0.jpg

因此,如上圖所示,我們擁有2×M×N×K個每秒浮點運算次數(shù)(FLOPS)。

現(xiàn)在,如果我們使用帶有Tensor Cores的GPU,例如V100時,當矩陣尺寸(M,N以及K)與16字節(jié)的倍數(shù)對齊,在FP16混合精度訓練中,8的倍數(shù)的運算效率最為理想。

因此,假設在理論上,batch大小為8倍數(shù)時,對于具有Tensor Cores和FP16混合精度訓練的GPU最有效,那么讓我們調(diào)查一下這一說法在實踐中是否也成立。

不用2的n次冪也不影響速度

為了了解不同的batch數(shù)值對訓練速度的影響,R教授在CIFAR-10上運行了一個簡單的基準測試訓練——MobileNetV3(大)——圖像的大小為224×224,以便達到適當?shù)腉PU利用率。

R教授用16位自動混合精度訓練在V100卡上運行訓練,該訓練能更高效地使用GPU的Tensor Cores。

如果你想自己運行,該代碼可在此GitHub存儲庫中找到(鏈接附在文末)。

該測試共分為以下三部分:

小批量訓練

5c2292c2-16c2-11ed-ba43-dac502259ad0.png

從上圖可以看出,以樣本數(shù)量128為參考點,將樣本數(shù)量減少1(127)或增加1(129),的確會導致訓練速度略慢,但這種差異幾乎可以忽略不計。

而將樣本數(shù)量減少28(100)會導致訓練速度明顯放緩,這可能是因為模型現(xiàn)在需要處理的批次比以前更多(50,000/100=500與50,000/128= 390)。

同樣的原理,當我們將樣本數(shù)量增加28(156)時,運行速度明顯變快了。

最大批量訓練

鑒于MobileNetV3架構和輸入映像大小,上一輪中樣本數(shù)量相對較小,因此GPU利用率約為70%。

為了調(diào)查GPU滿載時的訓練速度,本輪把樣本數(shù)量增加到512,使GPU的計算利用率接近100%。

5c3b8002-16c2-11ed-ba43-dac502259ad0.png

△由于GPU內(nèi)存限制,無法使用大于515的樣本數(shù)量

可以看出,跟上一輪結果一樣,不管樣本數(shù)量是否是2的n次冪,訓練速度的差異幾乎可以忽略不計。

多GPU訓練

基于前兩輪測試評估的都是單個GPU的訓練性能,而如今多個GPU上的深度神經(jīng)網(wǎng)絡訓練更常見。為此,這輪進行的是多GPU培訓。

5c492c66-16c2-11ed-ba43-dac502259ad0.png

正如我們看到的,2的n次冪(256)的運行速度并不比255差太多。

測試注意事項

在上述3個基準測試中,需要特別聲明的是:

所有基準測試的每個設置都只運行過一次,理想情況下當然是重復運行次數(shù)越多越好,最好還能生成平均和標準偏差,但這并不會影響到上述結論。

此外,雖然R教授是在同一臺機器上運行的所有基準測試,但兩次運營之間沒有特意相隔很長時間,因此,這可能意味著前后兩次運行之間的GPU基本溫度可能不同,并可能稍微影響到運算時間。

結論

可以看出,選擇2的n次冪或8的倍數(shù)作為batch大小在實踐中不會產(chǎn)生明顯差異。

然而,由于在實際使用中已成為約定俗成,選擇2的n次冪作為batch大小,的確可以幫助運算更簡單并且易于管理。

此外,如果你有興趣發(fā)表學術研究論文,選擇2的n次冪將使你的論文看上去不那么主觀。

盡管如此,R教授仍然認為,batch的最佳大小在很大程度上取決于神經(jīng)網(wǎng)絡架構和損失函數(shù)。

例如,在最近使用相同ResNet架構的研究項目中,他發(fā)現(xiàn)batch的最佳大小可以在16到256之間,具體取決于損失函數(shù)。

因此,R教授建議始終把調(diào)整batch大小,作為超參數(shù)優(yōu)化的一部分。

但是,如果你由于內(nèi)存限制而無法使用512作為batch大小,那么則不必降到256,首先考慮500即可。

作者Sebastian Raschka

Sebastian Raschka,是一名機器學習AI 研究員。

他在UW-Madison(威斯康星大學麥迪遜分校)擔任統(tǒng)計學助理教授,專注于深度學習和機器學習研究,同時也是Lightning AI的首席 AI 教育家。

另外他還寫過一系列用Python和Scikit-learn做機器學習的教材。

5c7af340-16c2-11ed-ba43-dac502259ad0.png

基準測試代碼鏈接:
https://github.com/rasbt/b3-basic-batchsize-benchmark
參考鏈接:
https://sebastianraschka.com/blog/2022/batch-size-2.html

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 矩陣
    +關注

    關注

    1

    文章

    450

    瀏覽量

    36277
  • 機器學習
    +關注

    關注

    67

    文章

    8567

    瀏覽量

    137256

原文標題:Batch大小不一定是2的n次冪!ML資深學者最新結論

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    你的路由器信號變?nèi)蹩赡苤皇且驗镾MA接口出現(xiàn)了氧化層

    信號變差不一定是固件或覆蓋問題,很可能是被忽視的物理細節(jié)——SMA接口氧化。本文由德索連接器(Dosin)技術專家撰寫,深入剖析趨膚效應對高頻傳輸?shù)挠绊?,揭示阻抗失配導致信號損耗的底層邏輯。
    的頭像 發(fā)表于 04-22 14:06 ?100次閱讀
    你的路由器信號變?nèi)蹩赡苤皇且驗镾MA接口出現(xiàn)了氧化層

    Onsemi N溝道MOSFET FQU2N100和FQD2N100的特性與應用

    Onsemi N溝道MOSFET FQU2N100和FQD2N100的特性與應用 在電子設計領域,MOSFET(金屬 - 氧化物 - 半導體場效應晶體管)作為關鍵的功率器件,廣泛應用于各種電源
    的頭像 發(fā)表于 03-30 11:20 ?293次閱讀

    面向視覺語言導航的任務驅動式地圖學習框架MapDream介紹

    在視覺語言導航(VLN)中,地圖長期作為獨立模塊構建,并通過固定接口交由導航策略使用。無論是BEV網(wǎng)格、拓撲圖還是語義記憶模塊,這些表示大多脫離策略學習而設計。結果是,機器人即使掌握場景的信息,也仍可能繞行甚至偏離目標,因為地圖中編碼的,并不一定是決定導航成功的關鍵信息。
    的頭像 發(fā)表于 03-02 10:40 ?636次閱讀
    面向視覺語言導航的任務驅動式地圖學習框架MapDream介紹

    EPLAN分散式端子的畫法和作用

    Eplan的分散式端子是指個端子被畫了N,但是還是同個端子;Eplan的機制是個端子畫一次
    的頭像 發(fā)表于 01-21 15:50 ?1057次閱讀
    EPLAN分散式端子的畫法和作用

    通過2進行除法和取余數(shù)快捷方法優(yōu)化

    如果除法中的除數(shù)是2,我們可以更好的優(yōu)化除法。 編譯器使用移位操作來執(zhí)行除法。因此,我們需要盡可能的設置除數(shù)為2
    發(fā)表于 12-12 06:02

    不一樣的展會,不一樣的精彩 2025灣芯展圓滿收官

    ”。本屆展會人氣火爆,展期三天累計接待總量達到11.23萬人。參展企業(yè)集中發(fā)布年度新品數(shù)約2500件,新品發(fā)布與商業(yè)合作收獲頗豐。 不一樣的全“芯”布局 聚焦核心+特色雙軌賽道,產(chǎn)業(yè)全鏈展盡覽 2025灣芯展以“芯啟未來 智
    的頭像 發(fā)表于 10-29 16:56 ?1541次閱讀
    <b class='flag-5'>不一</b>樣的展會,<b class='flag-5'>不一</b>樣的精彩 2025灣芯展圓滿收官

    RSA加速實現(xiàn)思路

    N;其中(E , N)組成公鑰。 解密過程為:M = CDmodN;其中(D , N)組成私鑰。 2 關于加速操作 上述提到N、
    發(fā)表于 10-28 07:28

    不一樣的展會,不一樣的精彩:2025灣芯展順利收官

    內(nèi),打造場"不一樣的展會",呈現(xiàn)出"不一樣的精彩"。本屆展會人氣火爆,展期三天累計接待總量達到11.23萬人。參展企業(yè)集中發(fā)布年度新品數(shù)約2500件,新品發(fā)布與商業(yè)合作收獲頗豐。
    的頭像 發(fā)表于 10-19 20:27 ?931次閱讀
    <b class='flag-5'>不一</b>樣的展會,<b class='flag-5'>不一</b>樣的精彩:2025灣芯展順利收官

    串口DMA接收方式打開,為什么在開啟IDLE中斷的情況下還需要開啟DMA中斷呢?

    戶接口rx_indicate來讀取數(shù)據(jù),此時,串口收到的數(shù)據(jù)并不一定是完整的幀,破壞了使用IDLE中斷的意義。所以,為什么要開啟DMA中斷呢? 此處,可以看到不論是IDLE中斷還是DMA傳輸中斷,都會導致用戶回調(diào)的調(diào)用。
    發(fā)表于 09-29 08:30

    如何秒級實現(xiàn)接口間“等”補償:款輕量級仿等數(shù)據(jù)校正處理輔助工具

    導語 本文分析了在網(wǎng)絡超時場景下,RPC服務調(diào)用數(shù)據(jù)致性的問題,對于接口無等、接口等失效情況下,對異常數(shù)據(jù)快速處理做了分析思考和嘗試,開發(fā)了款輕量級仿
    的頭像 發(fā)表于 09-15 16:55 ?1024次閱讀
    如何秒級實現(xiàn)接口間“<b class='flag-5'>冪</b>等”補償:<b class='flag-5'>一</b>款輕量級仿<b class='flag-5'>冪</b>等數(shù)據(jù)校正處理輔助工具

    等等黨不一定會贏,但小鵬G7一定會!

    行業(yè)資訊
    腦極體
    發(fā)布于 :2025年07月15日 15:50:41

    可靠性技術系列教材之PCB EMC設計技術

    的通路等差模電流會轉換成共模電流。 三、共模電流 大小不一定相等方向相位相同。 設備對外的干擾多以共模為主差模干擾也存在但是共模干擾強度常常比差模強度的大幾個數(shù)量級。 外來的干擾也多以共模
    發(fā)表于 07-01 16:12

    Denebola RDK上配置的幀大小與實際幀大小不一致是怎么回事?

    字節(jié),與預期值不一致。 eCamViewer 上的顯示問題: 使用Wireshark檢查數(shù)據(jù)傳輸,數(shù)據(jù)包已成功傳輸?shù)街鳈C。 但是,視頻沒有在eCamViewer上顯示,我懷疑幀和數(shù)據(jù)包大小差異(在第 1 點和第 2 點中提到)
    發(fā)表于 05-19 08:09

    求助,CY3014中CyU3PDmaChannelSetWrapUp函數(shù)的使用以及其他問題求解

    我在主任務中的FOR循環(huán)中實現(xiàn)了個功能: UART不定時的接收大小不一的數(shù)據(jù),然后再通過UART傳出。 其中附件是我的代碼. 遇到的問題: 剛開始接收與發(fā)送是正常的,我發(fā)送的數(shù)據(jù)以及數(shù)據(jù)大小,再
    發(fā)表于 05-15 08:09

    cyusb3014 slave fifo模式In和Out緩存大小不一樣時,顯示錯誤怎么解決?

    cyusb3014 slave fifo 模式 In 和 Out 緩存大小設置不一樣時(比如:U2P DMA緩存16K,P2U DMA緩存1K),可以測出來實際就是設置值,但在USB
    發(fā)表于 05-13 06:55
    平江县| 长春市| 德钦县| 东乡县| 东光县| 宁陕县| 赤峰市| 金门县| 云和县| 信丰县| 泌阳县| 保定市| 台安县| 姜堰市| 诏安县| 仙居县| 双辽市| 大庆市| 霸州市| 大英县| 清流县| 长白| 乃东县| 沧州市| 洛宁县| 都兰县| 永康市| 铜梁县| 苗栗县| 丹江口市| 怀来县| 江都市| 永州市| 洪雅县| 图木舒克市| 灵丘县| 陆河县| 松桃| 莲花县| 陵水| 雷州市|