日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

有關(guān)深度學(xué)習(xí)的25個問題

倩倩 ? 來源:CSDN ? 2020-04-17 11:12 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在本文中,我將分享有關(guān)深度學(xué)習(xí)的25個問題,希望能夠幫助你為面試做好準(zhǔn)備。

1.為什么必須在神經(jīng)網(wǎng)絡(luò)中引入非線性?

答:否則,我們將獲得一個由多個線性函數(shù)組成的線性函數(shù),那么就成了線性模型。線性模型的參數(shù)數(shù)量非常少,因此建模的復(fù)雜性也會非常有限。

2.說明解決神經(jīng)網(wǎng)絡(luò)中梯度消失問題的兩種方法。

答:

使用ReLU激活函數(shù)代替S激活函數(shù)。

使用Xavier初始化。

3.在圖像分類任務(wù)中,相較于使用密集神經(jīng)網(wǎng)絡(luò)(Dense Neural Network,DNN),使用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)有哪些優(yōu)勢?

答:雖然兩種模型都可以捕獲彼此靠近的像素之間的關(guān)系,但CNN具有以下屬性:

它是平移不變的:對于過濾器而言,像素的確切位置是無關(guān)的。

更不容易發(fā)生過度擬合:一般而言CNN中的參數(shù)比DNN要少很多。

方便我們更好地理解模型:我們可以查看過濾器的權(quán)重,并可視化神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)成果。

分層性質(zhì):通過使用較簡單的模式描述復(fù)雜的模式來學(xué)習(xí)模式。

4. 說明在圖像分類任務(wù)中可視化CNN特征的兩種方法。

答:

輸入遮擋:遮擋輸入圖像的一部分,看看哪部分對分類的影響最大。 例如,針對某個訓(xùn)練好的圖像分類模型,將下列圖像作為輸入。如果我們看到第三幅圖像被分類為狗狗的概率為98%,而第二幅圖像的準(zhǔn)確率僅為65%,則說明眼睛對于對分類的影響更大。

激活最大化:創(chuàng)建一個人造的輸入圖像,以最大化目標(biāo)響應(yīng)(梯度上升)。

5. 在優(yōu)化學(xué)習(xí)速率時,分別嘗試學(xué)習(xí)速率:0.1、0.2,…,0.5是好辦法嗎?

答:這種方法并不好,建議使用對數(shù)比例來優(yōu)化學(xué)習(xí)速率。

6. 假設(shè)一個神經(jīng)網(wǎng)絡(luò)擁有3層的結(jié)構(gòu)和ReLU激活函數(shù)。如果我們用同一個值初始化所有權(quán)重,結(jié)果會怎樣?如果我們只有1層(即線性/邏輯回歸)會怎樣?

答:如果所有權(quán)重的初始值都相同,則無法破壞對稱性。也就是說,所有梯度都會更新成同一個值,而且神經(jīng)網(wǎng)絡(luò)將無法學(xué)習(xí)。但是,如果神經(jīng)網(wǎng)絡(luò)只有1層的話,成本函數(shù)是凸形的(線性/ S型),因此權(quán)重始終會收斂到最佳點(diǎn),無論初始值是什么(收斂可能會較慢)。

7.解釋Adam優(yōu)化器的概念。

答:Adam結(jié)合了兩個想法來改善收斂性:每個參數(shù)更新可加快收斂速度;動量可避免卡在鞍點(diǎn)上。

8.比較批處理,小批處理和隨機(jī)梯度下降。

答:批處理是指在估計數(shù)據(jù)時獲取整個數(shù)據(jù);小批處理是通過對幾個數(shù)據(jù)點(diǎn)進(jìn)行采樣來進(jìn)行小批量處理;而隨機(jī)梯度下降是指在每個時期更新一個數(shù)據(jù)點(diǎn)的梯度。我們需要權(quán)衡梯度計算的準(zhǔn)確度與保存在內(nèi)存中的批量大小。此外,通過在每個epoch添加隨機(jī)噪聲,我們可以通過小批處理(而非整個批處理)實(shí)現(xiàn)正規(guī)化效果。

9.什么是數(shù)據(jù)擴(kuò)充?舉個例子。

答:數(shù)據(jù)擴(kuò)充是一種技術(shù),通過操作原始數(shù)據(jù)來增加輸入數(shù)據(jù)。例如,對于圖像,我們可以執(zhí)行以下操作:旋轉(zhuǎn)圖像、翻轉(zhuǎn)圖像、添加高斯模糊等。

10. 解釋GAN的概念。

答:GAN(Generative Adversarial Network)即生成對抗網(wǎng)絡(luò),通常由兩個神經(jīng)網(wǎng)絡(luò)D和G組成,其中D指的是判別器(Discriminator),而G指生成網(wǎng)絡(luò)(Generative Network)。這種模型的目標(biāo)是創(chuàng)建數(shù)據(jù),例如創(chuàng)建與真實(shí)圖像并無二樣的圖像。假設(shè)我們想要創(chuàng)建一只貓的對抗示例。神經(jīng)網(wǎng)絡(luò)G負(fù)責(zé)生成圖像,而神經(jīng)網(wǎng)絡(luò)D則負(fù)責(zé)判斷圖像是否是貓。G的目標(biāo)是“愚弄”D——將G的輸出始終分類為貓。

11.使用Batchnorm有什么優(yōu)勢?

答:Batchnorm能夠加快訓(xùn)練過程,而且(一些噪音的副產(chǎn)品)還具有調(diào)節(jié)作用。

12.什么是多任務(wù)學(xué)習(xí)?應(yīng)該在什么時候使用?

答:當(dāng)我們使用少量數(shù)據(jù)處理多個任務(wù)時,多任務(wù)處理將很有用,而且我們還可以使用在其他任務(wù)的大型數(shù)據(jù)集上訓(xùn)練好的模型。通過“硬”方式(即相同的參數(shù))或“軟”方式(即對成本函數(shù)進(jìn)行正則化/懲罰)共享模型的參數(shù)。

13.什么是端到端學(xué)習(xí)?列舉一些優(yōu)點(diǎn)。

答:端到端學(xué)習(xí)通常是一個模型,該模型能夠獲取原始數(shù)據(jù)并直接輸出所需的結(jié)果,而無需任何中間任務(wù)或功能工程。其優(yōu)點(diǎn)包括:無需手工構(gòu)建功能,而且通常可以降低偏差。

14.如果在最后一層中,我們先使用ReLU激活函數(shù),然后再使用Sigmoid函數(shù),會怎樣?

答:由于ReLU始終會輸出非負(fù)結(jié)果,因此該神經(jīng)網(wǎng)絡(luò)會將所有輸入預(yù)測成同一個類別!

15.如何解決梯度爆炸的問題?

答:解決梯度爆炸問題的一個最簡單的方法就是梯度修剪,即當(dāng)梯度的絕對值大于M(M是一個很大的數(shù)字)時,設(shè)梯度為±M。

16.使用批量梯度下降法時,是否有必要打亂訓(xùn)練數(shù)據(jù)?

答:沒有必要。因?yàn)槊總€epoch的梯度計算都會使用整個訓(xùn)練數(shù)據(jù),所以打亂順序也沒有任何影響。

17.當(dāng)使用小批量梯度下降時,為什么打亂數(shù)據(jù)很重要?

答:如果不打亂數(shù)據(jù)的順序,那么假設(shè)我們訓(xùn)練一個神經(jīng)網(wǎng)絡(luò)分類器,且有兩個類別:A和B,那么各個epoch中的所有小批量都會完全相同,這會導(dǎo)致收斂速度變慢,甚至導(dǎo)致神經(jīng)網(wǎng)絡(luò)對數(shù)據(jù)的順序產(chǎn)生傾向性。

18.列舉遷移學(xué)習(xí)的超參數(shù)。

答:保留多少層、添加多少層、凍結(jié)多少層。

19. 測試集上是否需要使用dropout?

答:不可以使用!dropout只能用于訓(xùn)練集。dropout是訓(xùn)練過程中應(yīng)用的一種正則化技術(shù)。

20.說明為什么神經(jīng)網(wǎng)絡(luò)中的dropout可以作為正則化。

答:關(guān)于dropout的工作原理有幾種解釋。我們可以將其視為模型平均的一種形式:我們可以在每一步中“去掉”模型的一部分并取平均值。另外,它還會增加噪音,自然會產(chǎn)生調(diào)節(jié)的效果。最后,它還可以稀釋權(quán)重,從根本上阻止神經(jīng)網(wǎng)絡(luò)中神經(jīng)元的共適應(yīng)。

21. 舉個適合多對一RNN架構(gòu)的例子。

答:例如:情緒分析,語音中的性別識別等。

22.我們什么時候不能使用BiLSTM?說明在使用BiLSTM我們必須做的假設(shè)。

答:在所有雙向模型中,我們都可以假設(shè)在給定的“時間”內(nèi)訪問序列的下一個元素。文本數(shù)據(jù)(例如情感分析、翻譯等)就是這種情況,而時間序列數(shù)據(jù)則不屬于這種情況。

23. 判斷對錯:將L2正則化添加到RNN有助于解決梯度消失的問題。

答:錯誤!添加L2正則化會將權(quán)重縮小為零,在某些情況下這實(shí)際上會讓梯度消失的問題更嚴(yán)重。

24. 假設(shè)訓(xùn)練錯誤/成本很高,而且驗(yàn)證成本/錯誤幾乎與之相等。這是什么意思?我們應(yīng)該做些什么?

答:這表明欠擬合。我們可以添加更多參數(shù),增加模型的復(fù)雜性或減少正則化。

25. 說明為何L2正則化可以解釋為一種權(quán)重衰減。

答:假設(shè)我們的成本函數(shù)為C(w),我們再加上一個c|w|2。使用梯度下降時,迭代如下:

w = w -grad(C)(w) — 2cw = (1–2c)w — grad(C)(w)

在該等式中,權(quán)重乘以因子《1

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    人工智能深度學(xué)習(xí)系統(tǒng)班v12.0 第12期咕泡

    突破學(xué)習(xí)難點(diǎn),深度學(xué)習(xí)進(jìn)階心得 在深度學(xué)習(xí)的這條路上,入門并不算太難。跑通一MNIST手寫數(shù)字
    的頭像 發(fā)表于 05-08 18:10 ?865次閱讀

    深度學(xué)習(xí)為什么還是無法處理邊緣場景?

    [首發(fā)于智駕最前沿微信公眾號]雖然自動駕駛車輛已經(jīng)完成了數(shù)百萬公里的行駛測試,深度學(xué)習(xí)也已被普遍應(yīng)用,但依然會在一些看似簡單的場景中犯下低級錯誤。比如在遇到一些從未見到過的邊緣場景時,系統(tǒng)可能會
    的頭像 發(fā)表于 05-04 10:16 ?2240次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>為什么還是無法處理邊緣場景?

    人工智能-Python深度學(xué)習(xí)進(jìn)階與應(yīng)用技術(shù):工程師高培解讀

    深度學(xué)習(xí)的工程化落地,早已不是紙上談兵的事。從卷積神經(jīng)網(wǎng)絡(luò)到Transformer,從目標(biāo)檢測到大模型私有化部署,技術(shù)棧不斷延伸,工程師面臨的知識體系也越來越龐雜。現(xiàn)根據(jù)中際賽威工程師培訓(xùn)老師的一份
    的頭像 發(fā)表于 04-21 11:01 ?443次閱讀
    人工智能-Python<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>進(jìn)階與應(yīng)用技術(shù):工程師高培解讀

    onsemi FDP51N25與FDPF51N25 MOSFET深度解析

    onsemi FDP51N25與FDPF51N25 MOSFET深度解析 在電子工程師的日常設(shè)計工作中,MOSFET是不可或缺的關(guān)鍵元件。今天,我們將深入探討安森美(onsemi)的兩款N溝道
    的頭像 發(fā)表于 04-14 17:45 ?1251次閱讀

    安森美 NTB25P06 和 NVB25P06 P 溝道 MOSFET 深度解析

    安森美 NTB25P06 和 NVB25P06 P 溝道 MOSFET 深度解析 在電子設(shè)計領(lǐng)域,MOSFET 是至關(guān)重要的元件,廣泛應(yīng)用于各種電路中。安森美(onsemi)的 NTB25
    的頭像 發(fā)表于 04-14 14:10 ?179次閱讀

    機(jī)器學(xué)習(xí)深度學(xué)習(xí)中需避免的 7 常見錯誤與局限性

    無論你是剛?cè)腴T還是已經(jīng)從事人工智能模型相關(guān)工作一段時間,機(jī)器學(xué)習(xí)深度學(xué)習(xí)中都存在一些我們需要時刻關(guān)注并銘記的常見錯誤。如果對這些錯誤置之不理,日后可能會引發(fā)諸多麻煩!只要我們密切關(guān)注數(shù)據(jù)、模型架構(gòu)
    的頭像 發(fā)表于 01-07 15:37 ?385次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 <b class='flag-5'>個</b>常見錯誤與局限性

    高速信號路由利器:DS25CP104A/DS25CP114深度解析

    高速信號路由利器:DS25CP104A/DS25CP114深度解析 在高速信號處理的領(lǐng)域中,如何實(shí)現(xiàn)高效、穩(wěn)定的信號路由和切換是工程師們面臨的重要挑戰(zhàn)。今天,我們就來深入探討德州儀器(TI)推出
    的頭像 發(fā)表于 12-26 15:55 ?1386次閱讀

    穿孔機(jī)頂頭檢測儀 機(jī)器視覺深度學(xué)習(xí)

    LX01Z-DG626穿孔機(jī)頂頭檢測儀采用深度學(xué)習(xí)技術(shù),能夠?qū)崿F(xiàn)頂頭狀態(tài)的在線實(shí)時檢測,頂頭丟失報警,頂頭異常狀態(tài)報警等功能,響應(yīng)迅速,異常狀態(tài)視頻回溯,檢測頂頭溫度,配備吹掃清潔系統(tǒng),維護(hù)周期長
    發(fā)表于 12-22 14:33

    電子工程師必看:QVxx25xHx系列25A高溫雙向晶閘管TRIAC深度解析

    電子工程師必看:QVxx25xHx系列25A高溫雙向晶閘管TRIAC深度解析 在電子工程師的日常工作中,選擇合適的半導(dǎo)體器件至關(guān)重要,它直接關(guān)系到產(chǎn)品的性能、穩(wěn)定性和壽命。今天,我們就來深入探討一下
    的頭像 發(fā)表于 12-16 10:00 ?686次閱讀

    如何深度學(xué)習(xí)機(jī)器視覺的應(yīng)用場景

    深度學(xué)習(xí)視覺應(yīng)用場景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測:處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)化缺陷模式 非標(biāo)產(chǎn)品分類:對形狀、顏色、紋理多變的產(chǎn)品進(jìn)行智能分類 外觀質(zhì)量評估:基于學(xué)習(xí)的外觀質(zhì)量標(biāo)準(zhǔn)判定 精密
    的頭像 發(fā)表于 11-27 10:19 ?384次閱讀

    如何在機(jī)器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測可定位已訓(xùn)練的目標(biāo)類別,并通過矩形框(邊界框)對其進(jìn)行標(biāo)識。 在討論人工智能(AI)或深度學(xué)習(xí)時,經(jīng)常會出現(xiàn)“神經(jīng)網(wǎng)絡(luò)”、“黑箱”、“標(biāo)注”等術(shù)語。這些概
    的頭像 發(fā)表于 09-10 17:38 ?1111次閱讀
    如何在機(jī)器視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    深度學(xué)習(xí)對工業(yè)物聯(lián)網(wǎng)有哪些幫助

    、實(shí)施路徑三維度展開分析: 一、深度學(xué)習(xí)如何突破工業(yè)物聯(lián)網(wǎng)的技術(shù)瓶頸? 1. 非結(jié)構(gòu)化數(shù)據(jù)處理:解鎖“沉睡數(shù)據(jù)”價值 傳統(tǒng)困境 :工業(yè)物聯(lián)網(wǎng)中70%以上的數(shù)據(jù)為非結(jié)構(gòu)化數(shù)據(jù)(如設(shè)備振動波形、紅外圖像、日志文本),傳統(tǒng)方法難以
    的頭像 發(fā)表于 08-20 14:56 ?1293次閱讀

    自動駕駛中Transformer大模型會取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號]近年來,隨著ChatGPT、Claude、文心一言等大語言模型在生成文本、對話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?4428次閱讀
    自動駕駛中Transformer大模型會取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    當(dāng)深度學(xué)習(xí)遇上嵌入式資源困境,特征空間如何破局?

    近年來,隨著人工智能(AI)技術(shù)的迅猛發(fā)展,深度學(xué)習(xí)(Deep Learning)成為最熱門的研究領(lǐng)域之一。在語音識別、圖像識別、自然語言處理等領(lǐng)域,深度學(xué)習(xí)取得了顯著成果。從原理上看
    發(fā)表于 07-14 14:50 ?1335次閱讀
    當(dāng)<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>遇上嵌入式資源困境,特征空間如何破局?

    深度操作系統(tǒng)deepin 25全面支持凹語言

    近日,deepin(深度)社區(qū)宣布,deepin 25 現(xiàn)已完成對國產(chǎn)通用編程語言凹語言 (Wa-Lang) 的兼容性測試。在 deepin 25 默認(rèn)安裝環(huán)境下,即可直接使用凹語言進(jìn)行程序的編譯、運(yùn)行與測試,無需額外復(fù)雜配置。
    的頭像 發(fā)表于 07-10 15:26 ?1189次閱讀
    <b class='flag-5'>深度</b>操作系統(tǒng)deepin <b class='flag-5'>25</b>全面支持凹語言
    绵阳市| 阿鲁科尔沁旗| 政和县| 晋中市| 赫章县| 天镇县| 桃源县| 旬阳县| 句容市| 河津市| 韶关市| 兰西县| 阿城市| 特克斯县| 平塘县| 策勒县| 湄潭县| 安新县| 石泉县| 彩票| 黄石市| 安化县| 温泉县| 大丰市| 长顺县| 霍林郭勒市| 聂拉木县| 宁蒗| 保亭| 那坡县| 株洲县| 遵义县| 万州区| 新干县| 平乡县| 兴安县| 永登县| 长岭县| 沂水县| 福贡县| 滁州市|