日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

工程師應(yīng)該怎樣學(xué)習(xí)機(jī)器學(xué)習(xí)算法

工程師人生 ? 來(lái)源:工程師吳畏 ? 2019-05-05 16:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1.前言 — 程序員是一個(gè)知識(shí)更新較為迅速的一個(gè)職業(yè),這個(gè)行業(yè)的知識(shí)的更新速度,有的時(shí)候會(huì)超過(guò)你的學(xué)習(xí)速度。大部分的人都在不斷的更新自己的知識(shí)體系,這里筆者要向讀者安利一下機(jī)器學(xué)習(xí)(包含深度學(xué)習(xí))的重要性,以及常見(jiàn)的知識(shí)。作為個(gè)人能力的提升,筆者覺(jué)得這一點(diǎn)是程序猿/媛,需要掌握的一想技能。 其實(shí)在互聯(lián)網(wǎng)公司工作過(guò)的同學(xué)都應(yīng)該有這樣的感觸,我們正在從IT到DT的轉(zhuǎn)型,算法在應(yīng)用中變得越來(lái)越重要了。

處在向DT轉(zhuǎn)型中的我們也就理所當(dāng)然的需要掌握DT的核心——算法。外界將大數(shù)據(jù)吵得如火如荼,但對(duì)于業(yè)內(nèi)人來(lái)說(shuō),這些東西只是吵概念而已,簡(jiǎn)單的大數(shù)據(jù)是沒(méi)有太大意義的,數(shù)據(jù)就好比是發(fā)動(dòng)機(jī)運(yùn)轉(zhuǎn)需要的燃料,而算法則是發(fā)動(dòng)機(jī)。只有有了發(fā)動(dòng)機(jī)數(shù)據(jù)才能發(fā)揮它的價(jià)值。就像石油已經(jīng)在地下沉睡千萬(wàn)年,在發(fā)動(dòng)機(jī)產(chǎn)生前并沒(méi)有人認(rèn)識(shí)到它的價(jià)值,但發(fā)動(dòng)機(jī)產(chǎn)生后,石油才成為像黃金一樣珍貴的東西。所以我們必須掌握算法知識(shí)才能更好的駕馭DT這輛戰(zhàn)車(chē)。

然而在實(shí)際的工作中所謂的算法工程師,實(shí)際上大部分應(yīng)該叫做“算法應(yīng)用工程師”,很少有算法工程師能夠產(chǎn)生自己的算法。我這么說(shuō)肯定有人要拍磚,但實(shí)際上確實(shí)是這樣的。比如做一些分類(lèi)問(wèn)題用邏輯回歸、SVM等常用算法,對(duì)于一些復(fù)雜問(wèn)題,如圖像分類(lèi)用CNN處理,稍微復(fù)雜一點(diǎn)的NLP問(wèn)題用RNN處理。很多算法工程師日常工作大部分用在數(shù)據(jù)處理、訓(xùn)練數(shù)據(jù)集選擇、校驗(yàn)數(shù)據(jù)集選擇等,不斷的調(diào)節(jié)參數(shù)從而獲得較好的效果。這里不是詆毀那些努力工作的算法同學(xué),我在研究生的時(shí)候也是搞機(jī)器學(xué)習(xí)的,工作后,先搞工程、又混合著搞算法,如分類(lèi)問(wèn)題,類(lèi)目映射(將A網(wǎng)站的商品映射到B網(wǎng)站的類(lèi)目下)、接著搞NLP(基于RNN和CRF做slotfilling)…,接著又搞工程…。我想說(shuō)的是算法沒(méi)我們認(rèn)為的那么復(fù)雜,但實(shí)際上又遠(yuǎn)比我們認(rèn)識(shí)的復(fù)雜。

為什么說(shuō)算法不復(fù)雜卻又很復(fù)雜?其實(shí)這并不矛盾。說(shuō)其不復(fù)雜是因?yàn)槲覀儾槐赝耆莆毡澈髲?fù)雜的公式推導(dǎo),只需要知道背后的物理意義、知道響應(yīng)的算法或模型適合處理的問(wèn)題、知道如何調(diào)節(jié)相關(guān)的參數(shù)等即可。說(shuō)其復(fù)雜是因?yàn)楸澈蟮耐茖?dǎo)確實(shí)很麻煩,就拿常用的SVM算法來(lái)說(shuō),讀書(shū)的時(shí)候硬生生的是照著PPT推導(dǎo)了一周才推導(dǎo)成功(也反映出自己數(shù)學(xué)基礎(chǔ)有點(diǎn)渣)…。繼續(xù)說(shuō)復(fù)雜性,要非常純熟的掌握相應(yīng)算法的核心,需要對(duì)線性代數(shù)、概率、微積分等重要的數(shù)學(xué)知識(shí)掌握和理解的較為透徹。這里不得不說(shuō)我們的大學(xué)里相關(guān)的數(shù)學(xué)教育,感覺(jué)線性代數(shù)、概率、微積分講得不徹底,只是學(xué)了知識(shí)點(diǎn)但背后的物理意義卻沒(méi)能講清楚,比如矩陣相關(guān)運(yùn)算的物理意義就是在實(shí)際的算法中才體會(huì)到的,數(shù)學(xué)真應(yīng)該讓計(jì)算機(jī)老師來(lái)講。話說(shuō)的有點(diǎn)多,但對(duì)于程序員來(lái)說(shuō)我覺(jué)得數(shù)學(xué)知識(shí)必須要學(xué)的扎實(shí),特別對(duì)于學(xué)校中的學(xué)生來(lái)說(shuō),其他課程可以不太用心,但數(shù)學(xué)相關(guān)必須牢牢地掌握,要用心,特別要掌握其背后的物理意義。

為什么我們要掌握算法呢?首先感覺(jué)是因?yàn)榄h(huán)境的變化,因?yàn)樗惴ㄗ兊迷絹?lái)越重要,如之前的新聞,谷歌轉(zhuǎn)型:把2.5萬(wàn)工程師變成機(jī)器學(xué)習(xí)專家,google都已經(jīng)走在前列了,也足見(jiàn)機(jī)器學(xué)習(xí)越來(lái)越重要了?,F(xiàn)在很多產(chǎn)品,工程只是對(duì)算法進(jìn)行包裝,很多產(chǎn)品的核心是算法,如滴滴、Uber。

其次,工程師懂算法,真的有點(diǎn)像流氓會(huì)武術(shù),誰(shuí)也攔不住了。一方面增加自己的核心競(jìng)爭(zhēng)力,另一方面在團(tuán)隊(duì)溝通的時(shí)候也更加方便。很多算法工程師的架構(gòu)、系統(tǒng)能力不足,如果工程師懂得算法,那么可以和算法同學(xué)順暢溝通,有助于產(chǎn)品或項(xiàng)目的實(shí)現(xiàn)。

最后,對(duì)于在校生、再找工作、畢業(yè)生或者剛工作的同學(xué),能夠掌握機(jī)器學(xué)習(xí)的基本知識(shí)能夠增加你的核心競(jìng)爭(zhēng)力,在競(jìng)爭(zhēng)面前更容易脫穎而出(特別是在面試的時(shí)候,不一定要有實(shí)戰(zhàn)經(jīng)驗(yàn),你能講的清楚也是很不錯(cuò)的)。

總之,個(gè)人覺(jué)得,對(duì)于工程師而言,學(xué)習(xí)機(jī)器學(xué)習(xí)相關(guān)算法是提升個(gè)人核心競(jìng)爭(zhēng)力的重要一步。那么接下來(lái)筆者就在這里進(jìn)一步闡述作為工程師應(yīng)該掌握哪些相關(guān)算法、如何去學(xué)習(xí)相關(guān)算法。

###2.基礎(chǔ)知識(shí) — #####2.1 線性代數(shù)基礎(chǔ)知識(shí) 個(gè)人覺(jué)得線性代數(shù)知識(shí)是在工作中用的最廣的大學(xué)知識(shí),特別是矩陣相關(guān)知識(shí)在實(shí)際應(yīng)用中使用最為廣泛。但從個(gè)人經(jīng)驗(yàn)看,很多畢業(yè)生對(duì)于線性代數(shù)特別是矩陣相關(guān)知識(shí)掌握的很膚淺,對(duì)矩陣的理解很不到位,曾經(jīng)問(wèn)過(guò)一些畢業(yè)生,對(duì)于矩陣的SVD很多人會(huì)解,但背后的物理意義卻模糊不清。 講義鏈接:[Linear Algebra Review and Reference](http://ai-coder.com/batbus/pdf/cs229-linalg.pdf) #####2.2 概率基礎(chǔ)知識(shí) 概率知識(shí)是也是實(shí)際工作中使用較為廣泛的知識(shí),從BAT的筆試題中可以看出,概率計(jì)算基本是逢考比用的。其中較為常用的就是貝葉斯定理了,在復(fù)習(xí)這部分的知識(shí)的時(shí)候,一定要弄清楚相關(guān)定理的前置條件。 講義鏈接:[Review of Probability Theory](http://ai-coder.com/batbus/pdf/cs229-prob.pdf) #####2.3 凸優(yōu)化 在許多機(jī)器學(xué)習(xí)算法中,我們最終是求一個(gè)目標(biāo)函數(shù)的最大值或最小值,很多時(shí)候這種問(wèn)題最終歸咎為目標(biāo)函數(shù)的優(yōu)化問(wèn)題,實(shí)質(zhì)是一種凸優(yōu)化問(wèn)題,所以讀者需要掌握一些凸優(yōu)化問(wèn)題的基礎(chǔ)知識(shí)。 講義鏈接:[Convex Optimization Overview](http://ai-coder.com/batbus/pdf/cs229-cvxopt.pdf) ######注:講義來(lái)源于Stanford深度學(xué)習(xí)與NLP課程前置基礎(chǔ)知識(shí) — ###3.應(yīng)該了解哪些算法 這里不會(huì)對(duì)相關(guān)的算法做展開(kāi),只想從個(gè)人轉(zhuǎn)型的經(jīng)歷向讀者闡述,應(yīng)該掌握哪些常見(jiàn)的機(jī)器學(xué)習(xí)算法,以及學(xué)習(xí)中應(yīng)該注意的事項(xiàng)。相關(guān)的算法以及有很多博客可以參考,但個(gè)人覺(jué)得還是要先讀一遍原論文,讀不懂沒(méi)關(guān)系,能理解多少理解多少,再參考別人寫(xiě)的解釋理解一遍。如果直接讀別人的博客,有可能被誤導(dǎo),之后再反過(guò)頭來(lái)再讀一讀原論文,這樣感覺(jué)理解的能好一些。當(dāng)然也推薦大家直接學(xué)習(xí)Andrew Ng的公開(kāi)課,講的比較容易懂。而且已經(jīng)好幾年了,相關(guān)的討論、講義標(biāo)注都很全面了,對(duì)于初學(xué)者來(lái)說(shuō)是一個(gè)好的學(xué)習(xí)資源。 — ####3.1 常見(jiàn)的特征提取方法 其實(shí)特征選擇(提?。┦亲鳛楸O(jiān)督學(xué)習(xí)中特別重要的一個(gè)環(huán)節(jié)。往往我們要處理的問(wèn)題可能供處理的特征特別多,我們減少特征的數(shù)量,比如圖像處理,如果完全用像素,對(duì)于一張1000*1000的圖片,那么特征就是一個(gè)1000*1000這種高維的特征,我們需要降低這個(gè)特征的維度,這個(gè)過(guò)程就叫做特征提取(選擇)。對(duì)于圖像我們常用sift特征。常用的降維方法包括(個(gè)人常用): ######1.PCA(主成分分析) 這是一種無(wú)監(jiān)督的降維方法,準(zhǔn)確的說(shuō)應(yīng)該是一種空間映射方法,PCA一次尋找一組正交的映射空間,并且使得能夠在這個(gè)映射空間上方差最大。這個(gè)方法使用的頻率較高,也比較典型,比較容易掌握。一般的教材書(shū)中都有相關(guān)的介紹,在Andrew Ng的課程中有相關(guān)介紹,可以直接學(xué)習(xí)。 ######2.基于樹(shù)的方法 這里嗎需要讀者理解一些常用的概念如”熵”,”信息增益”等,基于樹(shù)的方法,可以通過(guò)剪枝的方式來(lái)去掉那些對(duì)于結(jié)果沒(méi)什么大的影響的特征。這里面對(duì)于”熵”的理解,要強(qiáng)調(diào)一下,”熵”可以理解為不確定性,你可以認(rèn)為是”商量”,熵越大,不確定性越高,就越需要”商量”,越小,代表確定性越高。關(guān)于樹(shù)的相關(guān)方法,在國(guó)內(nèi)的機(jī)器學(xué)習(xí)教材中都有明確的闡釋。

######3.SVD(矩陣分解) 矩陣分解這是機(jī)器學(xué)習(xí)里面非常重要的一個(gè)線性代數(shù)知識(shí),能夠很好的起到降維的效果。在自然語(yǔ)言處理中較為常用。比如X是word-》document的矩陣,關(guān)于SVD雖然在公開(kāi)課中有講解,但感覺(jué)還是語(yǔ)言的理解有問(wèn)題,理解的不是很透徹,發(fā)現(xiàn)這個(gè)哥們寫(xiě)的相關(guān)機(jī)器學(xué)習(xí)的博客講的還都比較通透,所以讀者可以參考他的這篇博文理解一下。

相關(guān)博文:強(qiáng)大的矩陣奇異值分解

####3.2 常用機(jī)器學(xué)習(xí)算法 這里面會(huì)向讀者介紹一下工作中常用的相關(guān)機(jī)器學(xué)習(xí)算法,當(dāng)然這里也不會(huì)詳細(xì)解釋,這里只是告訴讀者存在并且常用這些算法,筆試和面試中往往會(huì)考察面試者對(duì)于這些知識(shí)的掌握。對(duì)于如何學(xué)習(xí),筆者覺(jué)得最好優(yōu)先讀paper,再看看公開(kāi)課和相關(guān)博客。 ##### 3.2.1 常見(jiàn)聚類(lèi)算法 聚類(lèi)算法是我們常用的算法其思想比較容易理解,符合大腦處理問(wèn)題的思維邏輯。我們常見(jiàn)的聚類(lèi)算法包括Kmeans、EM算法等,下面簡(jiǎn)單羅列一下: SimpleKmeans算法:接受輸入?yún)?shù)K,然后將數(shù)據(jù)集劃分為K歌聚簇,同一個(gè)聚簇中的相似度較高,不同聚簇的相似度較小。 Xmeans算法:Kmeans的改進(jìn),在總體中通過(guò)Kmeans產(chǎn)生聚類(lèi),再分別對(duì)每個(gè)聚類(lèi)進(jìn)行Kmeas的迭代,將某些子類(lèi)進(jìn)行聚類(lèi),直到達(dá)到用戶設(shè)定的次數(shù)為止。 EM算法:期望最大化算法(Expectation Maximization Algorithm),是一種迭代算法,用于含有隱變量(hidden variable)的概率參數(shù)模型的最大似然估計(jì)或極大后驗(yàn)概率估計(jì)。這里需要說(shuō)下,EM算法背后的理論、推導(dǎo)最好好好掌握,這個(gè)掌握了,大部分的推導(dǎo)和理論基本都cover了。 相關(guān)博文:[常用聚類(lèi)算法介紹之聚類(lèi)種類(lèi)和算法列表](http://ai-coder.com/batbus/html/blog_detail.php?blog_id=250) ##### 3.2.2 常見(jiàn)分類(lèi)、回歸算法 分類(lèi)和回歸問(wèn)題,其實(shí)可以拿到一起來(lái)講。如果我的問(wèn)題最終是要將待處理的數(shù)據(jù)明確分為若干類(lèi)別(常用的有二元分類(lèi)、多元分類(lèi)),那么就是分類(lèi)問(wèn)題,如果最終需要映射到一個(gè)數(shù)值區(qū)間,那么就是回歸問(wèn)題,比如預(yù)測(cè)一個(gè)人犯罪的概率,如果需要判斷是否犯罪,那么就是一個(gè)分類(lèi)問(wèn)題(是和否),如果要給個(gè)概率那么就是一個(gè)回歸問(wèn)題。 這里面我們常用的算法有SVM、LR、隨機(jī)森林、樸素貝葉斯。 線性回歸(Linear Regression):結(jié)果易于理解,計(jì)算上不復(fù)雜,但對(duì)非線性數(shù)據(jù)擬合不好。應(yīng)該是線上應(yīng)用最為廣泛的模型,簡(jiǎn)約而不簡(jiǎn)單,更重要的是快!LR的推導(dǎo)是必須要掌握的! SVM:通俗的講,SVM是一種二類(lèi)分類(lèi)模型,其模型的定義為特征空間上的間隔最大的線性分類(lèi)器。其學(xué)習(xí)策略是使得間隔最大化,最終可以轉(zhuǎn)化為凸優(yōu)化問(wèn)題。簡(jiǎn)單的理解就是,在低維空間中難以劃分的問(wèn)題,將其映射到一個(gè)高維空間,在高維空間使得數(shù)據(jù)可以線性劃分。 樸素貝葉斯:樸素貝葉斯是貝葉斯理論的一部分,是一種概率模型,即選擇較高概率的決策。其前置條件是: (1)每個(gè)特征之間相互獨(dú)立。 (2)每個(gè)特征同等重要。 在數(shù)據(jù)較少的情況下仍然有效,可以處理多類(lèi)別問(wèn)題。但對(duì)于輸入數(shù)據(jù)較為敏感。 隨機(jī)森林(Random Forest):隨機(jī)森林比較適合做多分類(lèi)問(wèn)題,其優(yōu)點(diǎn)是: 訓(xùn)練和預(yù)測(cè)速度快; 對(duì)訓(xùn)練數(shù)據(jù)的容錯(cuò)能力好; 實(shí)現(xiàn)簡(jiǎn)單且易并行 當(dāng)數(shù)據(jù)集中有大比例的數(shù)據(jù)缺失時(shí)仍然可以保持精度不變和能夠有效地處理大的數(shù)據(jù)集;可以處理沒(méi)有刪減的成千上萬(wàn)的變量;能夠在分類(lèi)的過(guò)程中可以生成一個(gè)泛化誤差的內(nèi)部無(wú)偏估計(jì);能夠檢測(cè)到特征之間的相互影響以及重要性程度。但容易出現(xiàn)過(guò)度擬合。 實(shí)際上該算法實(shí)際上可以理解為專投票算法,一個(gè)森林可以拆解成很多樹(shù),每個(gè)樹(shù)都是一個(gè)決策算法,可以理解成一個(gè)領(lǐng)域?qū)<?,眾多專家組合成一個(gè)森林,對(duì)于待處理的問(wèn)題,專家組進(jìn)行投票,最終少數(shù)服從多數(shù),由票數(shù)決定結(jié)果。 ####3.3 深度學(xué)習(xí)相關(guān)算法 深度學(xué)習(xí)是近幾年較為火的一種學(xué)習(xí)方式,目前在實(shí)際工作中使用的越來(lái)越廣,往往不需要較為復(fù)雜的調(diào)優(yōu)就能達(dá)到其他常用的調(diào)優(yōu)過(guò)后的機(jī)器學(xué)習(xí)算法達(dá)到的水平,也就是說(shuō),他的baseline很高,隨著向caffee、tensorflow等框架使用的推廣,這些深度模型實(shí)現(xiàn)起來(lái)越來(lái)越簡(jiǎn)單,所以工程師就越來(lái)越有必要掌握這些深度學(xué)習(xí)算法。你可以在機(jī)器上安裝tensorflow就能夠嘗試在本機(jī)上進(jìn)行手寫(xiě)體識(shí)別、word2Vector訓(xùn)練等,趕緊動(dòng)起來(lái)吧。 關(guān)于學(xué)習(xí),可以參考Stanford深度學(xué)習(xí)和NLP的公開(kāi)課,講的還比較透徹,但需要讀者掌握在文章第二部分提到的一些數(shù)學(xué)知識(shí)。 ##### 3.3.1 RNN(Recursive Neural Network) RNN是較為常用的深度模型,常用的有兩種變體,一種是時(shí)間遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent neural network),另一種是結(jié)構(gòu)遞歸神經(jīng)網(wǎng)絡(luò)(Recursive neural network)。時(shí)間遞歸神經(jīng)網(wǎng)絡(luò)的神經(jīng)元間連接構(gòu)成有向圖,而結(jié)構(gòu)遞歸神經(jīng)網(wǎng)絡(luò)利用相似的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)遞歸構(gòu)造更為復(fù)雜的深度網(wǎng)絡(luò)。兩者訓(xùn)練的算法不同,但屬于同一算法變體。 Recurrent是在時(shí)間維度的展開(kāi),能夠有效的表示信息在時(shí)間維度上從前往后的的傳遞和積累,你可以和馬爾科夫鏈做類(lèi)比。 Recursive是在空間維度的展開(kāi),你可以認(rèn)為他是一種結(jié)構(gòu)上遞歸的結(jié)構(gòu),對(duì)應(yīng)為棵樹(shù)。在NLP領(lǐng)域用的較為廣泛,能夠很好的提取出結(jié)構(gòu)信息,其示意圖如下

二相比之下時(shí)間遞歸神經(jīng)網(wǎng)絡(luò)如下:

##### 3.3.2 RNN(Recurrent Neural Network) 常見(jiàn)的示意圖如下所示,其核心就是每輪的運(yùn)算都充分結(jié)合上一輪的迭代結(jié)果。

目前最為常見(jiàn)的時(shí)間遞歸神經(jīng)網(wǎng)絡(luò)就是LSTM(Long-Short-Term-Memories)。按照時(shí)間序列進(jìn)行展開(kāi)如下圖

由上圖可見(jiàn)一般包括書(shū)入門(mén)、忘記門(mén)、輸出門(mén),能夠很好的學(xué)習(xí)當(dāng)前特征同時(shí)兼顧上下文信息。目前較多的用于NLP范疇,其能夠較好的保留上下文信息,這樣在語(yǔ)義理解、摘要生成、情感分析等問(wèn)題處理上都能得到一個(gè)較好的結(jié)果。

讀者可以不去掌握其復(fù)雜的推導(dǎo),但其背后的物理意義、這種思想是必須掌握的,應(yīng)用的時(shí)候,大部分都是利用現(xiàn)有框架去處理。所以這里再?gòu)?qiáng)調(diào)一遍,如果精力有限那么就要重其意。

3.3.3 RNN模型比較

其實(shí)兩種模型的區(qū)別在3.3.1中已經(jīng)做了區(qū)分,這里按照Stanford深度學(xué)習(xí)和NLP課程中所述進(jìn)行一下模型對(duì)比。

Recursive Neural Network:在語(yǔ)言層解釋性較好,能夠保留骨干信息,可應(yīng)用在句法分析、短語(yǔ)識(shí)別。

Recurrent Neural Network: 在語(yǔ)意上解釋性較好,很多人利用其做了很多好玩的,如自動(dòng)寫(xiě)詩(shī)之類(lèi)的,訓(xùn)練是一個(gè)個(gè)字符的讀取后訓(xùn)練。通常情況下雖然不是最好的結(jié)果,但是結(jié)果也不差,特別是在引入了”門(mén)”之后,提示較為明顯。

3.3.4 CNN(Convolutional Neural network)

卷積神經(jīng)網(wǎng)絡(luò)由于避免了對(duì)圖像的復(fù)雜前期預(yù)處理,可以直接輸入原始圖像(需要尺寸format處理),因而得到了更為廣泛的應(yīng)用。

一般地,CNN的基本結(jié)構(gòu)包括兩層,其一為特征提取層,每個(gè)神經(jīng)元的輸入與前一層的局部接受域相連,并提取該局部的特征。一旦該局部特征被提取后,它與其它特征間的位置關(guān)系也隨之確定下來(lái);其二是特征映射層,網(wǎng)絡(luò)的每個(gè)計(jì)算層由多個(gè)特征映射組成,每個(gè)特征映射是一個(gè)平面,平面上所有神經(jīng)元的權(quán)值相等。

CNN主要用來(lái)識(shí)別位移、縮放及其他形式扭曲不變性的二維圖形。由于CNN的特征檢測(cè)層通過(guò)訓(xùn)練數(shù)據(jù)進(jìn)行學(xué)習(xí),所以在使用CNN時(shí),避免了顯示的特征抽取,而隱式地從訓(xùn)練數(shù)據(jù)中進(jìn)行學(xué)習(xí)。

這里讀者需要掌握卷積的物理意義、全鏈接和局部鏈接、知道為什么要池化、常見(jiàn)的池化方法等,這樣對(duì)CNN就基本掌握了,剩下的就是應(yīng)用了。

4.總結(jié)

無(wú)論是學(xué)士還是已經(jīng)工作的工程師,掌握一些機(jī)器學(xué)習(xí)算法,對(duì)于自己都是增加了自己的核心競(jìng)爭(zhēng)力,在DT轉(zhuǎn)型的過(guò)程中,會(huì)讓自己走的更遠(yuǎn)。如今無(wú)論是Google、微軟還是Amazon都在開(kāi)放自己的機(jī)器學(xué)習(xí)平臺(tái),阿里云上的機(jī)器學(xué)習(xí)平臺(tái)也可以直接使用,這些平臺(tái)的開(kāi)放大大降低了我們對(duì)于算法的使用難度,我們無(wú)需向那些真正的算法專家一樣去發(fā)明算法,只要我們知其然、也知其所以然,就能夠利用這些知識(shí)去解決實(shí)際問(wèn)題。

對(duì)于還在學(xué)校里學(xué)習(xí)的同學(xué)要充分利用自己的時(shí)間,在數(shù)學(xué)基礎(chǔ)上打撈,對(duì)常用的機(jī)器學(xué)習(xí)算法和深度學(xué)習(xí)算法都有所掌握。對(duì)于開(kāi)源的tensorflow、caffee等代表性平臺(tái)和框架,要勇于嘗試,在未來(lái)的筆試和面試中一定會(huì)脫穎而出的。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    人工智能-Python深度學(xué)習(xí)進(jìn)階與應(yīng)用技術(shù):工程師高培解讀

    深度學(xué)習(xí)工程化落地,早已不是紙上談兵的事。從卷積神經(jīng)網(wǎng)絡(luò)到Transformer,從目標(biāo)檢測(cè)到大模型私有化部署,技術(shù)棧不斷延伸,工程師面臨的知識(shí)體系也越來(lái)越龐雜?,F(xiàn)根據(jù)中際賽威工程師
    的頭像 發(fā)表于 04-21 11:01 ?402次閱讀
    人工智能-Python深度<b class='flag-5'>學(xué)習(xí)</b>進(jìn)階與應(yīng)用技術(shù):<b class='flag-5'>工程師</b>高培解讀

    硬件工程師甩鍋排行榜 #電子 #電子工程師 #硬件工程師 #甩鍋的各種理由 #揚(yáng)興科技

    硬件工程師
    揚(yáng)興科技
    發(fā)布于 :2026年03月06日 18:30:55

    算法工程師需要具備哪些技能?

    算法工程師需要掌握一系列跨學(xué)科的技能,涵蓋數(shù)學(xué)基礎(chǔ)、編程能力、算法理論、工程實(shí)踐以及業(yè)務(wù)理解等多個(gè)方面。 以下是具體技能及學(xué)習(xí)建議: 線性代
    發(fā)表于 02-27 10:53

    什么是BSP工程師

    上述前兩個(gè)階段屬于BSP開(kāi)發(fā)的內(nèi)容,第三個(gè)階段屬于嵌入式應(yīng)用軟件開(kāi)發(fā)的過(guò)程。綜上所述,BSP工程師主要應(yīng)該具備的**要有: 掌握計(jì)算機(jī)原理方面的知識(shí); 掌握操作系統(tǒng)的相關(guān)知識(shí),深入研究某種操作系統(tǒng)
    發(fā)表于 01-13 06:54

    如何深度學(xué)習(xí)機(jī)器視覺(jué)的應(yīng)用場(chǎng)景

    深度學(xué)習(xí)視覺(jué)應(yīng)用場(chǎng)景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測(cè):處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)化缺陷模式 非標(biāo)產(chǎn)品分類(lèi):對(duì)形狀、顏色、紋理多變的產(chǎn)品進(jìn)行智能分類(lèi) 外觀質(zhì)量評(píng)估:基于學(xué)習(xí)的外觀質(zhì)量標(biāo)準(zhǔn)判定 精密
    的頭像 發(fā)表于 11-27 10:19 ?359次閱讀

    硬件工程師如何提高電路設(shè)計(jì)的可靠性?

    聊一聊我從業(yè)硬件工程師至今的一些小的感悟,這些小感悟?qū)τ谝恍┙?jīng)驗(yàn)老道的工程師來(lái)說(shuō)應(yīng)該是比較有體會(huì),希望能夠?qū)δ墓ぷ饕约?b class='flag-5'>學(xué)習(xí)提供一些幫助。
    的頭像 發(fā)表于 11-11 07:36 ?3350次閱讀
    硬件<b class='flag-5'>工程師</b>如何提高電路設(shè)計(jì)的可靠性?

    電子發(fā)燒友工程師看!電子領(lǐng)域評(píng)職稱,技術(shù)之路更扎實(shí)

    設(shè)計(jì)進(jìn)階課程”)、產(chǎn)出技術(shù)成果(如在論壇發(fā)布技術(shù)博文、分享創(chuàng)新電路方案)。這個(gè)過(guò)程就像給零散的技術(shù)點(diǎn) “串線成網(wǎng)”,比如原本擅長(zhǎng)單一領(lǐng)域的工程師,為評(píng)職稱會(huì)主動(dòng)學(xué)習(xí)跨領(lǐng)域技術(shù)(如嵌入式 + AI 算法
    發(fā)表于 08-20 13:53

    儀表放大器應(yīng)用工程師指南

    儀表放大器應(yīng)用工程師指南第二版,非常不錯(cuò)的資料,供需要的壇友參考學(xué)習(xí)
    發(fā)表于 07-10 22:21

    電子硬件工程師如何從零開(kāi)始學(xué)習(xí)?(文末免費(fèi)分享從零開(kāi)始學(xué)習(xí)資料)

    經(jīng)常有用戶咨詢,如何學(xué)習(xí)和提升電子硬件能力,有沒(méi)有適合小白學(xué)習(xí)的資料等等;電子硬件工程師是一個(gè)結(jié)合理論、實(shí)踐和創(chuàng)新能力的職業(yè),需要掌握電路設(shè)計(jì)、元器件選型、PCB設(shè)計(jì)、嵌入式系統(tǒng)、測(cè)試調(diào)試等多方面
    的頭像 發(fā)表于 06-04 07:36 ?2812次閱讀
    電子硬件<b class='flag-5'>工程師</b>如何從零開(kāi)始<b class='flag-5'>學(xué)習(xí)</b>?(文末免費(fèi)分享從零開(kāi)始<b class='flag-5'>學(xué)習(xí)</b>資料)
    太和县| 仲巴县| 德昌县| 西宁市| 措美县| 郸城县| 五寨县| 炎陵县| 杂多县| 周口市| 青田县| 界首市| 凤台县| 云南省| 区。| 尼木县| 涞水县| 镇宁| 灵山县| 英德市| 镇江市| 文化| 罗江县| 资源县| 乌兰浩特市| 七台河市| 大宁县| 西峡县| 马龙县| 南郑县| 正定县| 耒阳市| 田阳县| 台南县| 铜山县| 辽源市| 通海县| 万载县| 休宁县| 扎鲁特旗| 武川县|