日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

你了解人工智能?機器學習?深度學習?真的了解了?

人工智能實訓營 ? 2018-07-26 15:37 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群


有三個詞,這兩年出現(xiàn)的頻率越來越高:人工智能AI),機器學習(ML),深度學習(DL),到底他們哥仨是什么關系?今天小編化繁為簡,用幾張圖帶你迅速看明白。關系如圖,從提出概念的時間上來看也很清楚:

人工智能AI模擬人腦,辨認哪個是蘋果,哪個是橙子。

機器學習ML:根據(jù)特征在水果攤買橙子,隨著見過的橙子和其他水果越來越多,辨別橙子的能力越來越強,不會再把香蕉當橙子。

機器學習強調(diào)“學習”而不是程序本身,通過復雜的算法來分析大量的數(shù)據(jù),識別數(shù)據(jù)中的模式,并做出一個預測--不需要特定的代碼。在樣本的數(shù)量不斷增加的同時,自我糾正完善“學習目的”,可以從自身的錯誤中學習,提高識別能力。

深度學習DL:超市里有3種蘋果和5種橙子,通過數(shù)據(jù)分析比對,把超市里的品種和數(shù)據(jù)建立聯(lián)系,通過水果的顏色、形狀、大小、成熟時間和產(chǎn)地等信息,分辨普通橙子和血橙,從而選擇購買用戶需要的橙子品種。

1、機器學習簡史

哲學上的三大終極問題:是誰?從哪來?到哪去?用在任何地方都是有意義的。

——尼古拉斯·沃布吉·道格拉斯·碩德

雖然人工智能并不是最近幾年才興起的,但在它一直作為科幻元素出現(xiàn)在大眾視野中。自從AlphaGo戰(zhàn)勝李世石之后,人工智能突然間成了坊間談資,仿佛人類已經(jīng)造出了超越人類智慧的機器。而人工智能的核心技術機器學習及其子領域深度學習一時間成了人們的掌上明珠。面對這個從天而降的“怪物”,樂觀者有之,悲觀者亦有之。但追溯歷史,我們會發(fā)現(xiàn)機器學習的技術爆發(fā)有其歷史必然性,屬于技術發(fā)展的必然產(chǎn)物。而理清機器學習的發(fā)展脈絡有助于我們整體把握機器學習,或者人工智能的技術框架,有助于從“道”的層面理解這一技術領域。這一節(jié)就先從三大究極哲學問題中的后兩個——從哪來、到哪去入手,整體把握機器學習,而后再從“術”的角度深入學習,解決是誰的問題。(本來想加個縱時間軸,無奈查了半天沒找到方法,如果有人知道,求分享)



圖一 機器學習發(fā)展史(圖片來源:Brief History of Machine Learning)


1.1 誕生并奠定基礎時期

1949, Hebb, Hebbian Learning theory

赫布于1949年基于神經(jīng)心理的提出了一種學習方式,該方法被稱之為赫布學習理論。大致描述為:

假設反射活動的持續(xù)性或反復性會導致細胞的持續(xù)性變化并增加其穩(wěn)定性,當一個神經(jīng)元A能持續(xù)或反復激發(fā)神經(jīng)元B時,其中一個或兩個神經(jīng)元的生長或代謝過程都會變化。

Let us assume that the persistence or repetition of a reverberatory activity (or “trace”) tends to induce lasting cellular changes that add to its stability.… When an axon of cell A is near enough to excite a cell B and repeatedly or persistently takes part in firing it, some growth process or metabolic change takes place in one or both cells such that A’s efficiency, as one of the cells firing B, is increased

從人工神經(jīng)元或人工神經(jīng)網(wǎng)絡角度來看,該學習理論簡單地解釋了循環(huán)神經(jīng)網(wǎng)絡(RNN)中結點之間的相關性關系(權重),即:當兩個節(jié)點同時發(fā)生變化(無論是positive還是negative),那么節(jié)點之間有很強的正相關性(positive weight);如果兩者變化相反,那么說明有負相關性(negative weight)。

1950, Alan Turing, The Turing test

圖二 圖靈測試(圖片來源:維基百科)

1950年,阿蘭·圖靈創(chuàng)造了圖靈測試來判定計算機是否智能。圖靈測試認為,如果一臺機器能夠與人類展開對話(通過電傳設備)而不能被辨別出其機器身份,那么稱這臺機器具有智能。這一簡化使得圖靈能夠令人信服地說明“思考的機器”是可能的。

2014年6月8日,一個叫做尤金·古斯特曼的聊天機器人成功讓人類相信它是一個13歲的男孩,成為有史以來首臺通過圖靈測試的計算機。這被認為是人工智能發(fā)展的一個里程碑事件。

1952, Arthur Samuel, “Machine Learning”

圖三 塞繆爾(圖片來源:Brief History of Machine Learning)

1952,IBM科學家亞瑟·塞繆爾開發(fā)了一個跳棋程序。該程序能夠通過觀察當前位置,并學習一個隱含的模型,從而為后續(xù)動作提供更好的指導。塞繆爾發(fā)現(xiàn),伴隨著該游戲程序運行時間的增加,其可以實現(xiàn)越來越好的后續(xù)指導。通過這個程序,塞繆爾駁倒了普羅維登斯提出的機器無法超越人類,像人類一樣寫代碼和學習的模式。他創(chuàng)造了“機器學習”這一術語,并將它定義為:

可以提供計算機能力而無需顯式編程的研究領域

a field of study that gives computer the ability without being explicitly programmed.

1957, Rosenblatt, Perceptron

640?wx_fmt=jpeg

圖四 感知機線性分類器(圖片來源:維基百科)

1957年,羅森·布拉特基于神經(jīng)感知科學背景提出了第二模型,非常的類似于今天的機器學習模型。這在當時是一個非常令人興奮的發(fā)現(xiàn),它比赫布的想法更適用?;谶@個模型羅森·布拉特設計出了第一個計算機神經(jīng)網(wǎng)絡——感知機(the perceptron),它模擬了人腦的運作方式。羅森·布拉特對感知機的定義如下:

感知機旨在說明一般智能系統(tǒng)的一些基本屬性,它不會因為個別特例或通常不知道的東西所束縛住,也不會因為那些個別生物有機體的情況而陷入混亂。

The perceptron is designed to illustrate some of the fundamental properties of intelligent systems in general, without becoming too deeply enmeshed in the special, and frequently unknown, conditions which hold for particular biological organisms.

3年后,維德羅首次使用Delta學習規(guī)則(即最小二乘法)用于感知器的訓練步驟,創(chuàng)造了一個良好的線性分類器。

1967年,The nearest neighbor algorithm

640?wx_fmt=jpeg

圖五 kNN算法(圖片來源:維基百科)

1967年,最近鄰算法(The nearest neighbor algorithm)出現(xiàn),使計算機可以進行簡單的模式識別。kNN算法的核心思想是如果一個樣本在特征空間中的k個最相鄰的樣本中的大多數(shù)屬于某一個類別,則該樣本也屬于這個類別,并具有這個類別上樣本的特性。這就是所謂的“少數(shù)聽從多數(shù)”原則。

1969, Minsky, XOR problem

640?wx_fmt=jpeg

640?wx_fmt=jpeg

640?wx_fmt=jpeg

640?wx_fmt=jpeg

圖六 XOR問題,數(shù)據(jù)線性不可分

1969年馬文·明斯基提出了著名的XOR問題,指出感知機在線性不可分的數(shù)據(jù)分布上是失效的。此后神經(jīng)網(wǎng)絡的研究者進入了寒冬,直到 1980 年才再一次復蘇。

1.2 停滯不前的瓶頸時期

從60年代中到70年代末,機器學習的發(fā)展步伐幾乎處于停滯狀態(tài)。無論是理論研究還是計算機硬件限制,使得整個人工智能領域的發(fā)展都遇到了很大的瓶頸。雖然這個時期溫斯頓(Winston)的結構學習系統(tǒng)和海斯·羅思(Hayes Roth)等的基于邏輯的歸納學習系統(tǒng)取得較大的進展,但只能學習單一概念,而且未能投入實際應用。而神經(jīng)網(wǎng)絡學習機因理論缺陷也未能達到預期效果而轉入低潮。

1.3 希望之光重新點亮

1981, Werbos, Multi-Layer Perceptron (MLP)

640?wx_fmt=jpeg

圖七 多層感知機(或者人工神經(jīng)網(wǎng)絡)

偉博斯在1981年的神經(jīng)網(wǎng)絡反向傳播(BP)算法中具體提出多層感知機模型。雖然BP算法早在1970年就已經(jīng)以“自動微分的反向模型(reverse mode of automatic differentiation)”為名提出來了,但直到此時才真正發(fā)揮效用,并且直到今天BP算法仍然是神經(jīng)網(wǎng)絡架構的關鍵因素。有了這些新思想,神經(jīng)網(wǎng)絡的研究又加快了。

在1985-1986年,神經(jīng)網(wǎng)絡研究人員(魯梅爾哈特,辛頓,威廉姆斯-赫,尼爾森)相繼提出了使用BP算法訓練的多參數(shù)線性規(guī)劃(MLP)的理念,成為后來深度學習的基石。

1986, Quinlan, Decision Trees

640?wx_fmt=jpeg

圖八 決策樹(圖片來源:維基百科)

在另一個譜系中,昆蘭于1986年提出了一種非常出名的機器學習算法,我們稱之為“決策樹”,更具體的說是ID3算法。這是另一個主流機器學習算法的突破點。此外ID3算法也被發(fā)布成為了一款軟件,它能以簡單的規(guī)劃和明確的推論找到更多的現(xiàn)實案例,而這一點正好和神經(jīng)網(wǎng)絡黑箱模型相反。

決策樹是一個預測模型,他代表的是對象屬性與對象值之間的一種映射關系。樹中每個節(jié)點表示某個對象,而每個分叉路徑則代表的某個可能的屬性值,而每個葉結點則對應從根節(jié)點到該葉節(jié)點所經(jīng)歷的路徑所表示的對象的值。決策樹僅有單一輸出,若欲有復數(shù)輸出,可以建立獨立的決策樹以處理不同輸出。數(shù)據(jù)挖掘中決策樹是一種經(jīng)常要用到的技術,可以用于分析數(shù)據(jù),同樣也可以用來作預測。

在ID3算法提出來以后,研究社區(qū)已經(jīng)探索了許多不同的選擇或改進(如ID4、回歸樹、CART算法等),這些算法仍然活躍在機器學習領域中。

1.4 現(xiàn)代機器學習的成型時期

1990, Schapire, Boosting

640?wx_fmt=jpeg

圖九 Boosting算法(圖片來源:百度百科)

1990年, Schapire最先構造出一種多項式級的算法,這就是最初的Boosting算法。一年后 ,Freund提出了一種效率更高的Boosting算法。但是,這兩種算法存在共同的實踐上的缺陷,那就是都要求事先知道弱學習算法學習正確的下限。

1995年,F(xiàn)reund和schapire改進了Boosting算法,提出了 AdaBoost (Adaptive Boosting)算法,該算法效率和Freund于1991年提出的 Boosting算法幾乎相同,但不需要任何關于弱學習器的先驗知識,因而更容易應用到實際問題當中。

Boosting方法是一種用來提高弱分類算法準確度的方法,這種方法通過構造一個預測函數(shù)系列,然后以一定的方式將他們組合成一個預測函數(shù)。他是一種框架算法,主要是通過對樣本集的操作獲得樣本子集,然后用弱分類算法在樣本子集上訓練生成一系列的基分類器。

1995, Vapnik and Cortes, Support Vector Machines (SVM)

640?wx_fmt=jpeg

圖十 支持向量機(圖片來源:維基百科)

支持向量機的出現(xiàn)是機器學習領域的另一大重要突破,該算法具有非常強大的理論地位和實證結果。那一段時間機器學習研究也分為NN和SVM兩派。然而,在2000年左右提出了帶核函數(shù)的支持向量機后。SVM在許多以前由NN占據(jù)的任務中獲得了更好的效果。此外,SVM相對于NN還能利用所有關于凸優(yōu)化、泛化邊際理論和核函數(shù)的深厚知識。因此SVM可以從不同的學科中大力推動理論和實踐的改進。

而神經(jīng)網(wǎng)絡遭受到又一個質(zhì)疑,通過Hochreiter等人1991年和Hochreiter等人在2001年的研究表明在應用BP算法學習時,NN神經(jīng)元飽和后會出現(xiàn)梯度損失(gradient loss)的情況。簡單地說,在一定數(shù)量的epochs訓練后,NN會產(chǎn)生過擬合現(xiàn)象,因此這一時期NN與SVM相比處于劣勢。

2001, Breiman, Random Forests(RF)

決策樹模型由布雷曼博士在2001年提出,它是通過集成學習的思想將多棵樹集成的一種算法,它的基本單元是決策樹,而它的本質(zhì)屬于機器學習的一大分支——集成學習(Ensemble Learning)方法。隨機森林的名稱中有兩個關鍵詞,一個是“隨機”,一個就是“森林”?!吧帧蔽覀兒芎美斫?,一棵叫做樹,那么成百上千棵就可以叫做森林了,這樣的比喻還是很貼切的,其實這也是隨機森林的主要思想—集成思想的體現(xiàn)。

其實從直觀角度來解釋,每棵決策樹都是一個分類器(假設現(xiàn)在針對的是分類問題),那么對于一個輸入樣本,N棵樹會有N個分類結果。而隨機森林集成了所有的分類投票結果,將投票次數(shù)最多的類別指定為最終的輸出,這就是一種最簡單的 Bagging 思想。

1.5 爆發(fā)時期

2006, Hinton, Deep Learning

在機器學習發(fā)展分為兩個部分,淺層學習(Shallow Learning)和深度學習(Deep Learning)。淺層學習起源上世紀20年代人工神經(jīng)網(wǎng)絡的反向傳播算法的發(fā)明,使得基于統(tǒng)計的機器學習算法大行其道,雖然這時候的人工神經(jīng)網(wǎng)絡算法也被稱為多層感知機,但由于多層網(wǎng)絡訓練困難,通常都是只有一層隱含層的淺層模型。

神經(jīng)網(wǎng)絡研究領域領軍者Hinton在2006年提出了神經(jīng)網(wǎng)絡Deep Learning算法,使神經(jīng)網(wǎng)絡的能力大大提高,向支持向量機發(fā)出挑戰(zhàn)。 2006年,機器學習領域的泰斗Hinton和他的學生Salakhutdinov在頂尖學術刊物《Scince》上發(fā)表了一篇文章,開啟了深度學習在學術界和工業(yè)界的浪潮。

這篇文章有兩個主要的訊息:1)很多隱層的人工神經(jīng)網(wǎng)絡具有優(yōu)異的特征學習能力,學習得到的特征對數(shù)據(jù)有更本質(zhì)的刻劃,從而有利于可視化或分類;2)深度神經(jīng)網(wǎng)絡在訓練上的難度,可以通過“逐層初始化”( layer-wise pre-training)來有效克服,在這篇文章中,逐層初始化是通過無監(jiān)督學習實現(xiàn)的。

2015年,為紀念人工智能概念提出60周年,LeCun、Bengio和Hinton推出了深度學習的聯(lián)合綜述。

深度學習可以讓那些擁有多個處理層的計算模型來學習具有多層次抽象的數(shù)據(jù)的表示。這些方法在許多方面都帶來了顯著的改善,包括最先進的語音識別、視覺對象識別、對象檢測和許多其它領域,例如藥物發(fā)現(xiàn)和基因組學等。深度學習能夠發(fā)現(xiàn)大數(shù)據(jù)中的復雜結構。它是利用BP算法來完成這個發(fā)現(xiàn)過程的。BP算法能夠指導機器如何從前一層獲取誤差而改變本層的內(nèi)部參數(shù),這些內(nèi)部參數(shù)可以用于計算表示。深度卷積網(wǎng)絡在處理圖像、視頻、語音和音頻方面帶來了突破,而遞歸網(wǎng)絡在處理序列數(shù)據(jù),比如文本和語音方面表現(xiàn)出了閃亮的一面。

當前統(tǒng)計學習領域最熱門方法主要有deep learning和SVM(supportvector machine),它們是統(tǒng)計學習的代表方法??梢哉J為神經(jīng)網(wǎng)絡與支持向量機都源自于感知機。

神經(jīng)網(wǎng)絡與支持向量機一直處于“競爭”關系。SVM應用核函數(shù)的展開定理,無需知道非線性映射的顯式表達式;由于是在高維特征空間中建立線性學習機,所以與線性模型相比,不但幾乎不增加計算的復雜性,而且在某種程度上避免了“維數(shù)災難”。而早先的神經(jīng)網(wǎng)絡算法比較容易過訓練,大量的經(jīng)驗參數(shù)需要設置;訓練速度比較慢,在層次比較少(小于等于3)的情況下效果并不比其它方法更優(yōu)。

神經(jīng)網(wǎng)絡模型貌似能夠?qū)崿F(xiàn)更加艱難的任務,如目標識別、語音識別、自然語言處理等。但是,應該注意的是,這絕對不意味著其他機器學習方法的終結。盡管深度學習的成功案例迅速增長,但是對這些模型的訓練成本是相當高的,調(diào)整外部參數(shù)也是很麻煩。同時,SVM的簡單性促使其仍然最為廣泛使用的機器學習方式。

1.6 啟示與未來的發(fā)展

人工智能機器學習是誕生于20世紀中葉的一門年輕的學科,它對人類的生產(chǎn)、生活方式產(chǎn)生了重大的影響,也引發(fā)了激烈的哲學爭論。但總的來說,機器學習的發(fā)展與其他一般事物的發(fā)展并無太大區(qū)別,同樣可以用哲學的發(fā)展的眼光來看待。

機器學習的發(fā)展并不是一帆風順的,也經(jīng)歷了螺旋式上升的過程,成就與坎坷并存。其中大量的研究學者的成果才有了今天人工智能的空前繁榮,是量變到質(zhì)變的過程,也是內(nèi)因和外因的共同結果。

機器學習的發(fā)展詮釋了多學科交叉的重要性和必要性。然而這種交叉不是簡單地彼此知道幾個名詞或概念就可以的,是需要真正的融會貫通:

  • 統(tǒng)計學家弗萊德曼早期從事物理學研究,他是優(yōu)化算法大師,而且他的編程能力同樣令人贊嘆;

  • 喬丹教授既是一流的計算機學家,又是一流的統(tǒng)計學家,而他的博士專業(yè)為心理學,他能夠承擔起建立統(tǒng)計機器學習的重任;

  • 辛頓教授是世界最著名的認知心理學家和計算機科學家。雖然他很早就成就斐然,在學術界聲名鵲起,但他依然始終活躍在一線,自己寫代碼。他提出的許多想法簡單、可行又非常有效,被稱為偉大的思想家。正是由于他的睿智和身體力行,深度學習技術迎來了革命性的突破。

深度學習的成功不是源自腦科學或認知科學的進展,而是因為大數(shù)據(jù)的驅(qū)動和計算能力的極大提升。可以說機器學習是由學術界、工業(yè)界、創(chuàng)業(yè)界(或競賽界)等合力造就的。學術界是引擎,工業(yè)界是驅(qū)動,創(chuàng)業(yè)界是活力和未來。學術界和工業(yè)界應該有各自的職責和分工。學術界的職責在于建立和發(fā)展機器學習學科,培養(yǎng)機器學習領域的專門人才;而大項目、大工程更應該由市場來驅(qū)動,由工業(yè)界來實施和完成。

對于機器學習的發(fā)展前途,中科院數(shù)學與系統(tǒng)科學研究院陸汝鈴老師在為南京大學周志華老師的《機器學習》一書作序時提出了六大問題,我覺得這些問題也許正是影響機器學習未來發(fā)展方向的基本問題,因此我摘錄其中五個在此(有兩個問題屬于同一個主題,合并之):

  • 問題一:在人工智能發(fā)展早期,機器學習的技術內(nèi)涵幾乎全部是符號學習,可是從二十世紀九十年代開始,統(tǒng)計機器學習有一匹黑馬橫空出世,迅速壓倒并取代了符號學習的地位。人們可能會問,符號學習是否被徹底忽略了?他還能成為機器學習的研究對象嗎?它是否能繼續(xù)在統(tǒng)計學習的陰影里茍延殘喘?

第一種觀點:退出歷史舞臺——沒有人抱有這種想法。

第二種觀點:統(tǒng)計學習和符號學習結合起來——王玨教授認為,現(xiàn)在機器學習已經(jīng)到了一個轉折點,統(tǒng)計學習要想進入一個更高級的形式,就應該和知識相結合,否則就會停留于現(xiàn)狀而止步不前。

第三種觀點:符號學習還有翻身之日——Chandrasekaran教授認為機器學習并不會回到“河西”,而是隨著技術的進步逐漸轉向基本的認知科學。

  • 問題二:統(tǒng)計機器學習的算法都是基于樣本數(shù)據(jù)獨立同分布的假設,但自然界現(xiàn)象千變?nèi)f化,哪里有那么多獨立同分布?那么“獨立同分布”條件對于機器學習來說是必需的嗎?獨立同分布的不存在一定是不可逾越的障礙嗎?

遷移學習也許會給問題的解決帶來一絲曙光?

  • 問題三:近年來出現(xiàn)了一些新的動向,比如深度學習。但他們真的代表機器學習新的方向嗎?

包括周志華老師在內(nèi)的一些學者認為深度學習掀起的熱潮大過它本身的貢獻,在理論和技術上并沒有太多的創(chuàng)新,只不過硬件技術的革命使得人們能采用原來復雜度很高的算法,從而得到更精細的結果。

  • 問題四:機器學習研究出現(xiàn)以來,我們看到的主要是從符號方法到統(tǒng)計方法的演變,用到的數(shù)學主要是概率統(tǒng)計。但是今天數(shù)學之大,就像大海,難道只有統(tǒng)計方法適合于在機器學習方面的應用?

目前流行學習已經(jīng)“有點意思了”,但數(shù)學理論的介入程度遠遠不夠,有待更多數(shù)學家參與,開辟新的模式、理論和方法。

  • 問題五:大數(shù)據(jù)時代的出現(xiàn),有沒有給機器學習帶來本質(zhì)性的影響?

大數(shù)據(jù)時代給機器學習帶來了前所未有的機遇,但是同樣的統(tǒng)計、采樣方法相較以前有什么本質(zhì)不同嗎?又從量變過渡到質(zhì)變嗎?數(shù)理統(tǒng)計方法有沒有發(fā)生質(zhì)的變化?大數(shù)據(jù)時代正在呼吁什么樣的機器學習方法?哪些方法又是大數(shù)據(jù)研究的驅(qū)動而產(chǎn)生的呢?

2、機器學習基本概念

權威定義:

Arthur samuel: 在不直接針對問題進行編程的情況下,賦予計算機學習能力的一個研究領域。

Tom Mitchell: 對于某類任務T和性能度量P,如果計算機程序在T上以P衡量的性能隨著經(jīng)驗E而自我完善,那么就稱這個計算機程序從經(jīng)驗E學習。

其實隨著學習的深入,慢慢會發(fā)現(xiàn)機器學習越來越難定義,因為涉及到的領域很廣,應用也很廣,現(xiàn)在基本成為計算機相關專業(yè)的標配,但是在實際的操作過程中,又慢慢會發(fā)現(xiàn)其實機器學習也是很簡單的一件事,我們最的大部分事情其實就是兩件事情,一個是分類,一個是回歸。比如房價的預測、股價的預測等是回歸問題,情感判別、信用卡是否發(fā)放等則是屬于分類?,F(xiàn)實的情況 一般是給我們一堆數(shù)據(jù),我們根據(jù)專業(yè)知識和一些經(jīng)驗提取最能表達數(shù)據(jù)的特征,然后我們再用算法去建模,等有未知數(shù)據(jù)過來的時候我們就能夠預測到這個是屬于哪個類別或者說預測到是一個什么值以便作出下一步的決策。比如說人臉識別系統(tǒng),目的是作為一個驗證系統(tǒng),可能是一個權限管理,如果是系統(tǒng)中的人則有權限否則沒有權限,首先給到我們的數(shù)據(jù)是一堆人臉的照片,第一步要做的事情是對數(shù)據(jù)進行預處理,然后是提取人臉特征,最后選擇算法比如說SVM或者RF等等,算法的最終選擇設計到評價標準,這個后面具體講,這樣我們就建立了一個人臉識別的模型,當系統(tǒng)輸入一張人臉,我們就能夠知道他是不是在系統(tǒng)之中。機器學習的整個流程不過就這幾步,最后不過就是參數(shù)尋優(yōu),包括現(xiàn)在如火如荼的機器學習。

當我們判斷是否要使機器學習時,可以看看是不是以下的場景

  1. 人類不能手動編程;

  2. 人類不能很好的定義這個問題的解決方案是什么;

  3. 人類不能做i到的需要極度快速決策的系統(tǒng);

  4. 大規(guī)模個性化服務系統(tǒng);

3、機器學習分類

3.1、監(jiān)督式學習 Supervised Learning

在監(jiān)督式學習下,每組訓練數(shù)據(jù)都有一個標識值或結果值,如客戶流失對應1,不流失對應0。在建立預測模型的時候,監(jiān)督式學習建立一個學習過程,將預測的結果與訓練數(shù)據(jù)的實際結果進行比較,不斷的調(diào)整預測模型,直到模型的預測結果達到一個預期的準確率。

分類 Classification

  1. K最近鄰 K-Nearest Neighbor (KNN)

  2. 樸素貝葉斯 Naive Bayes

  3. 決策樹 Decision Tree:C4.5、分類回歸樹 Classification And Regression Tree (CART)

  4. 支持向量機器 Support Vector Machine (SVM)

回歸 Regression

  1. 線性回歸 linear regression

  2. 局部加權回歸 Locally weighted regression

  3. 邏輯回歸 logistic Regression

  4. 逐步回歸 stepwise regression

  5. 多元自適應回歸樣條法 multivariate adaptive regression splines

  6. 局部散點平滑估計 Locally estimated scatter plot smoothing ( LOESS )

  7. 嶺回歸 Ridge Regression

  8. Least Absolute Shrinkage and Selection Operator ( LASSO )

  9. 彈性網(wǎng)絡 Elastic Net

  10. 多項式回歸 Polynomial Regression

排序 Rank

  1. 單文檔分類 Pointwise:McRank

  2. 文檔對方法(Pairwise):Ranking SVM、RankNet、Frank、RankBoost

  3. 文檔列表方法(Listwise):AdaRank、SoftRank、LambdaMART

匹配學習

  1. 人工神經(jīng)網(wǎng)絡:感知神經(jīng)網(wǎng)絡 Perception Neural Network、反向傳遞 Back Propagation、Hopfield網(wǎng)絡、自組織映射 Self-Organizing Map ( SOM )、學習矢量量化 Learning Vector Quantization ( LVQ )

3.2 半監(jiān)督學習

在半監(jiān)督學習方式下,訓練數(shù)據(jù)有部分被標識,部分沒有被標識,這種模型首先需要學習數(shù)據(jù)的內(nèi)在結構,以便合理的組織數(shù)據(jù)來進行預測。算法上,包括一些對常用監(jiān)督式學習算法的延伸,這些算法首先試圖對未標識數(shù)據(jù)進行建模,在此基礎上再對標識的數(shù)據(jù)進行預測。如深度學習:

深度學習 Deep Learning

深度學習是 監(jiān)督學習的匹配學習中人工神經(jīng)網(wǎng)絡延伸出來發(fā)展出來的。

  1. 受限波爾茲曼機 Restricted Boltzmann Machine ( RBM )

  2. 深度信念網(wǎng)絡 Deep Belief Networks ( DBN )

  3. 卷積網(wǎng)絡 Convolutional Network

  4. 棧式自編碼 Stacked Auto-encoders

3.3 無監(jiān)督學習 Unsupervised Learning

在非監(jiān)督式學習中,數(shù)據(jù)并不被特別標識,學習模型是為了推斷出數(shù)據(jù)的一些內(nèi)在結構。

聚類 Cluster

  1. K均值 k-means

  2. 最大期望算法 Expectation Maximization ( EM )

  3. 降維方法 Dimensionality Reduction:主成分分析Principal Component Analysis ( PCA )、偏最小二乘回歸 Partial Least Squares Regression ( PLS )、Sammon映射 Sammon Mapping、多維尺度分析 Multidimensional Scaling ( MDS )、投影尋蹤 Projection Pursuit、RD

關聯(lián)規(guī)則 Association Rule

  1. Apriori

  2. Eclat

3.4 增強學習 Reinforcement Learning

在之前的討論中,我們總是給定一個樣本x,然后給或者不給標識值或結果值(給了就是監(jiān)督式學習,不給就是無監(jiān)督式學習)。之后對樣本進行擬合、分類、聚類或者降維等操作。然而對于很多序列決策或者控制問題,很難有這么規(guī)則的樣本。比如,四足機器人的控制問題,剛開始都不知道應該讓其動那條腿,在移動過程中,也不知道怎么讓機器人自動找到合適的前進方向。

增強學習要解決的是這樣的問題:一個能感知環(huán)境的自治agent,怎樣通過學習選擇能達到其目標的最優(yōu)動作。這個很具有普遍性的問題應用于學習控制移動機器人,在工廠中學習最優(yōu)操作工序以及學習棋類對弈等。當agent在其環(huán)境中做出每個動作時,施教者會提供獎勵或懲罰信息,以表示結果狀態(tài)的正確與否。例如,在訓練agent進行棋類對弈時,施教者可在游戲勝利時給出正回報,而在游戲失敗時給出負回報,其他時候為零回報。agent的任務就是從這個非直接的,有延遲的回報中學習,以便后續(xù)的動作產(chǎn)生最大的累積效應。

  1. Q-Learning

  2. 時間差學習 Temporal difference learning

3.5 其他

集成算法

集成算法用一些相對較弱的學習模型獨立地就同樣的樣本進行訓練,然后把結果整合起來進行整體預測。

  1. Boosting

  2. Bootstrapped Aggregation ( Bagging )

  3. AdaBoost

  4. 堆疊泛化 Stacked Generalization

  5. 梯度推進機 Gradient Boosting Machine ( GBM )

  6. 隨機森林 Random Forest




聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關注

    關注

    1821

    文章

    50385

    瀏覽量

    267109
  • 機器學習
    +關注

    關注

    67

    文章

    8567

    瀏覽量

    137275
  • 深度學習
    +關注

    關注

    73

    文章

    5611

    瀏覽量

    124663
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    人工智能深度學習系統(tǒng)班13期,唐宇迪,視頻全

    人工智能深度學習13期:零基礎轉行AI高薪不用走彎路 站在2026年的當下,人工智能的浪潮已經(jīng)徹底重塑了全球就業(yè)市場的版圖。對于程序員而言,這既是前所未有的職業(yè)危機,也是實現(xiàn)階層躍遷的
    的頭像 發(fā)表于 05-07 16:46 ?30次閱讀

    人工智能-Python深度學習進階與應用技術:工程師高培解讀

    深度學習的工程化落地,早已不是紙上談兵的事。從卷積神經(jīng)網(wǎng)絡到Transformer,從目標檢測到大模型私有化部署,技術棧不斷延伸,工程師面臨的知識體系也越來越龐雜?,F(xiàn)根據(jù)中際賽威工程師培訓老師的一份
    的頭像 發(fā)表于 04-21 11:01 ?402次閱讀
    <b class='flag-5'>人工智能</b>-Python<b class='flag-5'>深度</b><b class='flag-5'>學習</b>進階與應用技術:工程師高培解讀

    智能檢測】基于AI深度學習與飛拍技術的影像測量系統(tǒng):實現(xiàn)高效精準的全自動光學檢測與智能制造數(shù)據(jù)閉環(huán)

    內(nèi)容概要:文檔內(nèi)容介紹了中圖儀器(Chotest)影像測量儀融合人工智能深度學習與飛拍技術的自動化檢測解決方案。系統(tǒng)通過AI深度學習實現(xiàn)
    發(fā)表于 03-31 17:11

    人工智能機器學習在這些行業(yè)的深度應用

    人工智能機器學習問世以來,多個在線領域的數(shù)字化格局迎來了翻天覆地的變化。這些技術從誕生之初就為企業(yè)賦予了競爭優(yōu)勢,而在線行業(yè)正是受其影響最為顯著的領域。人工智能(AI)與
    的頭像 發(fā)表于 02-04 14:44 ?715次閱讀

    機器學習深度學習中需避免的 7 個常見錯誤與局限性

    無論是剛入門還是已經(jīng)從事人工智能模型相關工作一段時間,機器學習深度學習中都存在一些我們需要時
    的頭像 發(fā)表于 01-07 15:37 ?370次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學習</b>和<b class='flag-5'>深度</b><b class='flag-5'>學習</b>中需避免的 7 個常見錯誤與局限性

    穿孔機頂頭檢測儀 機器視覺深度學習

    頂頭狀態(tài)。 檢測頂頭算法 引入人工深度學習技術,通過Keras實現(xiàn)卷積神經(jīng)網(wǎng)絡(CNN),用Numpy實現(xiàn)采集數(shù)據(jù)的訓練,得到符合現(xiàn)場需求的模型,進一步提升檢測的準確性和現(xiàn)場的適應性。 應用范圍
    發(fā)表于 12-22 14:33

    如何深度學習機器視覺的應用場景

    深度學習視覺應用場景大全 工業(yè)制造領域 復雜缺陷檢測:處理傳統(tǒng)算法難以描述的非標準化缺陷模式 非標產(chǎn)品分類:對形狀、顏色、紋理多變的產(chǎn)品進行智能分類 外觀質(zhì)量評估:基于學習的外觀質(zhì)量標
    的頭像 發(fā)表于 11-27 10:19 ?359次閱讀

    如何在機器視覺中部署深度學習神經(jīng)網(wǎng)絡

    圖 1:基于深度學習的目標檢測可定位已訓練的目標類別,并通過矩形框(邊界框)對其進行標識。 在討論人工智能(AI)或深度學習時,經(jīng)常會出現(xiàn)“
    的頭像 發(fā)表于 09-10 17:38 ?1081次閱讀
    如何在<b class='flag-5'>機器</b>視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學習</b>神經(jīng)網(wǎng)絡

    深度學習對工業(yè)物聯(lián)網(wǎng)有哪些幫助

    深度學習作為人工智能的核心分支,通過模擬人腦神經(jīng)網(wǎng)絡的層級結構,能夠自動從海量工業(yè)數(shù)據(jù)中提取復雜特征,為工業(yè)物聯(lián)網(wǎng)(IIoT)提供了從數(shù)據(jù)感知到智能決策的全鏈路升級能力。以下從技術賦能、場景突破
    的頭像 發(fā)表于 08-20 14:56 ?1257次閱讀

    挖到寶了!人工智能綜合實驗箱,高校新工科的寶藏神器

    應用場景。從數(shù)據(jù)采集,到模型推理,都能完整且自如地參與,輕松解鎖人工智能全流程實訓,讓深度體驗AI技術的魅力 。 四、九門課程全覆蓋,滿足多元學習需求 對于高校教學或者技術
    發(fā)表于 08-07 14:30

    挖到寶了!比鄰星人工智能綜合實驗箱,高校新工科的寶藏神器!

    應用場景。從數(shù)據(jù)采集,到模型推理,都能完整且自如地參與,輕松解鎖人工智能全流程實訓,讓深度體驗AI技術的魅力 。 四、九門課程全覆蓋,滿足多元學習需求 對于高校教學或者技術
    發(fā)表于 08-07 14:23

    超小型Neuton機器學習模型, 在任何系統(tǒng)級芯片(SoC)上解鎖邊緣人工智能應用.

    Neuton 是一家邊緣AI 公司,致力于讓機器 學習模型更易于使用。它創(chuàng)建的模型比競爭對手的框架小10 倍,速度也快10 倍,甚至可以在最先進的邊緣設備上進行人工智能處理。在這篇博文中,我們將介紹
    發(fā)表于 07-31 11:38

    人工智能在汽車行業(yè)中的應用

    ?人工智能(AI)是許多行業(yè)和應用領域的熱門話題。但對于汽車行業(yè)而言,這并非一個新概念。人工智能,尤其是機器學習——即通過數(shù)據(jù)讓機器
    的頭像 發(fā)表于 07-31 11:07 ?2220次閱讀

    FPGA在機器學習中的具體應用

    隨著機器學習人工智能技術的迅猛發(fā)展,傳統(tǒng)的中央處理單元(CPU)和圖形處理單元(GPU)已經(jīng)無法滿足高效處理大規(guī)模數(shù)據(jù)和復雜模型的需求。FPGA(現(xiàn)場可編程門陣列)作為一種靈活且高效的硬件加速平臺
    的頭像 發(fā)表于 07-16 15:34 ?3127次閱讀

    最新人工智能硬件培訓AI 基礎入門學習課程參考2025版(大模型篇)

    人工智能大模型重塑教育與社會發(fā)展的當下,無論是探索未來職業(yè)方向,還是更新技術儲備,掌握大模型知識都已成為新時代的必修課。從職場上輔助工作的智能助手,到課堂用于學術研究的智能工具,大模型正在工作生活
    發(fā)表于 07-04 11:10
    阿城市| 赤峰市| 图木舒克市| 曲松县| 肇源县| 论坛| 商河县| 潜山县| 惠来县| 奉化市| 惠东县| 萨迦县| 内黄县| 桐乡市| 厦门市| 临泽县| 潍坊市| 林周县| 贵港市| 岢岚县| 资兴市| 景泰县| 曲阜市| 德保县| 武川县| 乌拉特后旗| 安达市| 新乡市| 河间市| 商洛市| 湛江市| 容城县| 苍南县| 兴安盟| 澜沧| 十堰市| 红桥区| 安陆市| 阿尔山市| 义乌市| 额尔古纳市|