Z1,所以綠色的超平面比較好" />

日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深入地解析機(jī)器學(xué)習(xí)常用算法

8g3K_AI_Thinker ? 來源:未知 ? 作者:李倩 ? 2018-07-20 16:19 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

寫這篇文章的目的,是對ML的常用算法有個常識性的認(rèn)識,沒有代碼,沒有復(fù)雜的理論推導(dǎo),就是圖解一下,知道這些算法是什么,它們是怎么應(yīng)用的,例子主要是分類問題。

每個算法都找了好幾個視頻,挑出講的最清晰明了有趣的,便于科普。以后有時間再對單個算法做深入地解析。

今天的算法解析如下:

決策樹

隨機(jī)森林算法

邏輯回歸

SVM

樸素貝葉斯

K最近鄰算法

K均值算法

Adaboost 算法

神經(jīng)網(wǎng)絡(luò)

馬爾可夫

▌1. 決策樹

根據(jù)一些 feature 進(jìn)行分類,每個節(jié)點提一個問題,通過判斷,將數(shù)據(jù)分為兩類,再繼續(xù)提問。這些問題是根據(jù)已有數(shù)據(jù)學(xué)習(xí)出來的,再投入新數(shù)據(jù)的時候,就可以根據(jù)這棵樹上的問題,將數(shù)據(jù)劃分到合適的葉子上。

▌2. 隨機(jī)森林

視頻:

https://www.youtube.com/watch?v=loNcrMjYh64

在源數(shù)據(jù)中隨機(jī)選取數(shù)據(jù),組成幾個子集

S 矩陣是源數(shù)據(jù),有 1-N 條數(shù)據(jù),A B C 是feature,最后一列C是類別

由 S 隨機(jī)生成 M 個子矩陣

這 M 個子集得到 M 個決策樹

將新數(shù)據(jù)投入到這 M 個樹中,得到 M 個分類結(jié)果,計數(shù)看預(yù)測成哪一類的數(shù)目最多,就將此類別作為最后的預(yù)測結(jié)果

▌3. 邏輯回歸

視頻:

https://www.youtube.com/watch?v=gNhogKJ_q7U

當(dāng)預(yù)測目標(biāo)是概率這樣的,值域需要滿足大于等于0,小于等于1的,這個時候單純的線性模型是做不到的,因為在定義域不在某個范圍之內(nèi)時,值域也超出了規(guī)定區(qū)間。

所以此時需要這樣的形狀的模型會比較好

那么怎么得到這樣的模型呢?

這個模型需要滿足兩個條件 大于等于0,小于等于1

大于等于0 的模型可以選擇 絕對值,平方值,這里用 指數(shù)函數(shù),一定大于0小于等于1 用除法,分子是自己,分母是自身加上1,那一定是小于1的了。

再做一下變形,就得到了 logistic regression 模型

通過源數(shù)據(jù)計算可以得到相應(yīng)的系數(shù)了

最后得到 logistic 的圖形

▌4. SVM(support vector machine)

視頻:

https://www.youtube.com/watch?v=1NxnPkZM9bc

要將兩類分開,想要得到一個超平面,最優(yōu)的超平面是到兩類的 margin 達(dá)到最大,margin就是超平面與離它最近一點的距離,如下圖,Z2>Z1,所以綠色的超平面比較好

將這個超平面表示成一個線性方程

點到面的距離根據(jù)圖中的公式計算

所以得到 total margin 的表達(dá)式如下,目標(biāo)是最大化這個 margin,就需要最小化分母

于是變成了一個優(yōu)化問題:

舉個栗子,三個點,找到最優(yōu)的超平面,定義了 weight vector=(2,3)-(1,1)

得到 weight vector 為(a,2a),將兩個點代入方程,代入(2,3)另其值=1,代入(1,1)另其值=-1,求解出 a 和 截矩 w0 的值,進(jìn)而得到超平面的表達(dá)式。

a 求出來后,代入(a,2a)得到的就是 support vector

a 和 w0 代入超平面的方程就是 support vector machine

▌5. 樸素貝葉斯

視頻:

https://www.youtube.com/watch?v=TpjPzKODuXo

舉個在 NLP 的應(yīng)用

給一段文字,返回情感分類,這段文字的態(tài)度是positive,還是negative

為了解決這個問題,可以只看其中的一些單詞

這段文字,將僅由一些單詞和它們的計數(shù)代表

原始問題是:給你一句話,它屬于哪一類通過 bayes rules 變成一個比較簡單容易求得的問題

問題變成,這一類中這句話出現(xiàn)的概率是多少,當(dāng)然,別忘了公式里的另外兩個概率

栗子:單詞 love 在 positive 的情況下出現(xiàn)的概率是 0.1,在 negative 的情況下出現(xiàn)的概率是 0.001

▌6. K最近鄰(k nearest neighbours)

視頻:

https://www.youtube.com/watch?v=zHbxbb2ye3E

給一個新的數(shù)據(jù)時,離它最近的 k 個點中,哪個類別多,這個數(shù)據(jù)就屬于哪一類。

栗子:要區(qū)分 貓 和 狗,通過 claws 和 sound 兩個feature來判斷的話,圓形和三角形是已知分類的了,那么這個 star 代表的是哪一類呢

k=3時,這三條線鏈接的點就是最近的三個點,那么圓形多一些,所以這個star就是屬于貓

▌7. K均值

視頻:

https://www.youtube.com/watch?v=zHbxbb2ye3E

想要將一組數(shù)據(jù),分為三類,粉色數(shù)值大,黃色數(shù)值小

最開心先初始化,這里面選了最簡單的 3,2,1 作為各類的初始值

剩下的數(shù)據(jù)里,每個都與三個初始值計算距離,然后歸類到離它最近的初始值所在類別

分好類后,計算每一類的平均值,作為新一輪的中心

幾輪之后,分組不再變化了,就可以停止了

▌8. Adaboost

視頻:

https://www.youtube.com/watch?v=rz9dnmHmZsY

adaboost 是 bosting 的方法之一。bosting就是把若干個分類效果并不好的分類器綜合起來考慮,會得到一個效果比較好的分類器。

下圖,左右兩個決策樹,單個看是效果不怎么好的,但是把同樣的數(shù)據(jù)投入進(jìn)去,把兩個結(jié)果加起來考慮,就會增加可信度

adaboost 的栗子,手寫識別中,在畫板上可以抓取到很多 features,例如 始點的方向,始點和終點的距離等等

training 的時候,會得到每個 feature 的 weight,例如 2 和 3 的開頭部分很像,這個 feature 對分類起到的作用很小,它的權(quán)重也就會較小

而這個 alpha 角就具有很強(qiáng)的識別性,這個 feature 的權(quán)重就會較大,最后的預(yù)測結(jié)果是綜合考慮這些 feature 的結(jié)果

▌9. 神經(jīng)網(wǎng)絡(luò)

視頻:

https://www.youtube.com/watch?v=CEv_0r5huTY&list=PLjJh1vlSEYgvGod9wWiydumYl8hOXixNu&index=3

Neural Networks 適合一個input可能落入至少兩個類別里

NN 由若干層神經(jīng)元,和它們之間的聯(lián)系組成,第一層是 input 層,最后一層是 output 層,在 hidden 層 和 output 層都有自己的 classifier

input 輸入到網(wǎng)絡(luò)中,被激活,計算的分?jǐn)?shù)被傳遞到下一層,激活后面的神經(jīng)層,最后output 層的節(jié)點上的分?jǐn)?shù)代表屬于各類的分?jǐn)?shù),下圖例子得到分類結(jié)果為 class 1

同樣的 input 被傳輸?shù)讲煌墓?jié)點上,之所以會得到不同的結(jié)果是因為各自節(jié)點有不同的weights 和 bias,這也就是 forward propagation

▌10. 馬爾可夫

視頻:

https://www.youtube.com/watch?v=56mGTszb_iM

Markov Chains 由 state 和 transitions 組成

栗子,根據(jù)這一句話 ‘the quick brown fox jumps over the lazy dog’,要得到 markov chain,步驟——先給每一個單詞設(shè)定成一個狀態(tài),然后計算狀態(tài)間轉(zhuǎn)換的概率

這是一句話計算出來的概率,當(dāng)你用大量文本去做統(tǒng)計的時候,會得到更大的狀態(tài)轉(zhuǎn)移矩陣,例如 the 后面可以連接的單詞,及相應(yīng)的概率

生活中,鍵盤輸入法的備選結(jié)果也是一樣的原理,模型會更高級

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    67

    文章

    8569

    瀏覽量

    137314
  • 決策樹
    +關(guān)注

    關(guān)注

    3

    文章

    96

    瀏覽量

    14110

原文標(biāo)題:輕松看懂機(jī)器學(xué)習(xí)常用算法

文章出處:【微信號:AI_Thinker,微信公眾號:人工智能頭條】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    機(jī)器學(xué)習(xí)常用的決策樹算法技術(shù)解析

    決策樹是最重要的機(jī)器學(xué)習(xí)算法之一,其可被用于分類和回歸問題。本文中,我們將介紹分類部分。
    發(fā)表于 10-12 16:39 ?1762次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>中<b class='flag-5'>常用</b>的決策樹<b class='flag-5'>算法</b>技術(shù)<b class='flag-5'>解析</b>

    【阿里云大學(xué)免費精品課】機(jī)器學(xué)習(xí)入門:概念原理及常用算法

    摘要: 阿里云大學(xué)聯(lián)合螞蟻金服高級算法專家推出了免費的機(jī)器學(xué)習(xí)入門課程:機(jī)器學(xué)習(xí)入門:概念原理及常用
    發(fā)表于 06-23 13:51

    常用python機(jī)器學(xué)習(xí)庫盤點

    現(xiàn)在人工智能非?;鸨?,機(jī)器學(xué)習(xí)應(yīng)該算是人工智能里面的一個子領(lǐng)域,而其中有一塊是對文本進(jìn)行分析,對數(shù)據(jù)進(jìn)行深入的挖掘提取一些特征值,然后用一些算法學(xué)
    發(fā)表于 05-10 15:20

    經(jīng)典算法大全(51個C語言算法+單片機(jī)常用算法+機(jī)器學(xué)十大算法

    試題學(xué)SPFA算法整體來說,機(jī)器學(xué)習(xí)算法可以分為 3 大類:0.1 監(jiān)督學(xué)習(xí) 工作原理:該算法
    發(fā)表于 10-23 14:31

    一文解析機(jī)器學(xué)習(xí)常用35大算法

    本文將帶你遍歷機(jī)器學(xué)習(xí)領(lǐng)域最受歡迎的算法。系統(tǒng)地了解這些算法有助于進(jìn)一步掌握機(jī)器學(xué)習(xí)。當(dāng)然,本文
    的頭像 發(fā)表于 06-30 04:24 ?4516次閱讀
    一文<b class='flag-5'>解析</b><b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>常用</b>35大<b class='flag-5'>算法</b>

    機(jī)器學(xué)習(xí)算法常用指標(biāo)匯總

    機(jī)器學(xué)習(xí)性能評價標(biāo)準(zhǔn)是模型優(yōu)化的前提,在設(shè)計機(jī)器學(xué)習(xí)算法過程中,不同的問題需要用到不同的評價標(biāo)準(zhǔn),本文對
    的頭像 發(fā)表于 02-13 15:09 ?6080次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>算法</b><b class='flag-5'>常用</b>指標(biāo)匯總

    10大常用機(jī)器學(xué)習(xí)算法匯總

    本文介紹了10大常用機(jī)器學(xué)習(xí)算法,包括線性回歸、Logistic回歸、線性判別分析、樸素貝葉斯、KNN、隨機(jī)森林等。
    發(fā)表于 11-20 11:10 ?3362次閱讀

    17個機(jī)器學(xué)習(xí)常用算法

    根據(jù)數(shù)據(jù)類型的不同,對一個問題的建模有不同的方式。在機(jī)器學(xué)習(xí)或者人工智能領(lǐng)域,人們首先會考慮算法學(xué)習(xí)方式。在機(jī)器
    的頭像 發(fā)表于 08-11 11:20 ?2603次閱讀

    17個機(jī)器學(xué)習(xí)常用算法!

    源自:AI知識干貨 根據(jù)數(shù)據(jù)類型的不同,對一個問題的建模有不同的方式。在機(jī)器學(xué)習(xí)或者人工智能領(lǐng)域,人們首先會考慮算法學(xué)習(xí)方式。在機(jī)器
    的頭像 發(fā)表于 08-22 09:57 ?3274次閱讀
    17個<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>的<b class='flag-5'>常用</b><b class='flag-5'>算法</b>!

    常用機(jī)器學(xué)習(xí)算法的基本概念和特點

    。因此對于數(shù)據(jù)科學(xué)家來說,理解算法顯得格外重要,理解不同算法的思想可以幫助數(shù)據(jù)科學(xué)家更從容地面對不同的應(yīng)用場景。 本文列出了常用機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 01-17 15:43 ?4862次閱讀

    機(jī)器學(xué)習(xí)算法的5種基本算子

    自主決策的方法和插件,其中包含了一系列常用的基本算子。在本文中,我們將會介紹機(jī)器學(xué)習(xí)算法的五種基本算子。 一、 求值算子 求值算子是常用
    的頭像 發(fā)表于 08-17 16:11 ?2992次閱讀

    機(jī)器學(xué)習(xí)算法匯總 機(jī)器學(xué)習(xí)算法分類 機(jī)器學(xué)習(xí)算法模型

    是解決具體問題的一系列步驟,機(jī)器學(xué)習(xí)算法被設(shè)計用于從大量的數(shù)據(jù)中自動學(xué)習(xí)并不斷改進(jìn)自身的性能。本文將為大家介紹機(jī)器
    的頭像 發(fā)表于 08-17 16:11 ?2281次閱讀

    機(jī)器學(xué)習(xí)算法總結(jié) 機(jī)器學(xué)習(xí)算法是什么 機(jī)器學(xué)習(xí)算法優(yōu)缺點

    機(jī)器學(xué)習(xí)算法總結(jié) 機(jī)器學(xué)習(xí)算法是什么?機(jī)器
    的頭像 發(fā)表于 08-17 16:11 ?3164次閱讀

    機(jī)器學(xué)習(xí)算法入門 機(jī)器學(xué)習(xí)算法介紹 機(jī)器學(xué)習(xí)算法對比

    機(jī)器學(xué)習(xí)算法入門 機(jī)器學(xué)習(xí)算法介紹 機(jī)器
    的頭像 發(fā)表于 08-17 16:27 ?2004次閱讀

    機(jī)器學(xué)習(xí)有哪些算法?機(jī)器學(xué)習(xí)分類算法有哪些?機(jī)器學(xué)習(xí)預(yù)判有哪些算法?

    機(jī)器學(xué)習(xí)有哪些算法?機(jī)器學(xué)習(xí)分類算法有哪些?機(jī)器
    的頭像 發(fā)表于 08-17 16:30 ?3134次閱讀
    奉贤区| 霍邱县| 赞皇县| 井冈山市| 刚察县| 阳泉市| 夏邑县| 长兴县| 福清市| 云南省| 永州市| 哈尔滨市| 山西省| 乌恰县| 新丰县| 凤台县| 宝兴县| 定结县| 什邡市| 古蔺县| 南岸区| 治县。| 保山市| 绥宁县| 海盐县| 施甸县| 肇源县| 嘉峪关市| 西和县| 原阳县| 南宫市| 于都县| 新余市| 得荣县| 徐闻县| 广东省| 濮阳县| 宜宾市| 定结县| 罗平县| 天祝|