
哲學(xué)要回答的基本問題是從哪里來、我是誰、到哪里去,尋找答案的過程或許可以借鑒機(jī)器學(xué)習(xí)的套路:組織數(shù)據(jù)->挖掘知識(shí)->預(yù)測(cè)未來。組織數(shù)據(jù)即為設(shè)計(jì)特征,生成滿足特定格式要求的樣本,挖掘知識(shí)即建模,而預(yù)測(cè)未來就是對(duì)模型的應(yīng)用。

特征設(shè)計(jì)依賴于對(duì)業(yè)務(wù)場(chǎng)景的理解,可分為連續(xù)特征、離散特征和組合高階特征。本篇重點(diǎn)是機(jī)器學(xué)習(xí)算法的介紹,可以分為監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)兩大類。

無監(jiān)督學(xué)習(xí)算法很多,最近幾年業(yè)界比較關(guān)注主題模型,LSA->PLSA->LDA為主題模型三個(gè)發(fā)展階段的典型算法,它們主要是建模假設(shè)條件上存在差異。LSA假設(shè)文檔只有一個(gè)主題,PLSA假設(shè)各個(gè)主題的概率分布不變(theta都是固定的),LDA假設(shè)每個(gè)文檔和詞的主題概率是可變的。

LDA算法本質(zhì)可以借助上帝擲骰子幫助理解,詳細(xì)內(nèi)容可參加Rickjin寫的《LDA數(shù)據(jù)八卦》文章,淺顯易懂,順便也科普了很多數(shù)學(xué)知識(shí),非常推薦。

監(jiān)督學(xué)習(xí)可分為分類和回歸,感知器是最簡(jiǎn)單的線性分類器,現(xiàn)在實(shí)際應(yīng)用比較少,但它是神經(jīng)網(wǎng)絡(luò)、深度學(xué)習(xí)的基本單元。

線性函數(shù)擬合數(shù)據(jù)并基于閾值分類時(shí),很容易受噪聲樣本的干擾,影響分類的準(zhǔn)確性。邏輯回歸(Logistic Regression)利用sigmoid函數(shù)將模型輸出約束在0到1之間,能夠有效弱化噪聲數(shù)據(jù)的負(fù)面影響,被廣泛應(yīng)用于互聯(lián)網(wǎng)廣告點(diǎn)擊率預(yù)估。


邏輯回歸模型參數(shù)可以通過最大似然求解,首先定義目標(biāo)函數(shù)L(theta),然后log處理將目標(biāo)函數(shù)的乘法邏輯轉(zhuǎn)化為求和邏輯(最大化似然概率 -> 最小化損失函數(shù)),最后采用梯度下降求解。


相比于線性分類去,決策樹等非線性分類器具有更強(qiáng)的分類能力,ID3和C4.5是典型的決策樹算法,建模流程基本相似,兩者主要在增益函數(shù)(目標(biāo)函數(shù))的定義不同。

線性回歸和線性分類在表達(dá)形式上是類似的,本質(zhì)區(qū)別是分類的目標(biāo)函數(shù)是離散值,而回歸的目標(biāo)函數(shù)是連續(xù)值。目標(biāo)函數(shù)的不同導(dǎo)致回歸通?;谧钚《硕x目標(biāo)函數(shù),當(dāng)然,在觀測(cè)誤差滿足高斯分布的假設(shè)情況下,最小二乘和最大似然可以等價(jià)。

當(dāng)梯度下降求解模型參數(shù)時(shí),可以采用Batch模式或者Stochastic模式,通常而言,Batch模式準(zhǔn)確性更高,Stochastic模式復(fù)雜度更低。


上文已經(jīng)提到,感知器雖然是最簡(jiǎn)單的線性分類器,但是可以視為深度學(xué)習(xí)的基本單元,模型參數(shù)可以由自動(dòng)編碼(Auto Encoder)等方法求解。

深度學(xué)習(xí)的優(yōu)勢(shì)之一可以理解為特征抽象,從底層特征學(xué)習(xí)獲得高階特征,描述更為復(fù)雜的信息結(jié)構(gòu)。例如,從像素層特征學(xué)習(xí)抽象出描述紋理結(jié)構(gòu)的邊緣輪廓特征,更進(jìn)一步學(xué)習(xí)獲得表征物體局部的更高階特征。 俗話說三個(gè)臭皮匠賽過諸葛亮,無論是線性分類還是深度學(xué)習(xí),都是單個(gè)模型算法單打獨(dú)斗,有沒有一種集百家之長(zhǎng)的方法,將模型處理數(shù)據(jù)的精度更進(jìn)一步提升呢?當(dāng)然,Model Ensembel就是解決這個(gè)問題。Bagging為方法之一,對(duì)于給定數(shù)據(jù)處理任務(wù),采用不同模型/參數(shù)/特征訓(xùn)練多組模型參數(shù),最后采用投票或者加權(quán)平均的方式輸出最終結(jié)果。 Boosting為Model Ensemble的另外一種方法,其思想為模型每次迭代時(shí)通過調(diào)整錯(cuò)誤樣本的損失權(quán)重提升對(duì)數(shù)據(jù)樣本整體的處理精度,典型算法包括AdaBoost、GBDT等。

不同的數(shù)據(jù)任務(wù)場(chǎng)景,可以選擇不同的Model Ensemble方法,對(duì)于深度學(xué)習(xí),可以對(duì)隱層節(jié)點(diǎn)采用DropOut的方法實(shí)現(xiàn)類似的效果。



介紹了這么多機(jī)器學(xué)習(xí)基礎(chǔ)算法,說一說評(píng)價(jià)模型優(yōu)劣的基本準(zhǔn)則。欠擬合和過擬合是經(jīng)常出現(xiàn)的兩種情況,簡(jiǎn)單的判定方法是比較訓(xùn)練誤差和測(cè)試誤差的關(guān)系,當(dāng)欠擬合時(shí),可以設(shè)計(jì)更多特征來提升模型訓(xùn)練精度,當(dāng)過擬合時(shí),可以優(yōu)化特征量降低模型復(fù)雜度來提升模型測(cè)試精度。

特征量是模型復(fù)雜度的直觀反映,模型訓(xùn)練之前設(shè)定輸入的特征量是一種方法,另外一種比較常用的方法是在模型訓(xùn)練過程中,將特征參數(shù)的正則約束項(xiàng)引入目標(biāo)函數(shù)/損失函數(shù),基于訓(xùn)練過程篩選優(yōu)質(zhì)特征。

模型調(diào)優(yōu)是一個(gè)細(xì)致活,最終還是需要能夠?qū)?shí)際場(chǎng)景給出可靠的預(yù)測(cè)結(jié)果,解決實(shí)際問題。期待學(xué)以致用!
審核編輯 :李倩
-
算法
+關(guān)注
關(guān)注
23文章
4810瀏覽量
98610 -
機(jī)器學(xué)習(xí)
+關(guān)注
關(guān)注
67文章
8567瀏覽量
137256
原文標(biāo)題:零基礎(chǔ)入門機(jī)器學(xué)習(xí)算法(附圖)
文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
機(jī)器學(xué)習(xí)中的數(shù)據(jù)質(zhì)量雙保障:從“驗(yàn)證”到“標(biāo)記”
AI 算法核心知識(shí)清單(深度實(shí)戰(zhàn)版2)
算法工程師需要具備哪些技能?
人工智能與機(jī)器學(xué)習(xí)在這些行業(yè)的深度應(yīng)用
機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中需避免的 7 個(gè)常見錯(cuò)誤與局限性
如何深度學(xué)習(xí)機(jī)器視覺的應(yīng)用場(chǎng)景
時(shí)鐘周期、機(jī)器周期、指令周期介紹
國(guó)密系列算法簡(jiǎn)介及SM4算法原理介紹
量子機(jī)器學(xué)習(xí)入門:三種數(shù)據(jù)編碼方法對(duì)比與應(yīng)用
AI 驅(qū)動(dòng)三維逆向:點(diǎn)云降噪算法工具與機(jī)器學(xué)習(xí)建模能力的前沿應(yīng)用
基于FPGA實(shí)現(xiàn)FOC算法之PWM模塊設(shè)計(jì)
機(jī)器學(xué)習(xí)算法的介紹
評(píng)論