日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

機器學習領域將算法按照學習方式分類進行問題解決

dytfki8u8yql ? 來源:電子技術控 ? 作者:電子技術控 ? 2022-11-22 10:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

根據數據類型的不同,對一個問題的建模有不同的方式。在機器學習或者人工智能領域,人們首先會考慮算法的學習方式。在機器學習領域,有幾種主要的學習方式。將算法按照學習方式分類是一個不錯的想法,這樣可以讓人們在建模和算法選擇的時候考慮能根據輸入數據來選擇最合適的算法來獲得最好的結果。

aa6b895a-6994-11ed-8abf-dac502259ad0.jpg

1. 監(jiān)督式學習:

aa892596-6994-11ed-8abf-dac502259ad0.jpg

在監(jiān)督式學習下,輸入數據被稱為“訓練數據”,每組訓練數據有一個明確的標識或結果,如對防垃圾郵件系統(tǒng)中“垃圾郵件”“非垃圾郵件”,對手寫數字識別中的“1“,”2“,”3“,”4“等。在建立預測模型的時候,監(jiān)督式學習建立一個學習過程,將預測結果與“訓練數據”的實際結果進行比較,不斷的調整預測模型,直到模型的預測結果達到一個預期的準確率。監(jiān)督式學習的常見應用場景如分類問題和回歸問題。常見算法有邏輯回歸(Logistic Regression)和反向傳遞神經網絡(Back Propagation Neural Network) 2. 非監(jiān)督式學習:

aaa17416-6994-11ed-8abf-dac502259ad0.jpg

在非監(jiān)督式學習中,數據并不被特別標識,學習模型是為了推斷出數據的一些內在結構。常見的應用場景包括關聯(lián)規(guī)則的學習以及聚類等。常見算法包括Apriori算法以及k-Means算法。 3. 半監(jiān)督式學習:

aab96d96-6994-11ed-8abf-dac502259ad0.png

在此學習方式下,輸入數據部分被標識,部分沒有被標識,這種學習模型可以用來進行預測,但是模型首先需要學習數據的內在結構以便合理的組織數據來進行預測。應用場景包括分類和回歸,算法包括一些對常用監(jiān)督式學習算法的延伸,這些算法首先試圖對未標識數據進行建模,在此基礎上再對標識的數據進行預測。如圖論推理算法(Graph Inference)或者拉普拉斯支持向量機(Laplacian SVM.)等。 4. 強化學習:

aad0831e-6994-11ed-8abf-dac502259ad0.jpg

在這種學習模式下,輸入數據作為對模型的反饋,不像監(jiān)督模型那樣,輸入數據僅僅是作為一個檢查模型對錯的方式,在強化學習下,輸入數據直接反饋到模型,模型必須對此立刻作出調整。常見的應用場景包括動態(tài)系統(tǒng)以及機器人控制等。常見算法包括Q-Learning以及時間差學習(Temporal difference learning) 在企業(yè)數據應用的場景下, 人們最常用的可能就是監(jiān)督式學習和非監(jiān)督式學習的模型。在圖像識別等領域,由于存在大量的非標識的數據和少量的可標識數據, 目前半監(jiān)督式學習是一個很熱的話題。而強化學習更多的應用在機器人控制及其他需要進行系統(tǒng)控制的領域。 5. 算法類似性 根據算法的功能和形式的類似性,我們可以把算法分類,比如說基于樹的算法,基于神經網絡的算法等等。當然,機器學習的范圍非常龐大,有些算法很難明確歸類到某一類。而對于有些分類來說,同一分類的算法可以針對不同類型的問題。這里,我們盡量把常用的算法按照最容易理解的方式進行分類。 6. 回歸算法:

aae8d554-6994-11ed-8abf-dac502259ad0.jpg

回歸算法是試圖采用對誤差的衡量來探索變量之間的關系的一類算法?;貧w算法是統(tǒng)計機器學習的利器。在機器學習領域,人們說起回歸,有時候是指一類問題,有時候是指一類算法,這一點常常會使初學者有所困惑。常見的回歸算法包括:最小二乘法(Ordinary Least Square),邏輯回歸(Logistic Regression),逐步式回歸(Stepwise Regression),多元自適應回歸樣條(Multivariate Adaptive Regression Splines)以及本地散點平滑估計(Locally Estimated Scatterplot Smoothing) 7. 基于實例的算法

ab04a7b6-6994-11ed-8abf-dac502259ad0.jpg

基于實例的算法常常用來對決策問題建立模型,這樣的模型常常先選取一批樣本數據,然后根據某些近似性把新數據與樣本數據進行比較。通過這種方式來尋找最佳的匹配。因此,基于實例的算法常常也被稱為“贏家通吃”學習或者“基于記憶的學習”。常見的算法包括 k-Nearest Neighbor(KNN), 學習矢量量化(Learning Vector Quantization, LVQ),以及自組織映射算法(Self-Organizing Map , SOM) 8. 正則化方法

ab1d2b06-6994-11ed-8abf-dac502259ad0.png

正則化方法是其他算法(通常是回歸算法)的延伸,根據算法的復雜度對算法進行調整。正則化方法通常對簡單模型予以獎勵而對復雜算法予以懲罰。常見的算法包括:Ridge Regression,Least Absolute Shrinkage and Selection Operator(LASSO),以及彈性網絡(Elastic Net)。 9. 決策樹學習

ab36a540-6994-11ed-8abf-dac502259ad0.png

決策樹算法根據數據的屬性采用樹狀結構建立決策模型, 決策樹模型常常用來解決分類和回歸問題。常見的算法包括:分類及回歸樹(Classification And Regression Tree, CART), ID3 (Iterative Dichotomiser 3), C4.5, Chi-squared Automatic Interaction Detection(CHAID), Decision Stump, 隨機森林(Random Forest), 多元自適應回歸樣條(MARS)以及梯度推進機(Gradient Boosting Machine, GBM) 10. 貝葉斯方法

ab5d2364-6994-11ed-8abf-dac502259ad0.jpg

貝葉斯方法算法是基于貝葉斯定理的一類算法,主要用來解決分類和回歸問題。常見算法包括:樸素貝葉斯算法,平均單依賴估計(Averaged One-Dependence Estimators, AODE),以及Bayesian Belief Network(BBN)。 11. 基于核的算法

ab71a4b0-6994-11ed-8abf-dac502259ad0.jpg

基于核的算法中最著名的莫過于支持向量機(SVM)了?;诤说乃惴ò演斎霐祿成涞揭粋€高階的向量空間, 在這些高階向量空間里, 有些分類或者回歸問題能夠更容易的解決。常見的基于核的算法包括:支持向量機(Support Vector Machine, SVM), 徑向基函數(Radial Basis Function ,RBF), 以及線性判別分析(Linear Discriminate Analysis ,LDA)等 12.聚類算法

ab91e6e4-6994-11ed-8abf-dac502259ad0.png

聚類,就像回歸一樣,有時候人們描述的是一類問題,有時候描述的是一類算法。聚類算法通常按照中心點或者分層的方式對輸入數據進行歸并。所以的聚類算法都試圖找到數據的內在結構,以便按照最大的共同點將數據進行歸類。常見的聚類算法包括 k-Means算法以及期望最大化算法(Expectation Maximization, EM)。 13. 關聯(lián)規(guī)則學習

abab0052-6994-11ed-8abf-dac502259ad0.jpg

關聯(lián)規(guī)則學習通過尋找最能夠解釋數據變量之間關系的規(guī)則,來找出大量多元數據集中有用的關聯(lián)規(guī)則。常見算法包括 Apriori算法和Eclat算法等。 14. 人工神經網絡

abc21a30-6994-11ed-8abf-dac502259ad0.jpg

人工神經網絡算法模擬生物神經網絡,是一類模式匹配算法。通常用于解決分類和回歸問題。人工神經網絡是機器學習的一個龐大的分支,有幾百種不同的算法。(其中深度學習就是其中的一類算法,我們會單獨討論),重要的人工神經網絡算法包括:感知器神經網絡(Perceptron Neural Network), 反向傳遞(Back Propagation), Hopfield網絡,自組織映射(Self-Organizing Map, SOM)。學習矢量量化(Learning Vector Quantization, LVQ) 15. 深度學習

abe2884c-6994-11ed-8abf-dac502259ad0.jpg

深度學習算法是對人工神經網絡的發(fā)展。在近期贏得了很多關注, 特別是百度也開始發(fā)力深度學習后, 更是在國內引起了很多關注。在計算能力變得日益廉價的今天,深度學習試圖建立大得多也復雜得多的神經網絡。很多深度學習的算法是半監(jiān)督式學習算法,用來處理存在少量未標識數據的大數據集。常見的深度學習算法包括:受限波爾茲曼機(Restricted Boltzmann Machine, RBN), Deep Belief Networks(DBN),卷積網絡(Convolutional Network), 堆棧式自動編碼器(Stacked Auto-encoders)。 16. 降低維度算法

abf50f08-6994-11ed-8abf-dac502259ad0.jpg

像聚類算法一樣,降低維度算法試圖分析數據的內在結構,不過降低維度算法是以非監(jiān)督學習的方式試圖利用較少的信息來歸納或者解釋數據。這類算法可以用于高維數據的可視化或者用來簡化數據以便監(jiān)督式學習使用。 常見的算法包括:主成份分析(Principle Component Analysis, PCA),偏最小二乘回歸(Partial Least Square Regression,PLS), Sammon映射,多維尺度(Multi-Dimensional Scaling, MDS), 投影追蹤(Projection Pursuit)等。 17. 集成算法:

ac115456-6994-11ed-8abf-dac502259ad0.jpg

集成算法用一些相對較弱的學習模型獨立地就同樣的樣本進行訓練,然后把結果整合起來進行整體預測。集成算法的主要難點在于究竟集成哪些獨立的較弱的學習模型以及如何把學習結果整合起來。 這是一類非常強大的算法,同時也非常流行。常見的算法包括:Boosting, Bootstrapped Aggregation(Bagging), AdaBoost,堆疊泛化(Stacked Generalization, Blending),梯度推進機(Gradient Boosting Machine, GBM),隨機森林(Random Forest)。 常見機器學習算法優(yōu)缺點: 樸素貝葉斯: 1. 如果給出的特征向量長度可能不同,這是需要歸一化為通長度的向量(這里以文本分類為例),比如說是句子單詞的話,則長度為整個詞匯量的長度,對應位置是該單詞出現的次數。 2. 計算公式如下:

ac26711a-6994-11ed-8abf-dac502259ad0.jpg

其中一項條件概率可以通過樸素貝葉斯條件獨立展開。要注意一點就是的計算方法,而由樸素貝葉斯的前提假設可知,=,因此一般有兩種,一種是在類別為ci的那些樣本集中,找到wj出現次數的總和,然后除以該樣本的總和;第二種方法是類別為ci的那些樣本集中,找到wj出現次數的總和,然后除以該樣本中所有特征出現次數的總和。 3. 如果中的某一項為0,則其聯(lián)合概率的乘積也可能為0,即2中公式的分子為0,為了避免這種現象出現,一般情況下會將這一項初始化為1,當然為了保證概率相等,分母應對應初始化為2(這里因為是2類,所以加2,如果是k類就需要加k,術語上叫做laplace光滑, 分母加k的原因是使之滿足全概率公式)。 樸素貝葉斯的優(yōu)點:對小規(guī)模的數據表現很好,適合多分類任務,適合增量式訓練。 缺點:對輸入數據的表達形式很敏感。 決策樹:決策樹中很重要的一點就是選擇一個屬性進行分枝,因此要注意一下信息增益的計算公式,并深入理解它。 信息熵的計算公式如下: 其中的n代表有n個分類類別(比如假設是2類問題,那么n=2)。分別計算這2類樣本在總樣本中出現的概率p1和p2,這樣就可以計算出未選中屬性分枝前的信息熵。 現在選中一個屬性xi用來進行分枝,此時分枝規(guī)則是:如果xi=vx的話,將樣本分到樹的一個分支;如果不相等則進入另一個分支。很顯然,分支中的樣本很有可能包括2個類別,分別計算這2個分支的熵H1和H2,計算出分枝后的總信息熵H’=p1*H1+p2*H2.,則此時的信息增益ΔH=H-H’。以信息增益為原則,把所有的屬性都測試一邊,選擇一個使增益最大的屬性作為本次分枝屬性。 決策樹的優(yōu)點:計算量簡單,可解釋性強,比較適合處理有缺失屬性值的樣本,能夠處理不相關的特征; 缺點:容易過擬合(后續(xù)出現了隨機森林,減小了過擬合現象)。 Logistic回歸:Logistic是用來分類的,是一種線性分類器,需要注意的地方有: 1. logistic函數表達式為: 其導數形式為:

ac3f84ca-6994-11ed-8abf-dac502259ad0.png

2. logsitc回歸方法主要是用最大似然估計來學習的,所以單個樣本的后驗概率為: 到整個樣本的后驗概率:

ac5b7e5a-6994-11ed-8abf-dac502259ad0.png

其中: 通過對數進一步化簡為: 3. 其實它的loss function為-l(θ),因此我們需使loss function最小,可采用梯度下降法得到。梯度下降法公式為: Logistic回歸優(yōu)點: 1. 實現簡單 2. 分類時計算量非常小,速度很快,存儲資源低; 缺點: 1. 容易欠擬合,一般準確度不太高 2. 只能處理兩分類問題(在此基礎上衍生出來的softmax可以用于多分類),且必須線性可分; 線性回歸: 線性回歸才是真正用于回歸的,而不像logistic回歸是用于分類,其基本思想是用梯度下降法對最小二乘法形式的誤差函數進行優(yōu)化,當然也可以用normal equation直接求得參數的解,結果為: 而在LWLR(局部加權線性回歸)中,參數的計算表達式為: 因為此時優(yōu)化的是: 由此可見LWLR與LR不同,LWLR是一個非參數模型,因為每次進行回歸計算都要遍歷訓練樣本至少一次。 線性回歸優(yōu)點:實現簡單,計算簡單; 缺點:不能擬合非線性數據; KNN算法:KNN即最近鄰算法,其主要過程為: 1. 計算訓練樣本和測試樣本中每個樣本點的距離(常見的距離度量有歐式距離,馬氏距離等); 2. 對上面所有的距離值進行排序; 3. 選前k個最小距離的樣本; 4. 根據這k個樣本的標簽進行投票,得到最后的分類類別; 如何選擇一個最佳的K值,這取決于數據。一般情況下,在分類時較大的K值能夠減小噪聲的影響。但會使類別之間的界限變得模糊。一個較好的K值可通過各種啟發(fā)式技術來獲取,比如,交叉驗證。另外噪聲和非相關性特征向量的存在會使K近鄰算法的準確性減小。 近鄰算法具有較強的一致性結果。隨著數據趨于無限,算法保證錯誤率不會超過貝葉斯算法錯誤率的兩倍。對于一些好的K值,K近鄰保證錯誤率不會超過貝葉斯理論誤差率。 注:馬氏距離一定要先給出樣本集的統(tǒng)計性質,比如均值向量,協(xié)方差矩陣等。關于馬氏距離的介紹如下: KNN算法的優(yōu)點: 1. 思想簡單,理論成熟,既可以用來做分類也可以用來做回歸; 2. 可用于非線性分類; 3. 訓練時間復雜度為O(n); 4. 準確度高,對數據沒有假設,對outlier不敏感; 缺點: 1. 計算量大; 2. 樣本不平衡問題(即有些類別的樣本數量很多,而其它樣本的數量很少); 3. 需要大量的內存; SVM: 要學會如何使用libsvm以及一些參數的調節(jié)經驗,另外需要理清楚svm算法的一些思路: 1. svm中的最優(yōu)分類面是對所有樣本的幾何裕量最大(為什么要選擇最大間隔分類器,請從數學角度上說明?網易深度學習崗位面試過程中有被問到。答案就是幾何間隔與樣本的誤分次數間存在關系:

ac728712-6994-11ed-8abf-dac502259ad0.png

,其中的分母就是樣本到分類間隔距離,分子中的R是所有樣本中的最長向量值),即: 經過一系列推導可得為優(yōu)化下面原始目標: 2. 下面來看看拉格朗日理論:

ac888e68-6994-11ed-8abf-dac502259ad0.png

可以將1中的優(yōu)化目標轉換為拉格朗日的形式(通過各種對偶優(yōu)化,KKD條件),最后目標函數為: 我們只需要最小化上述目標函數,其中的α為原始優(yōu)化問題中的不等式約束拉格朗日系數。 3. 對2中最后的式子分別w和b求導可得:

aca57a8c-6994-11ed-8abf-dac502259ad0.jpg

由上面第1式子可以知道,如果我們優(yōu)化出了α,則直接可以求出w了,即模型的參數搞定。而上面第2個式子可以作為后續(xù)優(yōu)化的一個約束條件。 4. 對2中最后一個目標函數用對偶優(yōu)化理論可以轉換為優(yōu)化下面的目標函數:

acb907f0-6994-11ed-8abf-dac502259ad0.png

而這個函數可以用常用的優(yōu)化方法求得α,進而求得w和b。 5. 按照道理,svm簡單理論應該到此結束。不過還是要補充一點,即在預測時有:

acdc2884-6994-11ed-8abf-dac502259ad0.png

那個尖括號我們可以用核函數代替,這也是svm經常和核函數扯在一起的原因。 6. 最后是關于松弛變量的引入,因此原始的目標優(yōu)化公式為: 此時對應的對偶優(yōu)化公式為:

acf06542-6994-11ed-8abf-dac502259ad0.png

與前面的相比只是α多了個上界。 SVM算法優(yōu)點: 1. 可用于線性/非線性分類,也可以用于回歸; 2. 低泛化誤差; 3. 容易解釋; 4. 計算復雜度較低; 缺點: 1. 對參數和核函數的選擇比較敏感; 2. 原始的SVM只比較擅長處理二分類問題; Boosting: 主要以Adaboost為例,首先來看看Adaboost的流程圖,如下:

ad03cd08-6994-11ed-8abf-dac502259ad0.png

從圖中可以看到,在訓練過程中我們需要訓練出多個弱分類器(圖中為3個),每個弱分類器是由不同權重的樣本(圖中為5個訓練樣本)訓練得到(其中第一個弱分類器對應輸入樣本的權值是一樣的),而每個弱分類器對最終分類結果的作用也不同,是通過加權平均輸出的,權值見上圖中三角形里面的數值。那么這些弱分類器和其對應的權值是怎樣訓練出來的呢? 下面通過一個例子來簡單說明,假設的是5個訓練樣本,每個訓練樣本的維度為2,在訓練第一個分類器時5個樣本的權重各為0.2. 注意這里樣本的權值和最終訓練的弱分類器組對應的權值α是不同的,樣本的權重只在訓練過程中用到,而α在訓練過程和測試過程都有用到。 現在假設弱分類器是帶一個節(jié)點的簡單決策樹,該決策樹會選擇2個屬性(假設只有2個屬性)的一個,然后計算出這個屬性中的最佳值用來分類。 Adaboost的簡單版本訓練過程如下: 1. 訓練第一個分類器,樣本的權值D為相同的均值。通過一個弱分類器,得到這5個樣本(請對應書中的例子來看,依舊是machine learning in action)的分類預測標簽。與給出的樣本真實標簽對比,就可能出現誤差(即錯誤)。如果某個樣本預測錯誤,則它對應的錯誤值為該樣本的權重,如果分類正確,則錯誤值為0. 最后累加5個樣本的錯誤率之和,記為ε。 2. 通過ε來計算該弱分類器的權重α,公式如下:

ad1bd574-6994-11ed-8abf-dac502259ad0.png

3. 通過α來計算訓練下一個弱分類器樣本的權重D,如果對應樣本分類正確,則減小該樣本的權重,公式為:

ad34a680-6994-11ed-8abf-dac502259ad0.png

如果樣本分類錯誤,則增加該樣本的權重,公式為:

ad4c42d6-6994-11ed-8abf-dac502259ad0.png

4. 循環(huán)步驟1,2,3來繼續(xù)訓練多個分類器,只是其D值不同而已。 測試過程如下: 輸入一個樣本到訓練好的每個弱分類中,則每個弱分類都對應一個輸出標簽,然后該標簽乘以對應的α,最后求和得到值的符號即為預測標簽值。 Boosting算法的優(yōu)點: 1. 低泛化誤差; 2. 容易實現,分類準確率較高,沒有太多參數可以調; 3. 缺點: 4. 對outlier比較敏感; 聚類: 根據聚類思想劃分: 1. 基于劃分的聚類: K-means, k-medoids(每一個類別中找一個樣本點來代表),CLARANS. k-means是使下面的表達式值最?。?/p>

ad606338-6994-11ed-8abf-dac502259ad0.png

k-means算法的優(yōu)點: (1)k-means算法是解決聚類問題的一種經典算法,算法簡單、快速。 (2)對處理大數據集,該算法是相對可伸縮的和高效率的,因為它的復雜度大約是O(nkt),其中n是所有對象的數目,k是簇的數目,t是迭代的次數。通常k<

ad77f69c-6994-11ed-8abf-dac502259ad0.png

其中更深的顏色代表去掉小特征值重構時的三個矩陣。 果m代表商品的個數,n代表用戶的個數,則U矩陣的每一行代表商品的屬性,現在通過降維U矩陣(取深色部分)后,每一個商品的屬性可以用更低的維度表示(假設為k維)。這樣當新來一個用戶的商品推薦向量X,則可以根據公式X'*U1*inv(S1)得到一個k維的向量,然后在V’中尋找最相似的那一個用戶(相似度測量可用余弦公式等),根據這個用戶的評分來推薦(主要是推薦新用戶未打分的那些商品)。 pLSA:由LSA發(fā)展過來,而早期LSA的實現主要是通過SVD分解。pLSA的模型圖如下

ad97664e-6994-11ed-8abf-dac502259ad0.png

公式中的意義如下:

ada8a760-6994-11ed-8abf-dac502259ad0.jpg

LDA主題模型,概率圖如下:

adbf2c7e-6994-11ed-8abf-dac502259ad0.jpg

和pLSA不同的是LDA中假設了很多先驗分布,且一般參數的先驗分布都假設為Dirichlet分布,其原因是共軛分布時先驗概率和后驗概率的形式相同。 GDBT:GBDT(Gradient Boosting Decision Tree) 又叫 MART(Multiple Additive Regression Tree),好像在阿里內部用得比較多(所以阿里算法崗位面試時可能會問到),它是一種迭代的決策樹算法,該算法由多棵決策樹組成,所有樹的輸出結果累加起來就是最終答案。 它在被提出之初就和SVM一起被認為是泛化能力(generalization)較強的算法。近些年更因為被用于搜索排序的機器學習模型而引起大家關注。 GBDT是回歸樹,不是分類樹。其核心就在于,每一棵樹是從之前所有樹的殘差中來學習的。為了防止過擬合,和Adaboosting一樣,也加入了boosting這一項。 Regularization作用是 1. 數值上更容易求解; 2. 特征數目太大時更穩(wěn)定; 3. 控制模型的復雜度,光滑性。復雜性越小且越光滑的目標函數泛化能力越強。而加入規(guī)則項能使目標函數復雜度減小,且更光滑。 4. 減小參數空間;參數空間越小,復雜度越低。 5. 系數越小,模型越簡單,而模型越簡單則泛化能力越強(Ng宏觀上給出的解釋)。 6. 可以看成是權值的高斯先驗。 異常檢測:可以估計樣本的密度函數,對于新樣本直接計算其密度,如果密度值小于某一閾值,則表示該樣本異常。而密度函數一般采用多維的高斯分布。 如果樣本有n維,則每一維的特征都可以看作是符合高斯分布的,即使這些特征可視化出來不太符合高斯分布,也可以對該特征進行數學轉換讓其看起來像高斯分布,比如說x=log(x+c), x=x^(1/c)等。異常檢測的算法流程如下:

addabdae-6994-11ed-8abf-dac502259ad0.jpg

其中的ε也是通過交叉驗證得到的,也就是說在進行異常檢測時,前面的p(x)的學習是用的無監(jiān)督,后面的參數ε學習是用的有監(jiān)督。那么為什么不全部使用普通有監(jiān)督的方法來學習呢(即把它看做是一個普通的二分類問題)? 主要是因為在異常檢測中,異常的樣本數量非常少而正常樣本數量非常多,因此不足以學習到好的異常行為模型的參數,因為后面新來的異常樣本可能完全是與訓練樣本中的模式不同。 EM算法:有時候因為樣本的產生和隱含變量有關(隱含變量是不能觀察的),而求模型的參數時一般采用最大似然估計,由于含有了隱含變量,所以對似然函數參數求導是求不出來的,這時可以采用EM算法來求模型的參數的(對應模型參數個數可能有多個), EM算法一般分為2步: E步:選取一組參數,求出在該參數下隱含變量的條件概率值; M步:結合E步求出的隱含變量條件概率,求出似然函數下界函數(本質上是某個期望函數)的最大值。 重復上面2步直至收斂,公式如下所示:

adfdaa8a-6994-11ed-8abf-dac502259ad0.png

M步公式中下界函數的推導過程:

ae131d52-6994-11ed-8abf-dac502259ad0.png

EM算法一個常見的例子就是GMM模型,每個樣本都有可能由k個高斯產生,只不過由每個高斯產生的概率不同而已,因此每個樣本都有對應的高斯分布(k個中的某一個),此時的隱含變量就是每個樣本對應的某個高斯分布。 GMM的E步公式如下(計算每個樣本對應每個高斯的概率): 更具體的計算公式為: M步公式如下(計算每個高斯的比重,均值,方差這3個參數):

ae29fc3e-6994-11ed-8abf-dac502259ad0.png

Apriori是關聯(lián)分析中比較早的一種方法,主要用來挖掘那些頻繁項集合。其思想是: 1. 如果一個項目集合不是頻繁集合,那么任何包含它的項目集合也一定不是頻繁集合; 2. 如果一個項目集合是頻繁集合,那么它的任何非空子集也是頻繁集合; Aprioir需要掃描項目表多遍,從一個項目開始掃描,舍去掉那些不是頻繁的項目,得到的集合稱為L,然后對L中的每個元素進行自組合,生成比上次掃描多一個項目的集合,該集合稱為C,接著又掃描去掉那些非頻繁的項目,重復… 看下面這個例子,元素項目表格: 如果每個步驟不去掉非頻繁項目集,則其掃描過程的樹形結構如下:

ae4af22c-6994-11ed-8abf-dac502259ad0.jpg

在其中某個過程中,可能出現非頻繁的項目集,將其去掉(用陰影表示)為:

ae68e58e-6994-11ed-8abf-dac502259ad0.jpg

FP Growth是一種比Apriori更高效的頻繁項挖掘方法,它只需要掃描項目表2次。其中第1次掃描獲得當個項目的頻率,去掉不符合支持度要求的項,并對剩下的項排序。第2遍掃描是建立一顆FP-Tree(frequent-patten tree)。 接下來的工作就是在FP-Tree上進行挖掘,比如說有下表:

ae8ad13a-6994-11ed-8abf-dac502259ad0.jpg

它所對應的FP_Tree如下:

aead877a-6994-11ed-8abf-dac502259ad0.jpg

然后從頻率最小的單項P開始,找出P的條件模式基,用構造FP_Tree同樣的方法來構造P的條件模式基的FP_Tree,在這棵樹上找出包含P的頻繁項集。 依次從m,b,a,c,f的條件模式基上挖掘頻繁項集,有些項需要遞歸的去挖掘,比較麻煩,比如m節(jié)點。 來源:圖靈人工智能

審核編輯:郭婷

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關注

    關注

    1821

    文章

    50367

    瀏覽量

    267074
  • 機器學習
    +關注

    關注

    67

    文章

    8567

    瀏覽量

    137264

原文標題:17個機器學習的常用算法

文章出處:【微信號:電子技術控,微信公眾號:電子技術控】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    機器學習特征工程:分類變量的數值化處理方法

    編碼是機器學習流程里最容易被低估的環(huán)節(jié)之一,模型沒辦法直接處理文本形式的分類數據,尺寸(Small/Medium/Large)、顏色(Red/Blue/Green)、城市、支付方式等都
    的頭像 發(fā)表于 02-10 15:58 ?474次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學習</b>特征工程:<b class='flag-5'>分類</b>變量的數值化處理方法

    人工智能與機器學習在這些行業(yè)的深度應用

    自人工智能和機器學習問世以來,多個在線領域的數字化格局迎來了翻天覆地的變化。這些技術從誕生之初就為企業(yè)賦予了競爭優(yōu)勢,而在線行業(yè)正是受其影響最為顯著的領域。人工智能(AI)與
    的頭像 發(fā)表于 02-04 14:44 ?710次閱讀

    強化學習會讓自動駕駛模型學習更快嗎?

    [首發(fā)于智駕最前沿微信公眾號]在談及自動駕駛大模型訓練時,有的技術方案會采用模仿學習,而有些會采用強化學習。同樣作為大模型的訓練方式,強化學習有何不同?又有什么特點呢? 什么是強化
    的頭像 發(fā)表于 01-31 09:34 ?860次閱讀
    強化<b class='flag-5'>學習</b>會讓自動駕駛模型<b class='flag-5'>學習</b>更快嗎?

    學習單片機快速方法

    上購買,價錢比較便宜。有了學習板之后你必須有臺電腦(這年頭沒電腦的大學生太少)。然后你少看點電影,少玩點游戲。按照學習板光盤上的教程進行學習。先學習
    發(fā)表于 01-14 07:42

    機器學習和深度學習中需避免的 7 個常見錯誤與局限性

    無論你是剛入門還是已經從事人工智能模型相關工作一段時間,機器學習和深度學習中都存在一些我們需要時刻關注并銘記的常見錯誤。如果對這些錯誤置之不理,日后可能會引發(fā)諸多麻煩!只要我們密切關注數據、模型架構
    的頭像 發(fā)表于 01-07 15:37 ?368次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學習</b>和深度<b class='flag-5'>學習</b>中需避免的 7 個常見錯誤與局限性

    基于ETAS嵌入式AI工具鏈機器學習模型部署到量產ECU

    AI在汽車行業(yè)的應用日益深化,如何機器學習領域的先進模型(如虛擬傳感器)集成到ECU軟件中,已成為業(yè)界面臨的核心挑戰(zhàn)。
    的頭像 發(fā)表于 12-24 10:55 ?6417次閱讀
    基于ETAS嵌入式AI工具鏈<b class='flag-5'>將</b><b class='flag-5'>機器</b><b class='flag-5'>學習</b>模型部署到量產ECU

    分享一個嵌入式開發(fā)學習路線

    如果你想要學習嵌入式開發(fā),我建議按照這個學習路線準備: 1. 基礎鋪墊期(1-2個月) 理解嵌入式系統(tǒng)的“硬件基礎”和“編程入門”,能看懂簡單電路,寫出基礎C語言代碼。這一階段的學習
    發(fā)表于 12-04 11:01

    探索RISC-V在機器領域的潛力

    : 官方和社區(qū)對主流軟件(如Linux, ROS 2)的適配非常積極,降低了開發(fā)門檻。 3. 定位清晰: 精準定位于高性能RISC-V應用開發(fā)、AI和機器領域,是學習和項目實踐的優(yōu)秀平臺。 不足
    發(fā)表于 12-03 14:40

    如何深度學習機器視覺的應用場景

    深度學習視覺應用場景大全 工業(yè)制造領域 復雜缺陷檢測:處理傳統(tǒng)算法難以描述的非標準化缺陷模式 非標產品分類:對形狀、顏色、紋理多變的產品進行
    的頭像 發(fā)表于 11-27 10:19 ?353次閱讀

    學習物聯(lián)網怎么入門?

    的相關書籍和視頻進行學習。也可以通過參加線下班、工作坊和實踐活動來學習。不同的學習方式適合不同的人群,初學者可以根據自己的實際情況選擇適合自
    發(fā)表于 10-14 10:34

    PID控制算法學習筆記資料

    用于新手學習PID控制算法
    發(fā)表于 08-12 16:22 ?7次下載

    FPGA在機器學習中的具體應用

    ,越來越多地被應用于機器學習任務中。本文探討 FPGA 在機器學習中的應用,特別是在加速神經網絡推理、優(yōu)化
    的頭像 發(fā)表于 07-16 15:34 ?3118次閱讀

    任正非說 AI已經確定是第四次工業(yè)革命 那么如何從容地加入進來呢?

    ,TensorFlow、PyTorch用于構建和訓練神經網絡。以Python為例,通過編寫簡單的程序來處理數據,如讀取數據集、進行數據清洗和預處理,這是進入AI領域的基本技能。 學習機器學習
    發(fā)表于 07-08 17:44

    機器學習異常檢測實戰(zhàn):用Isolation Forest快速構建無標簽異常檢測系統(tǒng)

    本文轉自:DeepHubIMBA無監(jiān)督異常檢測作為機器學習領域的重要分支,專門用于在缺乏標記數據的環(huán)境中識別異常事件。本文深入探討異常檢測技術的理論基礎與實踐應用,通過IsolationForest
    的頭像 發(fā)表于 06-24 11:40 ?1629次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學習</b>異常檢測實戰(zhàn):用Isolation Forest快速構建無標簽異常檢測系統(tǒng)

    使用MATLAB進行無監(jiān)督學習

    無監(jiān)督學習是一種根據未標注數據進行推斷的機器學習方法。無監(jiān)督學習旨在識別數據中隱藏的模式和關系,無需任何監(jiān)督或關于結果的先驗知識。
    的頭像 發(fā)表于 05-16 14:48 ?1639次閱讀
    使用MATLAB<b class='flag-5'>進行</b>無監(jiān)督<b class='flag-5'>學習</b>
    民勤县| 乌审旗| 开化县| 台北市| 延吉市| 金山区| 阳原县| 郁南县| 万宁市| 五家渠市| 德令哈市| 岳阳县| 左贡县| 石泉县| 观塘区| 当涂县| 金秀| 汉源县| 霍邱县| 沐川县| 十堰市| 盘山县| 宜川县| 潮州市| 和林格尔县| 鄂尔多斯市| 连江县| 阳城县| 肇源县| 宣威市| 淮阳县| 外汇| 东丽区| 芦山县| 唐山市| 土默特右旗| 兰西县| 南城县| 五指山市| 府谷县| 延津县|