日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機(jī)器學(xué)習(xí)實用指南——多類分類與誤差分析

lviY_AI_shequ ? 來源:未知 ? 作者:李倩 ? 2018-06-19 15:08 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

多類分類

二分類器只能區(qū)分兩個類,而多類分類器(也被叫做多項式分類器)可以區(qū)分多于兩個類。

一些算法(比如隨機(jī)森林分類器或者樸素貝葉斯分類器)可以直接處理多類分類問題。其他一些算法(比如 SVM 分類器或者線性分類器)則是嚴(yán)格的二分類器。然后,有許多策略可以讓你用二分類器去執(zhí)行多類分類。

舉例子,創(chuàng)建一個可以將圖片分成 10 類(從 0 到 9)的系統(tǒng)的一個方法是:訓(xùn)練10個二分類器,每一個對應(yīng)一個數(shù)字(探測器 0,探測器 1,探測器 2,以此類推)。然后當(dāng)你想對某張圖片進(jìn)行分類的時候,讓每一個分類器對這個圖片進(jìn)行分類,選出決策分?jǐn)?shù)最高的那個分類器。這叫做“一對所有”(OvA)策略(也被叫做“一對其他”)。

另一個策略是對每一對數(shù)字都訓(xùn)練一個二分類器:一個分類器用來處理數(shù)字 0 和數(shù)字 1,一個用來處理數(shù)字 0 和數(shù)字 2,一個用來處理數(shù)字 1 和 2,以此類推。這叫做“一對一”(OvO)策略。如果有 N 個類。你需要訓(xùn)練N*(N-1)/2個分類器。對于 MNIST 問題,需要訓(xùn)練 45 個二分類器!當(dāng)你想對一張圖片進(jìn)行分類,你必須將這張圖片跑在全部45個二分類器上。然后看哪個類勝出。OvO 策略的主要有點是:每個分類器只需要在訓(xùn)練集的部分?jǐn)?shù)據(jù)上面進(jìn)行訓(xùn)練。這部分?jǐn)?shù)據(jù)是它所需要區(qū)分的那兩個類對應(yīng)的數(shù)據(jù)。

一些算法(比如 SVM 分類器)在訓(xùn)練集的大小上很難擴(kuò)展,所以對于這些算法,OvO 是比較好的,因為它可以在小的數(shù)據(jù)集上面可以更多地訓(xùn)練,較之于巨大的數(shù)據(jù)集而言。但是,對于大部分的二分類器來說,OvA 是更好的選擇。

Scikit-Learn 可以探測出你想使用一個二分類器去完成多分類的任務(wù),它會自動地執(zhí)行 OvA(除了 SVM 分類器,它使用 OvO)。讓我們試一下SGDClassifier.

>>> sgd_clf.fit(X_train, y_train) # y_train, not y_train_5 >>> sgd_clf.predict([some_digit]) array([ 5.])

很容易。上面的代碼在訓(xùn)練集上訓(xùn)練了一個SGDClassifier。這個分類器處理原始的目標(biāo)class,從 0 到 9(y_train),而不是僅僅探測是否為 5 (y_train_5)。然后它做出一個判斷(在這個案例下只有一個正確的數(shù)字)。在幕后,Scikit-Learn 實際上訓(xùn)練了 10 個二分類器,每個分類器都產(chǎn)到一張圖片的決策數(shù)值,選擇數(shù)值最高的那個類。

為了證明這是真實的,你可以調(diào)用decision_function()方法。不是返回每個樣例的一個數(shù)值,而是返回 10 個數(shù)值,一個數(shù)值對應(yīng)于一個類。

>>> some_digit_scores = sgd_clf.decision_function([some_digit]) >>> some_digit_scores array([[-311402.62954431, -363517.28355739, -446449.5306454 , -183226.61023518, -414337.15339485, 161855.74572176, -452576.39616343, -471957.14962573, -518542.33997148, -536774.63961222]])

最高數(shù)值是對應(yīng)于類別 5 :

>>> np.argmax(some_digit_scores) 5 >>> sgd_clf.classes_ array([ 0., 1., 2., 3., 4., 5., 6., 7., 8., 9.]) >>> sgd_clf.classes[5] 5.0

一個分類器被訓(xùn)練好了之后,它會保存目標(biāo)類別列表到它的屬性classes_ 中去,按照值排序。在本例子當(dāng)中,在classes_ 數(shù)組當(dāng)中的每個類的索引方便地匹配了類本身,比如,索引為 5 的類恰好是類別 5 本身。但通常不會這么幸運。

如果你想強(qiáng)制 Scikit-Learn 使用 OvO 策略或者 OvA 策略,你可以使用OneVsOneClassifier類或者OneVsRestClassifier類。創(chuàng)建一個樣例,傳遞一個二分類器給它的構(gòu)造函數(shù)。舉例子,下面的代碼會創(chuàng)建一個多類分類器,使用 OvO 策略,基于SGDClassifier。

>>> from sklearn.multiclass import OneVsOneClassifier >>> ovo_clf = OneVsOneClassifier(SGDClassifier(random_state=42)) >>> ovo_clf.fit(X_train, y_train) >>> ovo_clf.predict([some_digit]) array([ 5.]) >>> len(ovo_clf.estimators_) 45

訓(xùn)練一個RandomForestClassifier同樣簡單:

>>> forest_clf.fit(X_train, y_train) >>> forest_clf.predict([some_digit]) array([ 5.])

這次 Scikit-Learn 沒有必要去運行 OvO 或者 OvA,因為隨機(jī)森林分類器能夠直接將一個樣例分到多個類別。你可以調(diào)用predict_proba(),得到樣例對應(yīng)的類別的概率值的列表:

>>> forest_clf.predict_proba([some_digit]) array([[ 0.1, 0. , 0. , 0.1, 0. , 0.8, 0. , 0. , 0. , 0. ]])

你可以看到這個分類器相當(dāng)確信它的預(yù)測:在數(shù)組的索引 5 上的 0.8,意味著這個模型以 80% 的概率估算這張圖片代表數(shù)字 5。它也認(rèn)為這個圖片可能是數(shù)字 0 或者數(shù)字 3,分別都是 10% 的幾率。

現(xiàn)在當(dāng)然你想評估這些分類器。像平常一樣,你想使用交叉驗證。讓我們用cross_val_score()來評估SGDClassifier的精度。

>>> cross_val_score(sgd_clf, X_train, y_train, cv=3, scoring="accuracy") array([ 0.84063187, 0.84899245, 0.86652998])

在所有測試折(test fold)上,它有 84% 的精度。如果你是用一個隨機(jī)的分類器,你將會得到 10% 的正確率。所以這不是一個壞的分?jǐn)?shù),但是你可以做的更好。舉例子,簡單將輸入正則化,將會提高精度到 90% 以上。

>>> from sklearn.preprocessing import StandardScaler >>> scaler = StandardScaler() >>> X_train_scaled = scaler.fit_transform(X_train.astype(np.float64)) >>> cross_val_score(sgd_clf, X_train_scaled, y_train, cv=3, scoring="accuracy") array([ 0.91011798, 0.90874544, 0.906636 ])

誤差分析

當(dāng)然,如果這是一個實際的項目,你會在你的機(jī)器學(xué)習(xí)項目當(dāng)中,跟隨以下步驟(見附錄 B):探索準(zhǔn)備數(shù)據(jù)的候選方案,嘗試多種模型,把最好的幾個模型列為入圍名單,用GridSearchCV調(diào)試超參數(shù),盡可能地自動化,像你前面的章節(jié)做的那樣。在這里,我們假設(shè)你已經(jīng)找到一個不錯的模型,你試圖找到方法去改善它。一個方式是分析模型產(chǎn)生的誤差的類型。

首先,你可以檢查混淆矩陣。你需要使用cross_val_predict()做出預(yù)測,然后調(diào)用confusion_matrix()函數(shù),像你早前做的那樣。

>>> y_train_pred = cross_val_predict(sgd_clf, X_train_scaled, y_train, cv=3)>>> conf_mx = confusion_matrix(y_train, y_train_pred)>>> conf_mx array([[5725, 3, 24, 9, 10, 49, 50, 10, 39, 4], [ 2, 6493, 43, 25, 7, 40, 5, 10, 109, 8], [ 51, 41, 5321, 104, 89, 26, 87, 60, 166, 13], [ 47, 46, 141, 5342, 1, 231, 40, 50, 141, 92], [ 19, 29, 41, 10, 5366, 9, 56, 37, 86, 189], [ 73, 45, 36, 193, 64, 4582, 111, 30, 193, 94], [ 29, 34, 44, 2, 42, 85, 5627, 10, 45, 0], [ 25, 24, 74, 32, 54, 12, 6, 5787, 15, 236], [ 52, 161, 73, 156, 10, 163, 61, 25, 5027, 123], [ 43, 35, 26, 92, 178, 28, 2, 223, 82, 5240]])

這里是一對數(shù)字。使用 Matplotlib 的matshow()函數(shù),將混淆矩陣以圖像的方式呈現(xiàn),將會更加方便。

plt.matshow(conf_mx, cmap=plt.cm.gray) plt.show()

這個混淆矩陣看起來相當(dāng)好,因為大多數(shù)的圖片在主對角線上。在主對角線上意味著被分類正確。數(shù)字 5 對應(yīng)的格子看起來比其他數(shù)字要暗淡許多。這可能是數(shù)據(jù)集當(dāng)中數(shù)字 5 的圖片比較少,又或者是分類器對于數(shù)字 5 的表現(xiàn)不如其他數(shù)字那么好。你可以驗證兩種情況。

讓我們關(guān)注僅包含誤差數(shù)據(jù)的圖像呈現(xiàn)。首先你需要將混淆矩陣的每一個值除以相應(yīng)類別的圖片的總數(shù)目。這樣子,你可以比較錯誤率,而不是絕對的錯誤數(shù)(這對大的類別不公平)。

row_sums = conf_mx.sum(axis=1, keepdims=True) norm_conf_mx = conf_mx / row_sums

現(xiàn)在讓我們用 0 來填充對角線。這樣子就只保留了被錯誤分類的數(shù)據(jù)。讓我們畫出這個結(jié)果。

np.fill_diagonal(norm_conf_mx, 0) plt.matshow(norm_conf_mx, cmap=plt.cm.gray) plt.show()

現(xiàn)在你可以清楚看出分類器制造出來的各類誤差。記?。盒写韺嶋H類別,列代表預(yù)測的類別。第 8、9 列相當(dāng)亮,這告訴你許多圖片被誤分成數(shù)字 8 或者數(shù)字 9。相似的,第 8、9 行也相當(dāng)亮,告訴你數(shù)字 8、數(shù)字 9 經(jīng)常被誤以為是其他數(shù)字。相反,一些行相當(dāng)黑,比如第一行:這意味著大部分的數(shù)字 1 被正確分類(一些被誤分類為數(shù)字 8 )。留意到誤差圖不是嚴(yán)格對稱的。舉例子,比起將數(shù)字 8 誤分類為數(shù)字 5 的數(shù)量,有更多的數(shù)字 5 被誤分類為數(shù)字 8。

分析混淆矩陣通常可以給你提供深刻的見解去改善你的分類器?;仡欉@幅圖,看樣子你應(yīng)該努力改善分類器在數(shù)字 8 和數(shù)字 9 上的表現(xiàn),和糾正 3/5 的混淆。舉例子,你可以嘗試去收集更多的數(shù)據(jù),或者你可以構(gòu)造新的、有助于分類器的特征。舉例子,寫一個算法去數(shù)閉合的環(huán)(比如,數(shù)字 8 有兩個環(huán),數(shù)字 6 有一個, 5 沒有)。又或者你可以預(yù)處理圖片(比如,使用 Scikit-Learn,Pillow, OpenCV)去構(gòu)造一個模式,比如閉合的環(huán)。

分析獨特的誤差,是獲得關(guān)于你的分類器是如何工作及其為什么失敗的洞見的一個好途徑。但是這相對難和耗時。舉例子,我們可以畫出數(shù)字 3 和 5 的例子

cl_a, cl_b = 3, 5 X_aa = X_train[(y_train == cl_a) & (y_train_pred == cl_a)] X_ab = X_train[(y_train == cl_a) & (y_train_pred == cl_b)] X_ba = X_train[(y_train == cl_b) & (y_train_pred == cl_a)] X_bb = X_train[(y_train == cl_b) & (y_train_pred == cl_b)] plt.figure(figsize=(8,8)) plt.subplot(221); plot_digits(X_aa[:25], ../images_per_row=5) plt.subplot(222); plot_digits(X_ab[:25], ../images_per_row=5) plt.subplot(223); plot_digits(X_ba[:25], ../images_per_row=5) plt.subplot(224); plot_digits(X_bb[:25], ../images_per_row=5) plt.show()

左邊兩個5*5的塊將數(shù)字識別為 3,右邊的將數(shù)字識別為 5。一些被分類器錯誤分類的數(shù)字(比如左下角和右上角的塊)是書寫地相當(dāng)差,甚至讓人類分類都會覺得很困難(比如第 8 行第 1 列的數(shù)字 5,看起來非常像數(shù)字 3 )。但是,大部分被誤分類的數(shù)字,在我們看來都是顯而易見的錯誤。很難明白為什么分類器會分錯。原因是我們使用的簡單的SGDClassifier,這是一個線性模型。它所做的全部工作就是分配一個類權(quán)重給每一個像素,然后當(dāng)它看到一張新的圖片,它就將加權(quán)的像素強(qiáng)度相加,每個類得到一個新的值。所以,因為 3 和 5 只有一小部分的像素有差異,這個模型很容易混淆它們。

3 和 5 之間的主要差異是連接頂部的線和底部的線的細(xì)線的位置。如果你畫一個 3,連接處稍微向左偏移,分類器很可能將它分類成 5。反之亦然。換一個說法,這個分類器對于圖片的位移和旋轉(zhuǎn)相當(dāng)敏感。所以,減輕 3/5 混淆的一個方法是對圖片進(jìn)行預(yù)處理,確保它們都很好地中心化和不過度旋轉(zhuǎn)。這同樣很可能幫助減輕其他類型的錯誤。

多標(biāo)簽分類

到目前為止,所有的樣例都總是被分配到僅一個類。有些情況下,你也許想讓你的分類器給一個樣例輸出多個類別。比如說,思考一個人臉識別器。如果對于同一張圖片,它識別出幾個人,它應(yīng)該做什么?當(dāng)然它應(yīng)該給每一個它識別出的人貼上一個標(biāo)簽。比方說,這個分類器被訓(xùn)練成識別三個人臉,Alice,Bob,Charlie;然后當(dāng)它被輸入一張含有 Alice 和 Bob 的圖片,它應(yīng)該輸出[1, 0, 1](意思是:Alice 是,Bob 不是,Charlie 是)。這種輸出多個二值標(biāo)簽的分類系統(tǒng)被叫做多標(biāo)簽分類系統(tǒng)。

目前我們不打算深入臉部識別。我們可以先看一個簡單點的例子,僅僅是為了闡明的目的。

from sklearn.neighbors import KNeighborsClassifier y_train_large = (y_train >= 7) y_train_odd = (y_train % 2 == 1) y_multilabel = np.c_[y_train_large, y_train_odd] knn_clf = KNeighborsClassifier() knn_clf.fit(X_train, y_multilabel)

這段代碼創(chuàng)造了一個y_multilabel數(shù)組,里面包含兩個目標(biāo)標(biāo)簽。第一個標(biāo)簽指出這個數(shù)字是否為大數(shù)字(7,8 或者 9),第二個標(biāo)簽指出這個數(shù)字是否是奇數(shù)。接下來幾行代碼會創(chuàng)建一個KNeighborsClassifier樣例(它支持多標(biāo)簽分類,但不是所有分類器都可以),然后我們使用多目標(biāo)數(shù)組來訓(xùn)練它。現(xiàn)在你可以生成一個預(yù)測,然后它輸出兩個標(biāo)簽:

>>> knn_clf.predict([some_digit]) array([[False, True]], dtype=bool)

它工作正確。數(shù)字 5 不是大數(shù)(False),同時是一個奇數(shù)(True)。

有許多方法去評估一個多標(biāo)簽分類器,和選擇正確的量度標(biāo)準(zhǔn),這取決于你的項目。舉個例子,一個方法是對每個個體標(biāo)簽去量度 F1 值(或者前面討論過的其他任意的二分類器的量度標(biāo)準(zhǔn)),然后計算平均值。下面的代碼計算全部標(biāo)簽的平均 F1 值:

>>> y_train_knn_pred = cross_val_predict(knn_clf, X_train, y_train, cv=3) >>> f1_score(y_train, y_train_knn_pred, average="macro") 0.96845540180280221

這里假設(shè)所有標(biāo)簽有著同等的重要性,但可能不是這樣。特別是,如果你的 Alice 的照片比 Bob 或者 Charlie 更多的時候,也許你想讓分類器在 Alice 的照片上具有更大的權(quán)重。一個簡單的選項是:給每一個標(biāo)簽的權(quán)重等于它的支持度(比如,那個標(biāo)簽的樣例的數(shù)目)。為了做到這點,簡單地在上面代碼中設(shè)置average="weighted"。

多輸出分類

我們即將討論的最后一種分類任務(wù)被叫做“多輸出-多類分類”(或者簡稱為多輸出分類)。它是多標(biāo)簽分類的簡單泛化,在這里每一個標(biāo)簽可以是多類別的(比如說,它可以有多于兩個可能值)。

為了說明這點,我們建立一個系統(tǒng),它可以去除圖片當(dāng)中的噪音。它將一張混有噪音的圖片作為輸入,期待它輸出一張干凈的數(shù)字圖片,用一個像素強(qiáng)度的數(shù)組表示,就像 MNIST 圖片那樣。注意到這個分類器的輸出是多標(biāo)簽的(一個像素一個標(biāo)簽)和每個標(biāo)簽可以有多個值(像素強(qiáng)度取值范圍從 0 到 255)。所以它是一個多輸出分類系統(tǒng)的例子。

分類與回歸之間的界限是模糊的,比如這個例子。按理說,預(yù)測一個像素的強(qiáng)度更類似于一個回歸任務(wù),而不是一個分類任務(wù)。而且,多輸出系統(tǒng)不限于分類任務(wù)。你甚至可以讓你一個系統(tǒng)給每一個樣例都輸出多個標(biāo)簽,包括類標(biāo)簽和值標(biāo)簽。

讓我們從 MNIST 的圖片創(chuàng)建訓(xùn)練集和測試集開始,然后給圖片的像素強(qiáng)度添加噪聲,這里是用 NumPy 的randint()函數(shù)。目標(biāo)圖像是原始圖像。

noise = rnd.randint(0, 100, (len(X_train), 784)) noise = rnd.randint(0, 100, (len(X_test), 784)) X_train_mod = X_train + noise X_test_mod = X_test + noise y_train_mod = X_train y_test_mod = X_test

讓我們看一下測試集當(dāng)中的一張圖片(是的,我們在窺探測試集,所以你應(yīng)該馬上鄒眉):

左邊的加噪聲的輸入圖片。右邊是干凈的目標(biāo)圖片?,F(xiàn)在我們訓(xùn)練分類器,讓它清潔這張圖片:

knn_clf.fit(X_train_mod, y_train_mod) clean_digit = knn_clf.predict([X_test_mod[some_index]]) plot_digit(clean_digit)

看起來足夠接近目標(biāo)圖片?,F(xiàn)在總結(jié)我們的分類之旅。希望你現(xiàn)在應(yīng)該知道如何選擇好的量度標(biāo)準(zhǔn),挑選出合適的準(zhǔn)確率/召回率的折衷方案,比較分類器,更概括地說,就是為不同的任務(wù)建立起好的分類系統(tǒng)。

練習(xí)

嘗試在 MNIST 數(shù)據(jù)集上建立一個分類器,使它在測試集上的精度超過 97%。提示:KNeighborsClassifier非常適合這個任務(wù)。你只需要找出一個好的超參數(shù)值(試一下對權(quán)重和超參數(shù)n_neighbors進(jìn)行網(wǎng)格搜索)。

寫一個函數(shù)可以是 MNIST 中的圖像任意方向移動(上下左右)一個像素。然后,對訓(xùn)練集上的每張圖片,復(fù)制四個移動后的副本(每個方向一個副本),把它們加到訓(xùn)練集當(dāng)中去。最后在擴(kuò)展后的訓(xùn)練集上訓(xùn)練你最好的模型,并且在測試集上測量它的精度。你應(yīng)該會觀察到你的模型會有更好的表現(xiàn)。這種人工擴(kuò)大訓(xùn)練集的方法叫做數(shù)據(jù)增強(qiáng),或者訓(xùn)練集擴(kuò)張。

拿 Titanic 數(shù)據(jù)集去搗鼓一番。開始這個項目有一個很棒的平臺:Kaggle!

建立一個垃圾郵件分類器(這是一個更有挑戰(zhàn)性的練習(xí)):

下載垃圾郵件和非垃圾郵件的樣例數(shù)據(jù)。地址是Apache SpamAssassin 的公共數(shù)據(jù)集

解壓這些數(shù)據(jù)集,并且熟悉它的數(shù)據(jù)格式。

將數(shù)據(jù)集分成訓(xùn)練集和測試集

寫一個數(shù)據(jù)準(zhǔn)備的流水線,將每一封郵件轉(zhuǎn)換為特征向量。你的流水線應(yīng)該將一封郵件轉(zhuǎn)換為一個稀疏向量,對于所有可能的詞,這個向量標(biāo)志哪個詞出現(xiàn)了,哪個詞沒有出現(xiàn)。舉例子,如果所有郵件只包含了"Hello","How","are", "you"這四個詞,那么一封郵件(內(nèi)容是:"Hello you Hello Hello you")將會被轉(zhuǎn)換為向量[1, 0, 0, 1](意思是:"Hello"出現(xiàn),"How"不出現(xiàn),"are"不出現(xiàn),"you"出現(xiàn)),或者[3, 0, 0, 2],如果你想數(shù)出每個單詞出現(xiàn)的次數(shù)。

你也許想給你的流水線增加超參數(shù),控制是否剝過郵件頭、將郵件轉(zhuǎn)換為小寫、去除標(biāo)點符號、將所有 URL 替換成"URL",將所有數(shù)字替換成"NUMBER",或者甚至提取詞干(比如,截斷詞尾。有現(xiàn)成的 Python 庫可以做到這點)。

然后 嘗試幾個不同的分類器,看看你可否建立一個很棒的垃圾郵件分類器,同時有著高召回率和高準(zhǔn)確率。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    67

    文章

    8567

    瀏覽量

    137255
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1240

    瀏覽量

    26263
  • tensorflow
    +關(guān)注

    關(guān)注

    13

    文章

    336

    瀏覽量

    62398

原文標(biāo)題:【翻譯】Sklearn 與 TensorFlow 機(jī)器學(xué)習(xí)實用指南 —— 第3章 分類(下)

文章出處:【微信號:AI_shequ,微信公眾號:人工智能愛好者社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    【下載】《機(jī)器學(xué)習(xí)》+《機(jī)器學(xué)習(xí)實戰(zhàn)》

    、謀發(fā)展的決定性手段,這使得這一過去為分析師和數(shù)學(xué)家所專屬的研究領(lǐng)域越來越為人們所矚目。本書第一部分主要介紹機(jī)器學(xué)習(xí)基礎(chǔ),以及如何利用算法進(jìn)行分類,并逐步介紹了多種經(jīng)典的監(jiān)督
    發(fā)表于 06-01 15:49

    機(jī)器學(xué)習(xí)實踐指南——案例應(yīng)用解析

    機(jī)器學(xué)習(xí)實踐指南——案例應(yīng)用解析
    發(fā)表于 04-13 16:40

    常用python機(jī)器學(xué)習(xí)庫盤點

    ,詞性的解析,分類,語義解釋,概率分析還有評估。2.scikit-learnPython社區(qū)里面機(jī)器學(xué)習(xí)模塊sklearn,內(nèi)置了很多算法,幾乎實現(xiàn)了所有基本
    發(fā)表于 05-10 15:20

    如何使用Arm CMSIS-DSP實現(xiàn)經(jīng)典機(jī)器學(xué)習(xí)

    和循環(huán),而那很難解釋它們是如何達(dá)到它們的結(jié)論。 機(jī)器學(xué)習(xí)領(lǐng)域包括神經(jīng)網(wǎng)絡(luò)以外的技術(shù)。其他技術(shù)可能以不同的名稱使用,例如統(tǒng)計機(jī)器 學(xué)習(xí)。在本指南
    發(fā)表于 08-02 07:12

    誤差分類及特點

    誤差從性質(zhì)上分類、特點 誤差從性質(zhì)上可分為三大,即:系統(tǒng)誤差 隨機(jī)(偶然)誤差 疏失
    發(fā)表于 09-18 01:12 ?1.4w次閱讀

    標(biāo)記學(xué)習(xí)分類器圈方法

    如何利用標(biāo)記間關(guān)系來提高學(xué)習(xí)性能,是標(biāo)記學(xué)習(xí)領(lǐng)域的一個重要問題.分類器鏈方法及其變型是解決這類問題的一個有效技術(shù).然而,它的學(xué)習(xí)過程需要預(yù)
    發(fā)表于 01-22 16:14 ?0次下載

    閾值分類器組合的標(biāo)簽分類算法

    ,證明了該算法能克服固定分段閾值分類器對分類邊界附近點分類不穩(wěn)定的缺點從而提高分類準(zhǔn)確率;然后,采用二分類(BR)方法將該單標(biāo)簽
    發(fā)表于 01-22 17:01 ?1次下載

    關(guān)于機(jī)器學(xué)習(xí)PCA算法的主成分分析

    人工智能機(jī)器學(xué)習(xí)有關(guān)算法內(nèi)容,人工智能之機(jī)器學(xué)習(xí)主要有三大:1)分類;2)回歸;3)聚
    發(fā)表于 06-27 17:23 ?3611次閱讀

    關(guān)于機(jī)器學(xué)習(xí)的相關(guān)分析介紹

    應(yīng)用機(jī)器學(xué)習(xí)處理大數(shù)據(jù)的工具和應(yīng)用程序中,MATLAB 是一個理想的數(shù)據(jù)分析環(huán)境。使用 MATLAB,您可以立即訪問預(yù)置的函數(shù)、大量的工具箱以及用于分類、回歸和聚
    的頭像 發(fā)表于 09-16 11:32 ?3371次閱讀
    關(guān)于<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>的相關(guān)<b class='flag-5'>分析</b>介紹

    各類機(jī)器學(xué)習(xí)分類算法的優(yōu)點與缺點分析

    機(jī)器學(xué)習(xí)中有許多分類算法。本文將介紹分類中使用的各種機(jī)器學(xué)習(xí)算法的優(yōu)缺點,還將列出他們的應(yīng)用范圍
    發(fā)表于 03-02 09:50 ?4367次閱讀

    機(jī)器學(xué)習(xí)的范圍/算法/分類

    什么是機(jī)器學(xué)習(xí)?機(jī)器學(xué)習(xí)是英文名稱MachineLearning(簡稱ML)的直譯。機(jī)器學(xué)習(xí)涉及
    發(fā)表于 01-21 09:29 ?4104次閱讀

    機(jī)器學(xué)習(xí)之關(guān)聯(lián)分析介紹

    數(shù)據(jù)挖掘中應(yīng)用較多的技術(shù)是機(jī)器學(xué)習(xí)機(jī)器學(xué)習(xí)主流算法包括三種:關(guān)聯(lián)分析、分類
    的頭像 發(fā)表于 03-25 14:13 ?2899次閱讀

    機(jī)器學(xué)習(xí)分類分析與聚類分析

    數(shù)據(jù)挖掘中應(yīng)用較多的技術(shù)機(jī)器學(xué)習(xí)機(jī)器學(xué)習(xí)主流算法包括三種:關(guān)聯(lián)分析、分類
    的頭像 發(fā)表于 03-27 14:13 ?6942次閱讀

    機(jī)器學(xué)習(xí)算法匯總 機(jī)器學(xué)習(xí)算法分類 機(jī)器學(xué)習(xí)算法模型

    機(jī)器學(xué)習(xí)算法匯總 機(jī)器學(xué)習(xí)算法分類 機(jī)器學(xué)習(xí)算法模型
    的頭像 發(fā)表于 08-17 16:11 ?2267次閱讀

    機(jī)器學(xué)習(xí)有哪些算法?機(jī)器學(xué)習(xí)分類算法有哪些?機(jī)器學(xué)習(xí)預(yù)判有哪些算法?

    機(jī)器學(xué)習(xí)有哪些算法?機(jī)器學(xué)習(xí)分類算法有哪些?機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 08-17 16:30 ?3114次閱讀
    讷河市| 宜君县| 南汇区| 思茅市| 循化| 分宜县| 安达市| 垣曲县| 彭水| 铁力市| 绥滨县| 辉南县| 昌乐县| 图们市| 白山市| 射洪县| 荔波县| 同德县| 防城港市| 克东县| 无为县| 额济纳旗| 永州市| 宿迁市| 日照市| 巧家县| 乳源| 泾川县| 巫溪县| 赣榆县| 论坛| 丰县| 翁牛特旗| 隆昌县| 新巴尔虎右旗| 明溪县| 青河县| 阿城市| 勐海县| 根河市| 温州市|