日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機器學習回歸模型相關(guān)重要知識點總結(jié)

穎脈Imgtec ? 2022-11-10 10:02 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

來源:機器學習研習院


回歸分析為許多機器學習算法提供了堅實的基礎(chǔ)。在這篇文章中,我們將總結(jié) 10 個重要的回歸問題和5個重要的回歸問題的評價指標。

1、線性回歸的假設(shè)是什么?

線性回歸有四個假設(shè)

  • 線性:自變量(x)和因變量(y)之間應該存在線性關(guān)系,這意味著x值的變化也應該在相同方向上改變y值。
  • 獨立性:特征應該相互獨立,這意味著最小的多重共線性。
  • 正態(tài)性:殘差應該是正態(tài)分布的。
  • 同方差性:回歸線周圍數(shù)據(jù)點的方差對于所有值應該相同。

2、什么是殘差,它如何用于評估回歸模型?

殘差是指預測值與觀測值之間的誤差。它測量數(shù)據(jù)點與回歸線的距離。它是通過從觀察值中減去預測值的計算機。

殘差圖是評估回歸模型的好方法。它是一個圖表,在垂直軸上顯示所有殘差,在 x 軸上顯示特征。如果數(shù)據(jù)點隨機散布在沒有圖案的線上,那么線性回歸模型非常適合數(shù)據(jù),否則我們應該使用非線性模型。

b86d7f22-5f80-11ed-b116-dac502259ad0.png

3、如何區(qū)分線性回歸模型和非線性回歸模型?

兩者都是回歸問題的類型。兩者的區(qū)別在于他們訓練的數(shù)據(jù)。

線性回歸模型假設(shè)特征和標簽之間存在線性關(guān)系,這意味著如果我們獲取所有數(shù)據(jù)點并將它們繪制成線性(直線)線應該適合數(shù)據(jù)。

非線性回歸模型假設(shè)變量之間沒有線性關(guān)系。非線性(曲線)線應該能夠正確地分離和擬合數(shù)據(jù)。b8966e6e-5f80-11ed-b116-dac502259ad0.png找出數(shù)據(jù)是線性還是非線性的三種最佳方法 -

殘差圖

  1. 散點圖
  2. 假設(shè)數(shù)據(jù)是線性的,訓練一個線性模型并通過準確率進行評估。

4、什么是多重共線性,它如何影響模型性能?

當某些特征彼此高度相關(guān)時,就會發(fā)生多重共線性。相關(guān)性是指表示一個變量如何受到另一個變量變化影響的度量。

如果特征 a 的增加導致特征 b 的增加,那么這兩個特征是正相關(guān)的。如果 a 的增加導致特征 b 的減少,那么這兩個特征是負相關(guān)的。在訓練數(shù)據(jù)上有兩個高度相關(guān)的變量會導致多重共線性,因為它的模型無法在數(shù)據(jù)中找到模式,從而導致模型性能不佳。所以在訓練模型之前首先要盡量消除多重共線性。

5、異常值如何影響線性回歸模型的性能?

異常值是值與數(shù)據(jù)點的平均值范圍不同的數(shù)據(jù)點。換句話說,這些點與數(shù)據(jù)不同或在第 3 標準之外。b8a887e8-5f80-11ed-b116-dac502259ad0.png線性回歸模型試圖找到一條可以減少殘差的最佳擬合線。如果數(shù)據(jù)包含異常值,則最佳擬合線將向異常值移動一點,從而增加錯誤率并得出具有非常高 MSE 的模型。

6、什么是 MSE 和 MAE 有什么區(qū)別?

MSE 代表均方誤差,它是實際值和預測值之間的平方差。而 MAE 是目標值和預測值之間的絕對差。

MSE 會懲罰大錯誤,而 MAE 不會。隨著 MSE 和 MAE 的值都降低,模型趨向于一條更好的擬合線。

7、L1 和 L2 正則化是什么,應該在什么時候使用?

在機器學習中,我們的主要目標是創(chuàng)建一個可以在訓練和測試數(shù)據(jù)上表現(xiàn)更好的通用模型,但是在數(shù)據(jù)非常少的情況下,基本的線性回歸模型往往會過度擬合,因此我們會使用 l1 和l2 正則化。L1 正則化或 lasso 回歸通過在成本函數(shù)內(nèi)添加添加斜率的絕對值作為懲罰項。有助于通過刪除斜率值小于閾值的所有數(shù)據(jù)點來去除異常值。

L2 正則化或ridge 回歸增加了相當于系數(shù)大小平方的懲罰項。它會懲罰具有較高斜率值的特征。

l1 和 l2 在訓練數(shù)據(jù)較少、方差高、預測特征大于觀察值以及數(shù)據(jù)存在多重共線性的情況下都很有用。

8、異方差是什么意思?

它是指最佳擬合線周圍的數(shù)據(jù)點的方差在一個范圍內(nèi)不一樣的情況。它導致殘差的不均勻分散。如果它存在于數(shù)據(jù)中,那么模型傾向于預測無效輸出。檢驗異方差的最好方法之一是繪制殘差圖。

數(shù)據(jù)內(nèi)部異方差的最大原因之一是范圍特征之間的巨大差異。例如,如果我們有一個從 1 到 100000 的列,那么將值增加 10% 不會改變較低的值,但在較高的值時則會產(chǎn)生非常大的差異,從而產(chǎn)生很大的方差差異的數(shù)據(jù)點。

9、方差膨脹因子的作用是什么的作用是什么?

方差膨脹因子(vif)用于找出使用其他自變量可預測自變量的程度。

讓我們以具有 v1、v2、v3、v4、v5 和 v6 特征的示例數(shù)據(jù)為例。現(xiàn)在,為了計算 v1 的 vif,將其視為一個預測變量,并嘗試使用所有其他預測變量對其進行預測。如果 VIF 的值很小,那么最好從數(shù)據(jù)中刪除該變量。因為較小的值表示變量之間的高相關(guān)性。

10、逐步回歸(stepwise regression)如何工作?

逐步回歸是在假設(shè)檢驗的幫助下,通過移除或添加預測變量來創(chuàng)建回歸模型的一種方法。它通過迭代檢驗每個自變量的顯著性來預測因變量,并在每次迭代之后刪除或添加一些特征。它運行n次,并試圖找到最佳的參數(shù)組合,以預測因變量的觀測值和預測值之間的誤差最小。

它可以非常高效地管理大量數(shù)據(jù),并解決高維問題。

11、除了MSE 和 MAE 外回歸還有什么重要的指標嗎?

b8b508ba-5f80-11ed-b116-dac502259ad0.png我們用一個回歸問題來介紹這些指標,我們的其中輸入是工作經(jīng)驗,輸出是薪水。下圖顯示了為預測薪水而繪制的線性回歸線。b8c34a88-5f80-11ed-b116-dac502259ad0.png

1、平均絕對誤差(MAE):

b8cf968a-5f80-11ed-b116-dac502259ad0.png平均絕對誤差 (MAE) 是最簡單的回歸度量。它將每個實際值和預測值的差值相加,最后除以觀察次數(shù)。為了使回歸模型被認為是一個好的模型,MAE 應該盡可能小。MAE的優(yōu)點是:簡單易懂。結(jié)果將具有與輸出相同的單位。例如:如果輸出列的單位是 LPA,那么如果 MAE 為 1.2,那么我們可以解釋結(jié)果是 +1.2LPA 或 -1.2LPA,MAE 對異常值相對穩(wěn)定(與其他一些回歸指標相比,MAE 受異常值的影響較?。?。MAE的缺點是:MAE使用的是模函數(shù),但模函數(shù)不是在所有點處都可微的,所以很多情況下不能作為損失函數(shù)。

2、均方誤差(MSE):

b8e1f0f0-5f80-11ed-b116-dac502259ad0.pngMSE取每個實際值和預測值之間的差值,然后將差值平方并將它們相加,最后除以觀測數(shù)量。為了使回歸模型被認為是一個好的模型,MSE 應該盡可能小。MSE的優(yōu)點:平方函數(shù)在所有點上都是可微的,因此它可以用作損失函數(shù)。MSE的缺點:由于 MSE 使用平方函數(shù),結(jié)果的單位是輸出的平方。因此很難解釋結(jié)果。由于它使用平方函數(shù),如果數(shù)據(jù)中有異常值,則差值也會被平方,因此,MSE 對異常值不穩(wěn)定。

3、均方根誤差 (RMSE):

b8f03a84-5f80-11ed-b116-dac502259ad0.png均方根誤差(RMSE)取每個實際值和預測值之間的差值,然后將差值平方并將它們相加,最后除以觀測數(shù)量。然后取結(jié)果的平方根。因此,RMSE 是 MSE 的平方根。為了使回歸模型被認為是一個好的模型,RMSE 應該盡可能小。RMSE 解決了 MSE 的問題,單位將與輸出的單位相同,因為它取平方根,但仍然對異常值不那么穩(wěn)定。

上述指標取決于我們正在解決的問題的上下文, 我們不能在不了解實際問題的情況下,只看 MAE、MSE 和 RMSE 的值來判斷模型的好壞。

4、R2 score:

b907f3cc-5f80-11ed-b116-dac502259ad0.png如果我們沒有任何輸入數(shù)據(jù),但是想知道他在這家公司能拿到多少薪水,那么我們能做的最好的事情就是給他們所有員工薪水的平均值。b9226b1c-5f80-11ed-b116-dac502259ad0.pngR2 score 給出的值介于 0 到 1 之間,可以針對任何上下文進行解釋。它可以理解為是擬合度的好壞。SSR 是回歸線的誤差平方和,SSM 是均線誤差的平方和。我們將回歸線與平均線進行比較。b9315e60-5f80-11ed-b116-dac502259ad0.png

  • 如果 R2 得分為 0,則意味著我們的模型與平均線的結(jié)果是相同的,因此需要改進我們的模型。
  • 如果 R2 得分為 1,則等式的右側(cè)部分變?yōu)?0,這只有在我們的模型適合每個數(shù)據(jù)點并且沒有出現(xiàn)誤差時才會發(fā)生。
  • 如果 R2 得分為負,則表示等式右側(cè)大于 1,這可能發(fā)生在 SSR > SSM 時。這意味著我們的模型比平均線最差,也就是說我們的模型還不如取平均數(shù)進行預測

如果我們模型的 R2 得分為 0.8,這意味著可以說模型能夠解釋 80% 的輸出方差。也就是說,80%的工資變化可以用輸入(工作年限)來解釋,但剩下的20%是未知的。如果我們的模型有2個特征,工作年限和面試分數(shù),那么我們的模型能夠使用這兩個輸入特征解釋80%的工資變化。R2的缺點:隨著輸入特征數(shù)量的增加,R2會趨于相應的增加或者保持不變,但永遠不會下降,即使輸入特征對我們的模型不重要(例如,將面試當天的氣溫添加到我們的示例中,R2是不會下降的即使溫度對輸出不重要)。

5、Adjusted R2 score:

上式中R2為R2,n為觀測數(shù)(行),p為獨立特征數(shù)。Adjusted R2解決了R2的問題。當我們添加對我們的模型不那么重要的特性時,比如添加溫度來預測工資.....b942e45a-5f80-11ed-b116-dac502259ad0.png當添加對模型很重要的特性時,比如添加面試分數(shù)來預測工資……b9592fc6-5f80-11ed-b116-dac502259ad0.png

以上就是回歸問題的重要知識點和解決回歸問題使用的各種重要指標的介紹及其優(yōu)缺點,希望對你有所幫助。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器學習
    +關(guān)注

    關(guān)注

    67

    文章

    8567

    瀏覽量

    137256
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    關(guān)于車速傳感器磁鐵的一些知識點

    車速傳感器磁鐵在測量車輛速度中扮演著至關(guān)重要的角色,通過與霍爾效應傳感器或磁阻傳感器配合使用,利用磁場變化來生成信號,進而反映車速,今天來介紹下車速傳感器磁鐵的幾個關(guān)鍵知識點。首先,磁鐵材質(zhì)方面
    的頭像 發(fā)表于 04-29 10:40 ?83次閱讀
    關(guān)于車速傳感器磁鐵的一些<b class='flag-5'>知識點</b>

    AI 算法核心知識清單(深度實戰(zhàn)版2)

    三、機器學習核心算法(入門到實戰(zhàn))?1.監(jiān)督學習算法(已知標簽的模型訓練)?線性模型?線性回歸
    的頭像 發(fā)表于 04-24 11:58 ?220次閱讀
    AI 算法核心<b class='flag-5'>知識</b>清單(深度實戰(zhàn)版2)

    示波器小知識點

    示波器的系統(tǒng)帶寬:是指一個逐漸升高頻率的正弦輸入信號顯示幅度下降3dB時的頻率。測試信號一般是方波,而方波信號由基波及奇次諧波組成。如果用示波器去測一個方波,需要注意示波器應從頻率上能夠測量到它
    的頭像 發(fā)表于 04-16 11:04 ?114次閱讀
    示波器小<b class='flag-5'>知識點</b>

    【黑金云課堂筆記】第三期知識點總結(jié)

    ,對 FPGA 免費直播課的熱情也感染到了黑金云課堂的老師們。接下來我們會再接再厲,把每一期直播都做得更扎實 ? 更多精彩課程歡迎關(guān)注我們 黑金云課堂全年免費直播課 ,現(xiàn)在讓我們先來回顧一下上周的知識點精華—— ? 數(shù)據(jù)類型 常量 進制表示:二進制(b/B)、八進制(o/
    的頭像 發(fā)表于 04-01 16:08 ?209次閱讀
    【黑金云課堂筆記】第三期<b class='flag-5'>知識點</b><b class='flag-5'>總結(jié)</b>

    機器學習和深度學習中需避免的 7 個常見錯誤與局限性

    無論你是剛?cè)腴T還是已經(jīng)從事人工智能模型相關(guān)工作一段時間,機器學習和深度學習中都存在一些我們需要時刻關(guān)注并銘記的常見錯誤。如果對這些錯誤置之不
    的頭像 發(fā)表于 01-07 15:37 ?367次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學習</b>和深度<b class='flag-5'>學習</b>中需避免的 7 個常見錯誤與局限性

    自動駕駛模型是如何“看”懂云信息的?

    圖像那樣有整齊的像素網(wǎng)格,也沒有顏色(除非和相機融合),更沒有直接的語義標記。 機器要“學會”云里的東西,不僅要解決輸入怎么表示成模型能接受的數(shù)值結(jié)構(gòu),還要學習如何把人類的語義(比如
    的頭像 發(fā)表于 11-29 10:25 ?2088次閱讀
    自動駕駛<b class='flag-5'>模型</b>是如何“看”懂<b class='flag-5'>點</b>云信息的?

    知識分享 | 使用MXAM進行AUTOSAR模型的靜態(tài)分析:Embedded Coder與TargetLink模型

    知識分享在知識分享欄目中,我們會定期與讀者分享來自MES模賽思的基于模型的軟件開發(fā)相關(guān)Know-How干貨,關(guān)注公眾號,隨時掌握基于模型的軟
    的頭像 發(fā)表于 08-27 10:04 ?905次閱讀
    <b class='flag-5'>知識</b>分享 | 使用MXAM進行AUTOSAR<b class='flag-5'>模型</b>的靜態(tài)分析:Embedded Coder與TargetLink<b class='flag-5'>模型</b>

    AI 驅(qū)動三維逆向:云降噪算法工具與機器學習建模能力的前沿應用

    在三維逆向工程領(lǐng)域,傳統(tǒng)方法在處理復雜數(shù)據(jù)和構(gòu)建高精度模型時面臨諸多挑戰(zhàn)。隨著人工智能(AI)技術(shù)的發(fā)展,云降噪算法工具與機器學習建模能力的應用,為三維逆向工程帶來了創(chuàng)新性解決方案,
    的頭像 發(fā)表于 08-20 10:00 ?882次閱讀
    AI 驅(qū)動三維逆向:<b class='flag-5'>點</b>云降噪算法工具與<b class='flag-5'>機器</b><b class='flag-5'>學習</b>建模能力的前沿應用

    【「Yocto項目實戰(zhàn)教程:高效定制嵌入式Linux系統(tǒng)」閱讀體驗】+基礎(chǔ)概念學習理解

    指導。 三、讀后感 這本書內(nèi)容豐富且實用,完全可以當作我的工具書。當項目中涉及到相關(guān)知識時,我能夠快速從中找到常用的知識點,為解決實際問題提供有力的支持。
    發(fā)表于 08-04 22:29

    超小型Neuton機器學習模型, 在任何系統(tǒng)級芯片(SoC)上解鎖邊緣人工智能應用.

    Neuton 是一家邊緣AI 公司,致力于讓機器 學習模型更易于使用。它創(chuàng)建的模型比競爭對手的框架小10 倍,速度也快10 倍,甚至可以在最先進的邊緣設(shè)備上進行人工智能處理。在這篇博文
    發(fā)表于 07-31 11:38

    任正非說 AI已經(jīng)確定是第四次工業(yè)革命 那么如何從容地加入進來呢?

    從簡單的AI應用入手,如使用機器學習算法進行房價預測。收集當?shù)胤績r的相關(guān)數(shù)據(jù),包括面積、房齡、周邊設(shè)施等信息,然后選擇合適的回歸算法(如線性回歸
    發(fā)表于 07-08 17:44

    【嘉楠堪智K230開發(fā)板試用體驗】K230機器視覺相關(guān)功能體驗

    K230開發(fā)板攝像頭及AI功能測評 攝像頭作為機器視覺應用的基礎(chǔ),能夠給機器學習模型提供輸入,提供輸入的質(zhì)量直接影響機器
    發(fā)表于 07-08 17:25

    最新人工智能硬件培訓AI基礎(chǔ)入門學習課程參考2025版(離線AI語音視覺識別篇)

    視覺開發(fā)板開箱即用的離線AI能力,分類列出學習課程知識點和實操參考,希望能夠幫助大家快速掌握離線 AI 智能硬件的基礎(chǔ)知識與實戰(zhàn)技能,同時了解相關(guān)AI技術(shù)在實際場景的應用情況。正文按入
    發(fā)表于 07-04 11:14

    最新人工智能硬件培訓AI 基礎(chǔ)入門學習課程參考2025版(大模型篇)

    教育等領(lǐng)域發(fā)揮著越來越重要的作用。?針對日前前來咨詢的廣大客戶對面向大模型智能硬件的學習需求,我們根據(jù)CSK6大模型語音視覺開發(fā)板已有功能,整理了一份適合基于本開發(fā)板進行教學活動的
    發(fā)表于 07-04 11:10

    【「Yocto項目實戰(zhàn)教程:高效定制嵌入式Linux系統(tǒng)」閱讀體驗】01初讀體驗

    已閱讀部分 由于知識點屬于循序漸進,目前花了幾天時間讀到了第4章, 第一章到第二章,主要講yocto相關(guān)的背景知識,主要講解linux系統(tǒng)以及yocto相關(guān)的概念,
    發(fā)表于 06-30 21:49
    静海县| 浦江县| 尚志市| 淅川县| 巴彦县| 五莲县| 宣城市| 诏安县| 梨树县| 正安县| 桐庐县| 五常市| 和平县| 和林格尔县| 山阳县| 广东省| 定结县| 乌兰县| 铜陵市| 扬州市| 云南省| 海南省| 贵阳市| 临朐县| 海兴县| 大港区| 太保市| 禹城市| 横山县| 翁源县| 海兴县| 湘阴县| 静宁县| 伊金霍洛旗| 分宜县| 田林县| 云浮市| 永定县| 阿坝| 布尔津县| 广宁县|