日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

可以提高機(jī)器學(xué)習(xí)模型的可解釋性技術(shù)

QQ475400555 ? 來源:機(jī)器視覺沙龍 ? 2023-02-08 14:08 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

目前很多機(jī)器學(xué)習(xí)模型可以做出非常好的預(yù)測,但是它們并不能很好地解釋他們是如何進(jìn)行預(yù)測的,很多數(shù)據(jù)科學(xué)家都很難知曉為什么該算法會得到這樣的預(yù)測結(jié)果。這是非常致命的,因為如果我們無法知道某個算法是如何進(jìn)行預(yù)測,那么我們將很難將其前一道其它的問題中,很難進(jìn)行算法的debug。

本文介紹目前常見的幾種可以提高機(jī)器學(xué)習(xí)模型的可解釋性的技術(shù),包括它們的相對優(yōu)點和缺點。我們將其分為下面幾種:

Partial Dependence Plot (PDP);

Individual Conditional Expectation (ICE)

Permuted Feature Importance

Global Surrogate

Local Surrogate (LIME)

Shapley Value (SHAP)

六大可解釋性技術(shù) 8c86894c-a20d-11ed-bfe3-dac502259ad0.png

01

Partial Dependence Plot (PDP)

PDP是十幾年之前發(fā)明的,它可以顯示一個或兩個特征對機(jī)器學(xué)習(xí)模型的預(yù)測結(jié)果的邊際效應(yīng)。它可以幫助研究人員確定當(dāng)大量特征調(diào)整時,模型預(yù)測會發(fā)生什么樣的變化。

8c9ef400-a20d-11ed-bfe3-dac502259ad0.png

上面圖中,軸表示特征的值,軸表示預(yù)測值。陰影區(qū)域中的實線顯示了平均預(yù)測如何隨著值的變化而變化。PDP能很直觀地顯示平均邊際效應(yīng),因此可能會隱藏異質(zhì)效應(yīng)。

例如,一個特征可能與一半數(shù)據(jù)的預(yù)測正相關(guān),與另一半數(shù)據(jù)負(fù)相關(guān)。那么PDP圖將只是一條水平線。

02

Individual Conditional Expectation (ICE)

ICE和PDP非常相似,但和PDP不同之處在于,PDP繪制的是平均情況,但是ICE會顯示每個實例的情況。ICE可以幫助我們解釋一個特定的特征改變時,模型的預(yù)測會怎么變化。

8cb12472-a20d-11ed-bfe3-dac502259ad0.png

如上圖所示,與PDP不同,ICE曲線可以揭示異質(zhì)關(guān)系。但其最大的問題在于:它不能像PDP那樣容易看到平均效果,所以可以考慮將二者結(jié)合起來一起使用。

03

Permuted Feature Importance

Permuted Feature Importance的特征重要性是通過特征值打亂后模型預(yù)測誤差的變化得到的。換句話說,Permuted Feature Importance有助于定義模型中的特征對最終預(yù)測做出貢獻(xiàn)的大小。

8cc51888-a20d-11ed-bfe3-dac502259ad0.png

如上圖所示,特征f2在特征的最上面,對模型的誤差影響是最大的,f1在shuffle之后對模型卻幾乎沒什么影響,生息的特征則對于模型是負(fù)面的貢獻(xiàn)。

04

Global Surrogate

Global Surrogate方法采用不同的方法。它通過訓(xùn)練一個可解釋的模型來近似黑盒模型的預(yù)測。

首先,我們使用經(jīng)過訓(xùn)練的黑盒模型對數(shù)據(jù)集進(jìn)行預(yù)測;

然后我們在該數(shù)據(jù)集和預(yù)測上訓(xùn)練可解釋的模型。

訓(xùn)練好的可解釋模型可以近似原始模型,我們需要做的就是解釋該模型。

注:代理模型可以是任何可解釋的模型:線性模型、決策樹、人類定義的規(guī)則等。

8cd69950-a20d-11ed-bfe3-dac502259ad0.png

使用可解釋的模型來近似黑盒模型會引入額外的誤差,但額外的誤差可以通過R平方來衡量。

由于代理模型僅根據(jù)黑盒模型的預(yù)測而不是真實結(jié)果進(jìn)行訓(xùn)練,因此全局代理模型只能解釋黑盒模型,而不能解釋數(shù)據(jù)。

05

Local Surrogate (LIME)

LIME(Local Interpretable Model-agnostic Explanations)和global surrogate是不同的,因為它不嘗試解釋整個模型。相反,它訓(xùn)練可解釋的模型來近似單個預(yù)測。LIME試圖了解當(dāng)我們擾亂數(shù)據(jù)樣本時預(yù)測是如何變化的。

8ce83110-a20d-11ed-bfe3-dac502259ad0.jpg

上面左邊的圖像被分成可解釋的部分。然后,LIME 通過“關(guān)閉”一些可解釋的組件(在這種情況下,使它們變灰)來生成擾動實例的數(shù)據(jù)集。對于每個擾動實例,可以使用經(jīng)過訓(xùn)練的模型來獲取圖像中存在樹蛙的概率,然后在該數(shù)據(jù)集上學(xué)習(xí)局部加權(quán)線性模型。最后,使用具有最高正向權(quán)重的成分來作為解釋。

06

Shapley Value (SHAP)

Shapley Value的概念來自博弈論。我們可以通過假設(shè)實例的每個特征值是游戲中的“玩家”來解釋預(yù)測。每個玩家的貢獻(xiàn)是通過在其余玩家的所有子集中添加和刪除玩家來衡量的。一名球員的Shapley Value是其所有貢獻(xiàn)的加權(quán)總和。Shapley 值是可加的,局部準(zhǔn)確的。如果將所有特征的Shapley值加起來,再加上基值,即預(yù)測平均值,您將得到準(zhǔn)確的預(yù)測值。這是許多其他方法所沒有的功能。

8d168c90-a20d-11ed-bfe3-dac502259ad0.png

該圖顯示了每個特征的Shapley值,表示將模型結(jié)果從基礎(chǔ)值推到最終預(yù)測的貢獻(xiàn)。紅色表示正面貢獻(xiàn),藍(lán)色表示負(fù)面貢獻(xiàn)。

小結(jié)

機(jī)器學(xué)習(xí)模型的可解釋性是機(jī)器學(xué)習(xí)中一個非?;钴S而且重要的研究領(lǐng)域。本文中我們介紹了6種常用的用于理解機(jī)器學(xué)習(xí)模型的算法。大家可以依據(jù)自己的實踐場景進(jìn)行使用。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • PDP
    PDP
    +關(guān)注

    關(guān)注

    0

    文章

    53

    瀏覽量

    37019
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    67

    文章

    8567

    瀏覽量

    137256

原文標(biāo)題:機(jī)器學(xué)習(xí)模型的可解釋性算法匯總!

文章出處:【微信號:機(jī)器視覺沙龍,微信公眾號:機(jī)器視覺沙龍】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    人工智能多模態(tài)與視覺大模型開發(fā)實戰(zhàn) - 2026必會

    和魯棒。同時,還會學(xué)習(xí)到如何使用數(shù)據(jù)增強(qiáng)技術(shù)擴(kuò)充數(shù)據(jù)集,進(jìn)一步提升模型的泛化能力。 部署應(yīng)用:讓視覺大模型落地生根
    發(fā)表于 04-15 16:06

    強(qiáng)化學(xué)習(xí)會讓自動駕駛模型學(xué)習(xí)更快嗎?

    [首發(fā)于智駕最前沿微信公眾號]在談及自動駕駛大模型訓(xùn)練時,有的技術(shù)方案會采用模仿學(xué)習(xí),而有些會采用強(qiáng)化學(xué)習(xí)。同樣作為大模型的訓(xùn)練方式,強(qiáng)化
    的頭像 發(fā)表于 01-31 09:34 ?853次閱讀
    強(qiáng)化<b class='flag-5'>學(xué)習(xí)</b>會讓自動駕駛<b class='flag-5'>模型</b><b class='flag-5'>學(xué)習(xí)</b>更快嗎?

    谷歌正式發(fā)布Gemma Scope 2模型

    Scope 工具包推動了可解釋性科學(xué)的發(fā)展,該工具旨在幫助研究人員理解我們輕量級開放模型系列 Gemma 2 的內(nèi)部運作機(jī)制。
    的頭像 發(fā)表于 01-24 14:01 ?765次閱讀

    基于ETAS嵌入式AI工具鏈將機(jī)器學(xué)習(xí)模型部署到量產(chǎn)ECU

    AI在汽車行業(yè)的應(yīng)用日益深化,如何將機(jī)器學(xué)習(xí)領(lǐng)域的先進(jìn)模型(如虛擬傳感器)集成到ECU軟件中,已成為業(yè)界面臨的核心挑戰(zhàn)。
    的頭像 發(fā)表于 12-24 10:55 ?6414次閱讀
    基于ETAS嵌入式AI工具鏈將<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>部署到量產(chǎn)ECU

    脈沖神經(jīng)元模型的硬件實現(xiàn)

    息電位 vrest。 LIF神經(jīng)元模型在生物可解釋性上低于其他模型,只體現(xiàn)了神經(jīng)元計算的關(guān)鍵特性,并不能夠解釋真實神經(jīng)元的脈沖是如何生成,也不包括豐富的神經(jīng)元行為特性。但由于其簡單的操
    發(fā)表于 10-24 08:27

    有哪些常見的AI算法可以用于裝置數(shù)據(jù)的異常檢測?

    在裝置數(shù)據(jù)(如工業(yè)設(shè)備傳感器數(shù)據(jù)、電子裝置運行參數(shù)、化工裝置工況數(shù)據(jù)等)的異常檢測中,AI 算法的選擇需結(jié)合數(shù)據(jù)特點(如 時序、維度、標(biāo)注情況 )、檢測目標(biāo)(如實時、精度、可解釋性)及部署環(huán)境
    的頭像 發(fā)表于 09-18 09:27 ?1089次閱讀
    有哪些常見的AI算法<b class='flag-5'>可以</b>用于裝置數(shù)據(jù)的異常檢測?

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的科學(xué)應(yīng)用

    配備科學(xué)發(fā)現(xiàn)仍需人類的直覺和靈感 ④正價可解釋性和透明 ⑤解決倫理和道德問題六、AI芯片用于“AI科學(xué)家”系統(tǒng) AI芯片的作用:七、用量子啟發(fā)AI技術(shù)發(fā)現(xiàn)新型超材料的案例 超材料特點: 可以
    發(fā)表于 09-17 11:45

    端到端發(fā)展趨勢下,云算力如何賦能智能駕駛技術(shù)躍遷?

    學(xué)習(xí)網(wǎng)絡(luò)中,讓系統(tǒng)直接從傳感器數(shù)據(jù)生成車輛控制指令。這種方法在提升系統(tǒng)響應(yīng)速度、優(yōu)化復(fù)雜場景表現(xiàn)以及減少模塊間誤差積累方面展現(xiàn)出顯著優(yōu)勢,但同時,為了滿足足夠龐大的智能駕駛輔助需求,端到端模型也面臨數(shù)據(jù)量、算力需求、可解釋性和安
    的頭像 發(fā)表于 09-08 09:16 ?1183次閱讀
    端到端發(fā)展趨勢下,云算力如何賦能智能駕駛<b class='flag-5'>技術(shù)</b>躍遷?

    有哪些技術(shù)可以提高邊緣計算設(shè)備的安全

    邊緣計算設(shè)備的安全面臨分布式部署、資源受限(算力 / 存儲 / 帶寬)、網(wǎng)絡(luò)環(huán)境復(fù)雜(多無線連接)、物理接觸易被篡改等獨特挑戰(zhàn),因此其安全技術(shù)需在 “安全” 與 “輕量化適配” 之間平衡。以下從
    的頭像 發(fā)表于 09-05 15:44 ?1837次閱讀
    有哪些<b class='flag-5'>技術(shù)</b><b class='flag-5'>可以</b><b class='flag-5'>提高</b>邊緣計算設(shè)備的安全<b class='flag-5'>性</b>?

    超小型Neuton機(jī)器學(xué)習(xí)模型, 在任何系統(tǒng)級芯片(SoC)上解鎖邊緣人工智能應(yīng)用.

    Neuton 是一家邊緣AI 公司,致力于讓機(jī)器 學(xué)習(xí)模型更易于使用。它創(chuàng)建的模型比競爭對手的框架小10 倍,速度也快10 倍,甚至可以在最
    發(fā)表于 07-31 11:38

    通過NVIDIA Cosmos模型增強(qiáng)機(jī)器人學(xué)習(xí)

    通用機(jī)器人的時代已經(jīng)到來,這得益于機(jī)械電子技術(shù)機(jī)器人 AI 基礎(chǔ)模型的進(jìn)步。但目前機(jī)器技術(shù)
    的頭像 發(fā)表于 07-14 11:49 ?1331次閱讀
    通過NVIDIA Cosmos<b class='flag-5'>模型</b>增強(qiáng)<b class='flag-5'>機(jī)器人學(xué)習(xí)</b>

    模型推理顯存和計算量估計方法研究

    GPU、FPGA等硬件加速。通過分析硬件加速器的性能參數(shù),可以估算模型在硬件加速下的計算量。 四、實驗與分析 為了驗證上述估計方法的有效,我們選取了幾個具有代表的深度
    發(fā)表于 07-03 19:43

    模型在半導(dǎo)體行業(yè)的應(yīng)用可行分析

    有沒有這樣的半導(dǎo)體專用大模型,能縮短芯片設(shè)計時間,提高成功率,還能幫助新工程師更快上手?;蛘哕浻布?b class='flag-5'>可以在設(shè)計和制造環(huán)節(jié)確實有實際應(yīng)用。會不會存在AI缺陷檢測。 能否應(yīng)用在工藝優(yōu)化和預(yù)測
    發(fā)表于 06-24 15:10

    中國科學(xué)院西安光機(jī)所在計算成像可解釋性深度學(xué)習(xí)重建方法取得進(jìn)展

    圖1 MDFP-Net網(wǎng)絡(luò)結(jié)構(gòu) 近日,中國科學(xué)院西安光機(jī)所空間光學(xué)技術(shù)研究室在計算成像可解釋性深度學(xué)習(xí)重建方法研究取得創(chuàng)新進(jìn)展。相關(guān)研究成果發(fā)表于計算機(jī)視覺與圖形學(xué)領(lǐng)域國際著名期刊
    的頭像 發(fā)表于 06-09 09:27 ?837次閱讀
    中國科學(xué)院西安光機(jī)所在計算成像<b class='flag-5'>可解釋性</b>深度<b class='flag-5'>學(xué)習(xí)</b>重建方法取得進(jìn)展

    云知聲四篇論文入選自然語言處理頂會ACL 2025

    結(jié)果正式公布。云知聲在此次國際學(xué)術(shù)盛會中表現(xiàn)卓越,共有4篇論文被接收,其中包括2篇主會論文(Main Paper)和2篇Findings。入選的4篇論文聚焦大語言模型知識溯源、圖文音多模態(tài)大模型、大語言模型
    的頭像 發(fā)表于 05-26 14:15 ?1482次閱讀
    云知聲四篇論文入選自然語言處理頂會ACL 2025
    开远市| 吕梁市| 鹤庆县| 曲水县| 夏河县| 宜昌市| 灌云县| 彭州市| 华亭县| 湛江市| 玉树县| 沁阳市| 恩施市| 天祝| 邹平县| 丹巴县| 章丘市| 揭东县| 屏东县| 台中县| 巫山县| 乐山市| 昆山市| 连南| 林西县| 长兴县| 富顺县| 高唐县| 淮南市| 鹤山市| 洛川县| 延安市| 新绛县| 锡林浩特市| 公安县| 宣威市| 潍坊市| 惠安县| 玛曲县| 贺兰县| 浙江省|