国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

關于機器學習模型的六大可解釋性技術

C29F_xilinx_inc ? 來源:賽靈思 ? 作者:賽靈思 ? 2022-02-26 17:20 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文介紹目前常見的幾種可以提高機器學習模型的可解釋性的技術。

模型可解釋性匯總

簡介

目前很多機器學習模型可以做出非常好的預測,但是它們并不能很好地解釋他們是如何進行預測的,很多數據科學家都很難知曉為什么該算法會得到這樣的預測結果。這是非常致命的,因為如果我們無法知道某個算法是如何進行預測,那么我們將很難將其遷移到其它的問題中,很難進行算法的debug。

本文介紹目前常見的幾種可以提高機器學習模型的可解釋性的技術,包括它們的相對優點和缺點。我們將其分為下面幾種:

1. Partial Dependence Plot (PDP);

2. Individual Conditional Expectation (ICE)

3. Permuted Feature Importance

4. Global Surrogate

5. Local Surrogate (LIME)

6. Shapley Value (SHAP)

六大可解釋性技術

01、Partial Dependence Plot (PDP)

PDP是十幾年之前發明的,它可以顯示一個或兩個特征對機器學習模型的預測結果的邊際效應。它可以幫助研究人員確定當大量特征調整時,模型預測會發生什么樣的變化。

關于機器學習模型的六大可解釋性技術

上面圖中X軸表示特圖片的值y軸表示預測值。陰影區域中的實線顯示了平均預測如何隨圖片值的變化而變化。PDP能很直觀地顯示平均邊際效應,因此可能會隱藏異質效應。

例如,一個特征可能與一半數據的預測正相關,與另一半數據負相關。那么PDP圖將只是一條水平線。

02、Individual Conditional Expectation (ICE)

ICE和PDP非常相似,但和PDP不同之處在于,PDP繪制的是平均情況,但是ICE會顯示每個實例的情況。ICE可以幫助我們解釋一個特定的特征改變時,模型的預測會怎么變化。

關于機器學習模型的六大可解釋性技術

如上圖所示,與PDP不同,ICE曲線可以揭示異質關系。但其最大的問題在于:它不能像PDP那樣容易看到平均效果,所以可以考慮將二者結合起來一起使用。

03、Permuted Feature Importance

Permuted Feature Importance的特征重要性是通過特征值打亂后模型預測誤差的變化得到的。換句話說,Permuted Feature Importance有助于定義模型中的特征對最終預測做出貢獻的大小。

關于機器學習模型的六大可解釋性技術

如上圖所示,特征f2在特征的最上面,對模型的誤差影響是最大的,f1在shuffle之后對模型卻幾乎沒什么影響,生息的特征則對于模型是負面的貢獻。

04、Global Surrogate

Global Surrogate方法采用不同的方法。它通過訓練一個可解釋的模型來近似黑盒模型的預測。

首先,我們使用經過訓練的黑盒模型對數據集進行預測;

然后我們在該數據集和預測上訓練可解釋的模型。

訓練好的可解釋模型可以近似原始模型,我們需要做的就是解釋該模型。

注:代理模型可以是任何可解釋的模型:線性模型、決策樹、人類定義的規則等。

關于機器學習模型的六大可解釋性技術

使用可解釋的模型來近似黑盒模型會引入額外的誤差,但額外的誤差可以通過R平方來衡量。

由于代理模型僅根據黑盒模型的預測而不是真實結果進行訓練,因此全局代理模型只能解釋黑盒模型,而不能解釋數據。

05、Local Surrogate (LIME)

LIME(Local Interpretable Model-agnostic Explanations)和global surrogate是不同的,因為它不嘗試解釋整個模型。相反,它訓練可解釋的模型來近似單個預測。LIME試圖了解當我們擾亂數據樣本時預測是如何變化的。

關于機器學習模型的六大可解釋性技術

上面左邊的圖像被分成可解釋的部分。然后,LIME 通過“關閉”一些可解釋的組件(在這種情況下,使它們變灰)來生成擾動實例的數據集。對于每個擾動實例,可以使用經過訓練的模型來獲取圖像中存在樹蛙的概率,然后在該數據集上學習局部加權線性模型。最后,使用具有最高正向權重的成分來作為解釋。

06、Shapley Value (SHAP)

Shapley Value的概念來自博弈論。我們可以通過假設實例的每個特征值是游戲中的“玩家”來解釋預測。每個玩家的貢獻是通過在其余玩家的所有子集中添加和刪除玩家來衡量的。一名球員的Shapley Value是其所有貢獻的加權總和。Shapley 值是可加的,局部準確的。如果將所有特征的Shapley值加起來,再加上基值,即預測平均值,您將得到準確的預測值。這是許多其他方法所沒有的功能。

關于機器學習模型的六大可解釋性技術

該圖顯示了每個特征的Shapley值,表示將模型結果從基礎值推到最終預測的貢獻。紅色表示正面貢獻,藍色表示負面貢獻。

小結

機器學習模型的可解釋性是機器學習中一個非常活躍而且重要的研究領域。本文中我們介紹了6種常用的用于理解機器學習模型的算法。大家可以依據自己的實踐場景進行使用。

審核編輯:湯梓紅

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 算法
    +關注

    關注

    23

    文章

    4784

    瀏覽量

    98049
  • 模型
    +關注

    關注

    1

    文章

    3752

    瀏覽量

    52109
  • 機器學習
    +關注

    關注

    66

    文章

    8553

    瀏覽量

    136943
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    強化學習會讓自動駕駛模型學習更快嗎?

    [首發于智駕最前沿微信公眾號]在談及自動駕駛大模型訓練時,有的技術方案會采用模仿學習,而有些會采用強化學習。同樣作為大模型的訓練方式,強化
    的頭像 發表于 01-31 09:34 ?643次閱讀
    強化<b class='flag-5'>學習</b>會讓自動駕駛<b class='flag-5'>模型</b><b class='flag-5'>學習</b>更快嗎?

    谷歌正式發布Gemma Scope 2模型

    Scope 工具包推動了可解釋性科學的發展,該工具旨在幫助研究人員理解我們輕量級開放模型系列 Gemma 2 的內部運作機制。
    的頭像 發表于 01-24 14:01 ?523次閱讀

    步進伺服電機的六大問題處理技巧

    步進伺服電機作為工業自動化領域的關鍵部件,其穩定性和精度直接影響設備性能。然而在實際應用中,電機可能因參數配置、機械負載或環境因素出現異常。本文將針對六大典型問題提供系統解決方案,結合工程實踐
    的頭像 發表于 10-30 07:41 ?757次閱讀

    脈沖神經元模型的硬件實現

    息電位 vrest。 LIF神經元模型在生物可解釋性上低于其他模型,只體現了神經元計算的關鍵特性,并不能夠解釋真實神經元的脈沖是如何生成,也不包括豐富的神經元行為特性。但由于其簡單的操
    發表于 10-24 08:27

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的科學應用

    配備科學發現仍需人類的直覺和靈感 ④正價可解釋性和透明 ⑤解決倫理和道德問題、AI芯片用于“AI科學家”系統 AI芯片的作用:七、用量子啟發AI技術發現新型超材料的案例 超材料特點
    發表于 09-17 11:45

    超小型Neuton機器學習模型, 在任何系統級芯片(SoC)上解鎖邊緣人工智能應用.

    Neuton 是一家邊緣AI 公司,致力于讓機器 學習模型更易于使用。它創建的模型比競爭對手的框架小10 倍,速度也快10 倍,甚至可以在最先進的邊緣設備上進行人工智能處理。在這篇博文
    發表于 07-31 11:38

    模型在半導體行業的應用可行分析

    的應用,比如使用機器學習分析數據,提升良率。 這一些大模型是否真的有幫助 能夠在解決工程師的知識斷層問題 本人純小白,不知道如何涉足這方面 應該問什么大模型比較好,或者是看什么視頻能夠
    發表于 06-24 15:10

    中國科學院西安光機所在計算成像可解釋性深度學習重建方法取得進展

    圖1 MDFP-Net網絡結構 近日,中國科學院西安光機所空間光學技術研究室在計算成像可解釋性深度學習重建方法研究取得創新進展。相關研究成果發表于計算機視覺與圖形學領域國際著名期刊
    的頭像 發表于 06-09 09:27 ?675次閱讀
    中國科學院西安光機所在計算成像<b class='flag-5'>可解釋性</b>深度<b class='flag-5'>學習</b>重建方法取得進展

    云知聲四篇論文入選自然語言處理頂會ACL 2025

    結果正式公布。云知聲在此次國際學術盛會中表現卓越,共有4篇論文被接收,其中包括2篇主會論文(Main Paper)和2篇Findings。入選的4篇論文聚焦大語言模型知識溯源、圖文音多模態大模型、大語言模型
    的頭像 發表于 05-26 14:15 ?1315次閱讀
    云知聲四篇論文入選自然語言處理頂會ACL 2025

    Gartner發布云技術發展的六大趨勢

    Gartner發布未來四年云技術發展的六大趨勢,包括對云技術不滿、人工智能/機器學習(AI/ML)、多云和跨云、可持續
    的頭像 發表于 05-19 11:40 ?1008次閱讀
    Gartner發布云<b class='flag-5'>技術</b>發展的<b class='flag-5'>六大</b>趨勢

    大象機器人攜手進迭時空推出 RISC-V 全棧開源軸機械臂產品

    大象機器人成立于2016年,專注協作機器人研發與應用,產品線涵蓋輕量級協作機器人、人形機器人、仿生機器人等多種形態。拳頭產品myCobot系
    發表于 04-25 17:59

    一種實時多線程VSLAM框架vS-Graphs介紹

    針對現有VSLAM系統語義表達不足、地圖可解釋性差的問題,本文提出vS-Graphs,一種實時多線程VSLAM框架。該方案顯著提升了重建地圖的語義豐富度、可解釋性及定位精度。實驗表明
    的頭像 發表于 04-19 14:07 ?1003次閱讀
    一種實時多線程VSLAM框架vS-Graphs介紹

    算法進化論:從參數剪枝到意識解碼的 AI 革命

    電子發燒友網報道(文 / 李彎彎)在人工智能領域,算法創新無疑是推動技術持續前行的核心動力源泉。近些年來,隨著深度學習、強化學習等前沿技術相繼取得重大突破,AI 算法在效率提升、
    的頭像 發表于 04-19 00:38 ?2468次閱讀

    國產地物光譜儀在“高光譜-機器學習模型構建中的表現

    在遙感應用和環境監測日益精細化的今天,“高光譜 + 機器學習”的組合已成為地物識別、礦產探測、農業監測等領域的重要技術手段。而作為獲取高光譜數據的前端工具,地物光譜儀的性能直接影響到后續模型
    的頭像 發表于 04-18 16:15 ?742次閱讀
    國產地物光譜儀在“高光譜-<b class='flag-5'>機器</b><b class='flag-5'>學習</b>”<b class='flag-5'>模型</b>構建中的表現

    軟通動力攜手伙伴發布六大聯合解決方案

    ToB云運營解決方案”、 “天慧智園解決方案”六大聯合解決方案,其中多個方案深度融入AI能力,旨在為高校、園區、運營商、醫療等關鍵行業領域的數智化轉型注入強勁動力。 1 昇騰DeepSeek專業服務解決方案 軟通動力×華為 面對大模型軟件各層緊耦合、
    的頭像 發表于 03-22 10:30 ?1939次閱讀
    軟通動力攜手伙伴發布<b class='flag-5'>六大</b>聯合解決方案