国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

使用RAPIDS加速實現(xiàn)SHAP的模型可解釋性

星星科技指導員 ? 來源:NVIDIA ? 作者:Nanthini ? 2022-04-21 09:25 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

機器學習( ML )越來越多地用于醫(yī)療、教育和金融服務等多個領域的決策。由于 ML 模型被用于對人們有實際影響的情況,因此了解在消除或最小化偏見影響的決策中考慮了哪些特征是至關重要的。

模型解釋性 幫助開發(fā)人員和其他利益相關者理解模型特征和決策的根本原因,從而使流程更加透明。能夠解釋模型可以幫助數(shù)據(jù)科學家解釋他們的模型做出決策的原因,為模型增加價值和信任。在本文中,我們將討論:

對模型可解釋性的需求

使用 SHAP 的可解釋性

GPU – 從 RAPIDS 加速 SHAP 實現(xiàn)

使用 演示筆記本 在 Azure 機器學習上使用 SHAP 進行模型解釋。

為什么我們需要解釋性?

有六個主要原因證明機器學習中需要模型互操作性:

理解模型中的公平性問題

對目標的準確理解

創(chuàng)建健壯的模型

調(diào)試模型

解釋結果

啟用審核

了解模型中的公平性問題: 可解釋模型可以解釋選擇結果的原因。在社會背景下,這些解釋將不可避免地揭示對代表性不足群體的固有偏見。克服這些偏見的第一步是看看它們是如何表現(xiàn)出來的。

更準確地理解目標: 對解釋的需要也源于我們在充分理解問題方面的差距。解釋是確保我們能夠看到差距影響的方法之一。它有助于理解模型的預測是否符合利益相關者或?qū)<业哪繕恕?/p>

創(chuàng)建穩(wěn)健的模型: 可解釋模型可以幫助我們理解預測中為什么會存在一些差異,這有助于使預測更加穩(wěn)健,并消除預測中極端和意外的變化;以及為什么會出現(xiàn)錯誤。增強穩(wěn)健性也有助于在模型中建立信任,因為它不會產(chǎn)生顯著不同的結果。

模型可解釋性還可以幫助調(diào)試模型,解釋 向利益相關者提供成果,并使 auditing 以滿足法規(guī)遵從性。

需要注意的是,在某些情況下,可解釋性 MIG 不太重要。例如,在某些情況下,添加可解釋模型可以幫助對手欺騙系統(tǒng)。

現(xiàn)在我們了解了什么是可解釋性以及為什么我們需要它,讓我們看看最近非常流行的一種實現(xiàn)方法。

使用 SHAP 和 cuML 的 SHAP 的可解釋性

有不同的方法旨在提高模型的可解釋性;一種模型不可知的方法是 夏普利值 。這是一種從聯(lián)盟博弈論中衍生出來的方法,它提供了一種公平地將“支出”分配給各個功能的方法。在機器學習模型的情況下,支出是模型的預測/結果。它的工作原理是計算整個數(shù)據(jù)集的 Shapley 值并將其組合。

cuML 是 RAPIDS 中的機器學習庫,支持單 GPU 和多 GPU 機器學習算法,通過 內(nèi)核解釋程序 和 置換解釋者 提供 GPU 加速模型解釋能力。 核形狀 是 SHAP 最通用和最常用的黑盒解釋程序。它使用加權線性回歸來估計形狀值,使其成為一種計算效率高的近似值方法。

內(nèi)核 SHAP 的 cuML 實現(xiàn)為快速 GPU 模型提供了加速,就像 cuML 中的那些模型一樣。它們也可用于基于 CPU 的模型,在這些模型中仍然可以實現(xiàn)加速,但由于數(shù)據(jù)傳輸和模型本身的速度,它們 MIG 可能會受到限制。

在下一節(jié)中,我們將討論如何在 Azure 上使用 RAPIDS 內(nèi)核 SHAP 。

使用解釋社區(qū)和 RAPIDS 實現(xiàn)可解釋性

InterpretML 是一個開源軟件包,將最先進的機器學習可解釋性技術集成在一起。雖然本產(chǎn)品的解釋包中涵蓋了主要的解釋技術和玻璃盒解釋模型, Interpret-Community 擴展了解釋存儲庫,并進一步整合了社區(qū)開發(fā)的和實驗性的解釋性技術和功能,這些技術和功能旨在實現(xiàn)現(xiàn)實場景的解釋性。

我們可以將其擴展到 解釋 Microsoft Azure 上的模型 ,稍后將對其進行更詳細的討論。解釋社區(qū)提供各種解釋模型的技術,包括:

Tree 、 Deep 、 Linear 和 Kernel Explainers 基于形狀,

模擬解釋者 基于訓練 全局代理模型 (訓練模型以近似黑盒模型的預測),以及

排列特征重要性( PFI )解釋者 基于 布雷曼關于蘭德森林的論文 ,其工作原理是對整個數(shù)據(jù)集一次一個特征的數(shù)據(jù)進行洗牌,并估計其對性能指標的影響;變化越大,功能越重要。它可以解釋整體行為,而不是個人預測。

在社區(qū)中集成 GPU 加速 SHAP

為了使 GPU – 加速 SHAP 易于最終用戶訪問,我們將 integrated 從 cuML 的 GPU 內(nèi)核解釋者 添加到 interpret-community 包中。有權訪問 Azure 上具有 GPU s 的虛擬機 ( NVIDIA Pascal 或更高版本)的用戶可以安裝 RAPIDS (》= 0.20 )并通過將 use _ ZFK5]標志設置為 True 來啟用 GPU 解釋程序。

from interpret.ext.blackbox import TabularExplainer

# "features" and "classes" fields are optional
explainer = TabularExplainer(model,
                          x_train,
                          features=breast_cancer_data.feature_names,
                          classes=classes,
use_gpu=True)

新添加的 GPUKernelExplainer 還使用 cuML K- 均值 來復制 shap.kmeans 的行為。 KMeans 減少了解釋者要處理的背景數(shù)據(jù)的大小。它總結了通過 K 個平均樣本傳遞的數(shù)據(jù)集,這些樣本由數(shù)據(jù)點的數(shù)量加權。將 sklearn K-Means 替換為 cuML 使我們能夠利用 GPU 的速度提升,即使在 SHAP 之前的數(shù)據(jù)預處理過程中也是如此。

基于我們的實驗,我們發(fā)現(xiàn),當與 cuML KerneleExplainer 一起使用時, cuML 模型在某些情況下會產(chǎn)生最高可達 270 倍的速度提升的最佳結果。我們還看到了具有優(yōu)化和快速預測調(diào)用的模型的最佳加速,如優(yōu)化的 sklearn 。 svm 。 LinearSVR 和 cuml 。 svm 。 SVR ( kernel =’ linear ‘) 所示。

Azure 中的模型解釋

Azure 機器學習提供了一種通過 azureml-interpret SDK 包獲取常規(guī)和自動化 ML 培訓說明的方法。它使用戶能夠在訓練和推理期間,在真實世界數(shù)據(jù)集上實現(xiàn)大規(guī)模的模型可解釋性[2]。我們還可以使用交互式可視化來進一步探索整體和單個模型預測,并進一步了解我們的模型和數(shù)據(jù)集。 Azure 解釋使用解釋社區(qū)包中的技術,這意味著它現(xiàn)在支持 RAPIDS 形狀。我們將瀏覽一個演示 Azure 上使用 cuML 形狀的模型可解釋性 的示例筆記本。

在 GPU 虛擬機上使用自定義 Docker 映像設置 RAPIDS 環(huán)境(本例中為標準的_ NC6s _ v3 )。

from azureml.core import Environment
environment_name = "rapids"
env = Environment(environment_name)
env.docker.enabled = True
env.docker.base_image = None
env.docker.base_dockerfile = """
FROM rapidsai/rapidsai:0.19-cuda11.0-runtime-ubuntu18.04-py3.8
RUN apt-get update && \
apt-get install -y fuse && \
apt-get install -y build-essential && \
apt-get install -y python3-dev && \
source activate rapids && \
pip install azureml-defaults && \
pip install azureml-interpret && \
pip install interpret-community==0.18 && \
pip install azureml-telemetry
"""
env.python.user_managed_dependencies = True

我們提供了一個腳本( train_explain.py ),它使用 cuML SVM 模型訓練和解釋了一個二進制分類問題。在這個例子中,我們使用 希格斯數(shù)據(jù)集 來預測一個過程是否產(chǎn)生希格斯玻色子。它有 21 個由加速器中的粒子探測器測量的運動學特性。

然后,該腳本使用 GPU SHAP KerneleExplainer 生成模型解釋。

生成的解釋使用我們的 ExplanationClient 上傳到 Azure 機器學習,這是上傳和下載解釋的客戶端。這可以在您的計算機上本地運行,也可以在 Azure 機器學習計算機上遠程運行。

from azureml.interpret import ExplanationClient
# Get model explanation data
client = ExplanationClient.from_run(run)
global_explanation = client.download_model_explanation()
local_importance_values = global_explanation.local_importance_values
expected_values = global_explanation.expected_values
# Or you can use the saved run.id to retrive the feature importance values
client = ExplanationClient.from_run_id(ws, experiment_name, run.id)
global_explanation = client.download_model_explanation()
local_importance_values = global_explanation.local_importance_values
expected_values = global_explanation.expected_values
# Get the top k (e.g., 4) most important features with their importance values
global_explanation_topk = client.download_model_explanation(top_k=4)
global_importance_values = global_explanation_topk.get_ranked_global_values()
global_importance_names = global_explanation_topk.get_ranked_global_names()

生成的解釋上傳到 Azure 機器學習運行歷史記錄后,您可以在 Azure 機器學習工作室 中的解釋儀表板上查看可視化。

圖 1 :顯示模型性能和特性重要性的解釋儀表板。

我們在 Azure 中的單個 explain _全局調(diào)用上對 CPU 和 GPU 實現(xiàn)進行了基準測試。 explain _ global 函數(shù)在使用 explain _ local 時返回聚合特征重要性值,而不是實例級特征重要性值。我們比較了 cuml 。 svm 。 SVR ( kernel =’ rbf ‘)與 sklearn 。 svm 。 SVR ( kernel =’ rbf ‘)對形狀為( 10000 , 40 )的合成數(shù)據(jù)的影響。

從表 1 中我們可以觀察到,當我們使用 GPU 虛擬機( Standard _ NC6S _ v3 )時,與具有 16 個內(nèi)核的 CPU 虛擬機( Standard _ DS5 _ v2 )相比, 2000 行解釋的速度提高了 420 倍。我們注意到,在 16 核 CPU 虛擬機上使用 64 核 CPU 虛擬機(標準_ D64S _ v3 )可以產(chǎn)生更快的 CPU 運行時間(大約 1 。 3 倍)。這種更快的 CPU 運行仍然比 GPU 運行慢得多,而且更昂貴。 GPU 運行速度快了 380 倍,成本為 0 。 52 美元,而 64 核 CPU 虛擬機的成本為 23 美元。我們在 Azure 的美國東部地區(qū)進行了實驗。

圖 2 : Azure 上 CPU 和 GPU 虛擬機的比較。

表 1 :標準 DS5 和標準 NC6s _ v3 的比較。

從我們的實驗來看,在 Azure 上使用 cuML 的 KernelExplainer 被證明更具成本和時間效率。隨著行數(shù)的增加,速度會更好。 GPU SHAP 不僅解釋了更多的數(shù)據(jù),而且還節(jié)省了更多的資金和時間。這會對時間敏感的企業(yè)產(chǎn)生巨大影響。

這是一個簡單的例子,說明如何在 Azure 上使用 cuML 的 SHAP 進行解釋。這可以擴展到具有更有趣的模型和數(shù)據(jù)集的更大示例。

關于作者

Nanthini 是 NVIDIA 的數(shù)據(jù)科學家和軟件開發(fā)人員。她在 RAPIDS 團隊工作,該團隊專注于使用 GPU 加速數(shù)據(jù)科學管道。她的工作包括進行概念驗證、開發(fā)和維護功能、將 RAPIDS 與外部框架集成,以及通過示例用例演示這些工具的使用。最近,她一直致力于 RAPIDS 框架和微軟解釋之間的集成。 2019 ,她獲得了賓夕法尼亞大學計算機科學碩士學位。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • gpu
    gpu
    +關注

    關注

    28

    文章

    5194

    瀏覽量

    135453
  • 機器學習
    +關注

    關注

    66

    文章

    8553

    瀏覽量

    136951
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    谷歌正式發(fā)布Gemma Scope 2模型

    Scope 工具包推動了可解釋性科學的發(fā)展,該工具旨在幫助研究人員理解我們輕量級開放模型系列 Gemma 2 的內(nèi)部運作機制。
    的頭像 發(fā)表于 01-24 14:01 ?524次閱讀

    利用NVIDIA Cosmos開放世界基礎模型加速物理AI開發(fā)

    NVIDIA 最近發(fā)布了 NVIDIA Cosmos 開放世界基礎模型(WFM)的更新,旨在加速物理 AI 模型的測試與驗證數(shù)據(jù)生成。借助 NVIDIA Omniverse 庫和 Cosmos,開發(fā)者可以大規(guī)模生成基于物理學的合
    的頭像 發(fā)表于 12-01 09:25 ?1136次閱讀

    脈沖神經(jīng)元模型的硬件實現(xiàn)

    息電位 vrest。 LIF神經(jīng)元模型在生物可解釋性上低于其他模型,只體現(xiàn)了神經(jīng)元計算的關鍵特性,并不能夠解釋真實神經(jīng)元的脈沖是如何生成,也不包括豐富的神經(jīng)元行為特性。但由于其簡單的操
    發(fā)表于 10-24 08:27

    有哪些常見的AI算法可以用于裝置數(shù)據(jù)的異常檢測?

    在裝置數(shù)據(jù)(如工業(yè)設備傳感器數(shù)據(jù)、電子裝置運行參數(shù)、化工裝置工況數(shù)據(jù)等)的異常檢測中,AI 算法的選擇需結合數(shù)據(jù)特點(如 時序、維度、標注情況 )、檢測目標(如實時、精度、可解釋性)及部署環(huán)境
    的頭像 發(fā)表于 09-18 09:27 ?774次閱讀
    有哪些常見的AI算法可以用于裝置數(shù)據(jù)的異常檢測?

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的科學應用

    配備科學發(fā)現(xiàn)仍需人類的直覺和靈感 ④正價可解釋性和透明 ⑤解決倫理和道德問題六、AI芯片用于“AI科學家”系統(tǒng) AI芯片的作用:七、用量子啟發(fā)AI技術發(fā)現(xiàn)新型超材料的案例 超材料特點: 可以控制能力
    發(fā)表于 09-17 11:45

    NVIDIA RAPIDS 25.06版本新增多項功能

    神經(jīng)網(wǎng)絡(GNN)的統(tǒng)一 API,以及無需更改代碼即可實現(xiàn)的支持向量機加速功能。在本篇博客中,我們將介紹其中的幾項重要更新。
    的頭像 發(fā)表于 09-09 09:54 ?1064次閱讀

    端到端發(fā)展趨勢下,云算力如何賦能智能駕駛技術躍遷?

    學習網(wǎng)絡中,讓系統(tǒng)直接從傳感器數(shù)據(jù)生成車輛控制指令。這種方法在提升系統(tǒng)響應速度、優(yōu)化復雜場景表現(xiàn)以及減少模塊間誤差積累方面展現(xiàn)出顯著優(yōu)勢,但同時,為了滿足足夠龐大的智能駕駛輔助需求,端到端模型也面臨數(shù)據(jù)量、算力需求、可解釋性和安
    的頭像 發(fā)表于 09-08 09:16 ?915次閱讀
    端到端發(fā)展趨勢下,云算力如何賦能智能駕駛技術躍遷?

    Transformer在端到端自動駕駛架構中是何定位?

    狀態(tài)的主觀理解。隨后,該模型再將理解結果交由行為規(guī)劃子模塊去執(zhí)行,使得端到端過程具有一定結構化邏輯,從而兼顧可解釋性與泛化能力。
    的頭像 發(fā)表于 08-03 11:03 ?1384次閱讀

    模型推理顯存和計算量估計方法研究

    GPU、FPGA等硬件加速。通過分析硬件加速器的性能參數(shù),可以估算模型在硬件加速下的計算量。 四、實驗與分析 為了驗證上述估計方法的有效
    發(fā)表于 07-03 19:43

    模型在半導體行業(yè)的應用可行分析

    有沒有這樣的半導體專用大模型,能縮短芯片設計時間,提高成功率,還能幫助新工程師更快上手。或者軟硬件可以在設計和制造環(huán)節(jié)確實有實際應用。會不會存在AI缺陷檢測。 能否應用在工藝優(yōu)化和預測維護中
    發(fā)表于 06-24 15:10

    中國科學院西安光機所在計算成像可解釋性深度學習重建方法取得進展

    圖1 MDFP-Net網(wǎng)絡結構 近日,中國科學院西安光機所空間光學技術研究室在計算成像可解釋性深度學習重建方法研究取得創(chuàng)新進展。相關研究成果發(fā)表于計算機視覺與圖形學領域國際著名期刊
    的頭像 發(fā)表于 06-09 09:27 ?679次閱讀
    中國科學院西安光機所在計算成像<b class='flag-5'>可解釋性</b>深度學習重建方法取得進展

    云知聲四篇論文入選自然語言處理頂會ACL 2025

    結果正式公布。云知聲在此次國際學術盛會中表現(xiàn)卓越,共有4篇論文被接收,其中包括2篇主會論文(Main Paper)和2篇Findings。入選的4篇論文聚焦大語言模型知識溯源、圖文音多模態(tài)大模型、大語言模型
    的頭像 發(fā)表于 05-26 14:15 ?1316次閱讀
    云知聲四篇論文入選自然語言處理頂會ACL 2025

    一種實時多線程VSLAM框架vS-Graphs介紹

    針對現(xiàn)有VSLAM系統(tǒng)語義表達不足、地圖可解釋性差的問題,本文提出vS-Graphs,一種實時多線程VSLAM框架。該方案顯著提升了重建地圖的語義豐富度、可解釋性及定位精度。實驗表明
    的頭像 發(fā)表于 04-19 14:07 ?1004次閱讀
    一種實時多線程VSLAM框架vS-Graphs介紹

    算法進化論:從參數(shù)剪枝到意識解碼的 AI 革命

    電子發(fā)燒友網(wǎng)報道(文 / 李彎彎)在人工智能領域,算法創(chuàng)新無疑是推動技術持續(xù)前行的核心動力源泉。近些年來,隨著深度學習、強化學習等前沿技術相繼取得重大突破,AI 算法在效率提升、可解釋性增強以及泛化
    的頭像 發(fā)表于 04-19 00:38 ?2469次閱讀

    如何實現(xiàn)MC33774IC在Simulink環(huán)境中使用基于模型的設計?

    我想熟悉如何實現(xiàn)MC33774IC 在 Simulink 環(huán)境中使用基于模型的設計。 盡管 MATLAB 提供了一些示例文件,但它們似乎是最終版本。要更深入地了解如何配置MC33774,我正在尋找一個教程,該教程解釋了如何從頭開
    發(fā)表于 04-10 08:05