国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

如何使用Dioptra工具進行AI模型的加固

華為數據通信 ? 來源:華為數據通信 ? 作者:華為數據通信 ? 2022-07-07 10:46 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

人工智能機器學習在安全中的應用是一個屢見不鮮的話題,同樣在RSAC2022大會中出現了圍繞AI/ML為重點的焦點議題。此次會議中重點探討了AI對抗和隱私合規問題,還有時下熱門的零信任、API安全和威脅狩獵等。

RSAC2022人工智能安全議題

以智能對抗智能

是數字化時代下的安全趨勢

在數字化轉型時代,對抗愈發嚴峻,攻擊工具更加智能化。相信有過安全分析工作經驗的人都對ATT&CK矩陣并不陌生,而對抗性機器學習威脅矩陣ATLAS(Adversarial Threat Landscape for Artificial-Intelligence Systems)參照了ATT&CK矩陣技術的框架設計,在機器學習攻防技術博弈的發展上,框架植入了一系列精心策劃的漏洞和攻擊行為,使安全分析師能夠定位對機器學習系統的攻擊。

對抗性機器學習威脅矩陣ATLAS

在RSA大會的實際攻擊案例中,來自SAP公司的漏洞管理人員分享了利用收集的圖像、語音樣本,構建深度虛假社會形象進行網絡攻擊,使得網絡攻擊更加智能化。為了防范此類攻擊,建議大家不要在社交媒體上留存過多的視頻和圖片,避免被攻擊者收集濫用。

NIST的安全人員在《Measuringthe Difference: Metric Development at NCCoE‘s Securing AI Testbed》話題中分享了如何利用NCCoE的安全AI測試平臺Dioptra評估人工智能防御模型脆弱性,演講者首先介紹了AI模型的三種常見攻擊手段:(1)樣本投毒:在訓練樣本中進行投毒;(2)模型逃逸:改變模型預測值;(3)反向工程:進行反向工程竊取模型或數據集。

AI圖像預測中的逃逸案例

最后,分享者介紹了如何使用Dioptra工具進行AI模型的加固,包括使用數據增強、進行模型推理前的預處理等。

除了Dioptra工具外,此次大會上還有另外一款工具值得注意——ART(Adversarial Robustness Toolbox),ART是IBM 研究團隊開源的、用于檢測模型及對抗攻擊的工具箱,為開發人員加強AI模型的防御性,讓AI系統變得更加安全,目前支持Tensor Flow和Keras深度學習,同時也支持傳統機器學習。

“以智能對抗智能”,用于紅隊和藍隊的ART工具

該工具支持的AI模型對抗攻擊類型:

Deep Fool

FastGradient Method

JacobianSaliency Map

UniversalPerturbation

VirtualAdversarial Method

C&WAttack

NewtonFool

對應的防御類型有:

Featuresqueezing

Spatialsmoothing

Labelsmoothing

Adversarialtraining

Virtualadversarial training

由于安全的本質是攻防技術的不斷對抗。對應防御方,以智能對抗智能是“正著”,ART工具可以說是以智能對抗智能的一個典型案例。微軟、谷歌和MITRE在《Red Teaming AI Systems: The Path, the Prospect and the Perils》話題中共同表明了紅隊AI是未來,但隨著AI對抗,需要更多的工具和框架來保護組織中的AI系統。微軟提出的AI風險管理評估框架建議機器學習工程師從多個維度來評估AI模型的影響和風險。

微軟的AI風險管理評估框架

以智能對抗智能是當前對抗AI類攻擊的主要手段,包括智能威脅分析、狩獵和自動化的響應處置,大會上來自Onee Security 和Acronis的研究人員分別分享了如何通過DS4N6AI工具集(集成了大量的異常檢測算法)增強威脅狩獵,基于機器學習和堆棧分析應對無文件勒索高級威脅,在云安全環境下如何使能安全團隊進行自動化調查和響應違規行為。

AI的雙刃劍:

AI隱私合規問題亟需解決

當然,伴隨著人工智能技術的應用,它在為人們帶來便利的同時,也暴露出一些問題,例如算法歧視、不公平、缺乏隱私和安全性等。因此,如何以負責的、符合倫理要求的方式使用AI,成為業界關注的焦點之一。

可信AI 8原則:可復現、健壯、公平、隱私、可解釋、可問責、透明、安全

解決AI隱私合規問題的“四方法”,首先最重要的是強化規則制定與立法,讓組織機構必須清楚了解目前適用于AI領域的隱私要求,才能為AI和機器學習應用建立一個合規的數據保護計劃。在本次RSA大會上,重點探討了歐盟和美國的法律和政策應對人工智能合規問題。

其次,一些安全聯盟的參與也至關重要,例如聯合國教科文組織(UNESCO)發布的《AI倫理問題建議書》,歐洲理事會的報告《AI系統的監管》,經濟合作與發展組織(OECD)的《AI原則》,以及歐盟委員會AI高級別專家組制定的《可信AI倫理指南》。在此次RSA大會上,由算法正義聯盟(Algorithmic Justice League,簡稱AJL)分享了他們的最新研究結果。AJL是一家位于馬薩諸塞州劍橋市的數字倡導性非營利組織,由計算機科學家Joy Buolamwini于2016年創立,通過研究、政策宣傳來提高社會對人工智能在社會中的使用以及人工智能對社會造成的危害和偏見的認識。

解決AI隱私合規問題的“四方法”

最后是AI風險管理框架和工具支撐,NIST研究人員在大會上介紹通過AIRMF框架解決AI系統可信和風險問題,必須處理好AI治理原則與隱私保護之間的關系。在可執行層面,IBM的AI隱私工具集(ai-privacy-toolkit)通過數據匿名化和最小化幫助開發者解決低維表格類數據的隱私問題,當然模型精度會有所下降,大約2%左右。

IBM的ai-privacy-toolkit實現數據匿名化效果

針對AI模型是否存在偏見,大會上來自SailPoint的在《It’s Not Fair! Detecting Algorithmic Bias with Open Source Tools》話題中提到的aequitas工具能夠幫助你評估AI模型的偏見問題,感興趣的讀者可以親自嘗試一下。

aequitas工具評估AI模型偏見問題

更多的優秀工具,筆者都一一匯總在下表中。優秀的開源AI隱私合規類工具

RSA大會上的其他AI議題,還包括了AI在零信任的應用。由于受到新冠疫情影響,遠程辦公對傳統安全體系結構帶來的挑戰。大會上分享了PKI、加密、機器身份在IAM中的快速增長,以及如何通過Workload Segmentation降低攻擊風險等。

從本次會議看,人工智能安全可謂在對抗中前進:人工智能除了要解決用戶關注的隱私合規問題外,還需要解決AI對抗類攻擊。以智能對抗智能是當前對抗AI類攻擊的主要手段,而如何在對抗中“獲得先手”,獲取防御主動地位,是AI安全要解決的核心問題,也是安全攻防的痛點。

原文標題:RSAC2022解讀丨人工智能安全洞察—在對抗中前進

文章出處:【微信公眾號:華為數據通信】歡迎添加關注!文章轉載請注明出處。

審核編輯:彭靜
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • API
    API
    +關注

    關注

    2

    文章

    2371

    瀏覽量

    66772
  • AI
    AI
    +關注

    關注

    91

    文章

    39793

    瀏覽量

    301404
  • 機器學習
    +關注

    關注

    66

    文章

    8553

    瀏覽量

    136948

原文標題:RSAC2022解讀丨人工智能安全洞察—在對抗中前進

文章出處:【微信號:Huawei_Fixed,微信公眾號:華為數據通信】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    模型 ai coding 比較

    序 我主要用途是 ai coding,從各種渠道獲取到了很多 不同的大模型排序 最多的是 opus 4.6 > k2.5 > glm5 >
    發表于 02-19 13:43

    使用NORDIC AI的好處

    不依賴持續聯網,整體系統可靠性更高。[Edge AI 概述; Nordic Edge AI 技術頁] 覆蓋從“小 MCU”到“高性能 SoC”的完整產品線 Neuton 模型 :超小模型
    發表于 01-31 23:16

    使用瑞薩RUHMI工具實現AI模型部署過程

    AI無處不在。你在部署AI,你的競爭對手也在部署AI,幾乎所有人都在做AI。然而,AI并不簡單,不僅在生成有效
    的頭像 發表于 10-17 10:00 ?2767次閱讀
    使用瑞薩RUHMI<b class='flag-5'>工具</b>實現<b class='flag-5'>AI</b><b class='flag-5'>模型</b>部署過程

    AI模型的配置AI模型該怎么做?

    STM32可以跑AI,這個AI模型怎么搞,知識盲區
    發表于 10-14 07:14

    模型工具的 “京東答案”

    隨著大模型技術的迅猛發展,AI工具已成為重要的輔助生產力工具和工作伙伴。它能夠顯著提升工作效率、幫助解決業務痛點,甚至能通過知識延展與智能協同,幫助團隊突破傳統認知邊界。掌握大
    的頭像 發表于 08-25 16:09 ?571次閱讀

    HarmonyOS AI輔助編程工具(CodeGenie)概述

    DevEco AI輔助編程工具(CodeGenie)基于BitFun Platform AI能力平臺,為開發者提供高效的應用與服務AI編程支持,支持智能知識問答,同時支持ArkTS代碼
    發表于 08-11 14:31

    關于NanoEdge AI用于n-Class的問題求解

    我想請教一下關于NanoEdge AI用于n-Class的問題。我使用NanoEdge AI的n-Class模式,訓練好模型,設計了3個分類,使用PC端的模擬工具測試過,
    發表于 08-11 06:44

    HarmonyOS AI輔助編程工具(CodeGenie)代碼續寫

    理解的情況下進行代碼生成。在編輯器中的內容較少時,AI可能無法有效理解用戶的意圖并生成相應的代碼。 模型反饋需滿足規則:光標上文10行內,有效代碼行數超過5行(排除單獨{}、()、[]括號行、空行、純
    發表于 07-15 16:15

    智多晶FPGA設計工具HqFpga接入DeepSeek大模型

    AI 賦能工程設計的時代浪潮中,智多晶率先邁出關鍵一步——智多晶正式宣布旗下 FPGA 設計工具 HqFpga 接入 DeepSeek 大模型,并推出 FPGA 設計專屬 AI
    的頭像 發表于 06-06 17:06 ?1533次閱讀

    【「零基礎開發AI Agent」閱讀體驗】+ 入門篇學習

    的是基礎篇,主要從為什么要學習AI Agent和開發AI Agent的知識儲備入手進行介紹。作為入門AI Agent的小白還是很有必要學習的。這里將一些重要觀點作個歸納 1.
    發表于 05-02 09:26

    Deepseek海思SD3403邊緣計算AI產品系統

    海思SD3403邊緣計算AI框架,提供了一套開放式AI訓練產品工具包,解決客戶低成本AI系統,針對差異化AI 應用場景,自己采集樣本數據,
    發表于 04-28 11:05

    DevEco Studio AI輔助開發工具兩大升級功能 鴻蒙應用開發效率再提升

    開發者的喜愛。 應廣大開發者的需求建議,我們最近又對CodeGenie進行了一次升級,不僅針對DeepSeek-R1新增支持鴻蒙知識RAG能力,還上線了代碼解釋功能,持續拓展AI在輔助鴻蒙應用開發全流程
    發表于 04-18 14:43

    首創開源架構,天璣AI開發套件讓端側AI模型接入得心應手

    基石。 Neuron Studio打造全流程一站式開發體驗,為AI應用開發按下加速鍵 AI 應用的開發瓶頸,從來都不是“點的問題”,而是“鏈的問題”:開發工具碎片化,調優過程靠手動,單模型
    發表于 04-13 19:52

    AI眼鏡大模型激戰:多大模型協同、交互時延低至1.3S

    電子發燒友網報道(文/莫婷婷)“百鏡大戰”開始時,也是AI模型在智能眼鏡端加速落地的開始,一場關于智能眼鏡的“百模大戰”也同步進行。幾乎今年剛推出的AI智能眼鏡都搭載了
    的頭像 發表于 03-20 08:59 ?2716次閱讀
    <b class='flag-5'>AI</b>眼鏡大<b class='flag-5'>模型</b>激戰:多大<b class='flag-5'>模型</b>協同、交互時延低至1.3S

    訓練好的ai模型導入cubemx不成功怎么處理?

    訓練好的ai模型導入cubemx不成功咋辦,試了好幾個模型壓縮了也不行,ram占用過大,有無解決方案?
    發表于 03-11 07:18