機器學習系統在面部識別系統到自主車輛等所有領域的普及,伴隨著攻擊者想方設法欺騙算法的風險。簡單的技術已經在測試條件下起了作用,研究人員有興趣找到減輕這些和其他攻擊的方法。國防部高級研究項目局(DARPA)已經找來了英特爾和佐治亞理工學院(Georgia Tech),負責領導旨在防御機器學習算法對抗欺騙攻擊的研究。
欺騙攻擊在實驗室測試之外很少見,但在實操環境下可能會造成重大問題。例如,McAfee早在2月份就曾報道,研究人員通過在限速標志上貼上兩英寸的黑色電子膠帶,欺騙了特斯拉Model S中的速度輔助系統,使其超速行駛50英里/小時。還有其他的例子也不勝枚舉,這證明欺騙人工智能并不算困難,幾乎誰都能做到。
DARPA認識到欺騙攻擊可能會對任何使用機器學習的系統構成威脅,并希望主動出擊,減輕這種企圖。因此,大約一年前,該機構制定了一個名為GARD的計劃,即Garanging AI Robustness against Deception的縮寫。英特爾已經同意成為與喬治亞理工學院合作的四年期GARD計劃的主要承包商。
"英特爾和佐治亞理工學院合作,共同推進生態系統對人工智能和ML漏洞的集體理解和能力,"DARPA GARD計劃的首席工程師和研究人員Jason Martin說。"通過對相干技術的創新研究,我們正在合作研究一種方法,以增強對象檢測,提高AI和ML應對對抗性攻擊的能力。"
目前的欺騙緩解的主要問題是基于規則的、靜態的設定。如果規則不被打破,欺騙就能成功。由于欺騙人工智能的方式幾乎有無數種,僅僅受限于攻擊者的想象力,因此需要開發出更好的系統。英特爾公司表示,該計劃的初始階段將著重于利用圖像和視頻中的空間、時間和語義的一致性來改進物體檢測。
DARPA信息創新辦公室的項目經理Hava Siegelmann博士設想的系統與人類的免疫系統并無不同,你可以把它稱為另一個機器學習系統中的機器學習系統。
"我們希望產生的那種基于廣泛場景的防御,可以在免疫系統中看到,比如說,免疫系統可以識別攻擊,成功攔截后記住本次攻擊的方式,以便在未來的交戰中創造出更有效的反應。"Siegelmann博士說。"我們必須確保機器學習是安全的,不能被欺騙。"
-
英特爾
+關注
關注
61文章
10301瀏覽量
180452 -
機器學習
+關注
關注
66文章
8553瀏覽量
136949
發布評論請先 登錄
英特爾攜手產學合作伙伴發布《具身智能機器人安全子系統白皮書》
東莞理工學院“小眼睛科技杯”第四屆集成電路設計與創新應用競賽圓滿落幕
Intewell×Intel 強強聯合 | 光亞鴻道亮相2025英特爾生態大會
特斯拉要自建超大型晶圓廠,馬斯克:與英特爾合作 “有必要”
格羅方德與新加坡理工學院簽署諒解備忘錄
蘇黎世聯邦理工學院、西南交通大學:關于研究MXenes-環境生化傳感平臺新型材料
Wolfspeed與紐約州立大學理工學院加強教育研究合作
偉創力與麻省理工學院 (MIT) 就其全新的“新制造倡議”(INM) 達成戰略合作
麻省理工學院香港校友會代表團到訪華沿機器人
美國加州理工學院:研究量子傳感技術可實現粒子時空高精度探測
英特爾代工:明確重點廣合作,服務客戶鑄信任
華為與沈陽工學院聯合發布ICT人才培養全球樣板點
佐治亞理工學院:毛囊級傳感器!研發可運動無感佩戴的AR控制傳感器
DARPA與英特爾喬治亞理工學院合作防御機器學習算法對抗欺騙攻擊
評論