“人工智能(AI)叛亂”聽起來像是科幻電影的情節(jié),但這個概念是一項新研究課題。一個國際科研團(tuán)隊設(shè)計了一種理論上的“遏制算法”,通過模擬AI,確保其在任何情況都不能傷害人類,但結(jié)果發(fā)現(xiàn)無法做到。
AI多年來一直讓人類著迷,我們對控制汽車、譜寫交響樂或在自己的游戲中擊敗世界上最好棋手的機器感到敬畏。然而,巨大的力量伴隨著巨大的責(zé)任,全世界的科學(xué)家都在擔(dān)心超級智能系統(tǒng)可能帶來的危險。
據(jù)報道,包括馬克斯·普朗克人類發(fā)展研究所人類與機器中心的科學(xué)家在內(nèi)的一個國際團(tuán)隊研究表明,控制一個超級人工智能是不可能的。
該團(tuán)隊在分析過程中使用了阿蘭·圖靈(Alan Turning)于1936年提出的“停止”問題,該問題的重點在于計算機程序是否會得出結(jié)論并做出“停頓”的反應(yīng)。
據(jù)悉,在研究中,該團(tuán)隊設(shè)計了一種理論上的“遏制算法”,通過先模擬人工智能的行為,如果認(rèn)為有害,則停止人工智能的行為,從而確保超級人工智能在任何情況下都不能傷害人類。
但仔細(xì)分析后發(fā)現(xiàn),在目前的計算模式下,這樣的算法是無法建立的。
也就是說,目前的算法并不具備阻止人工智能的能力,因為命令A(yù)I不要毀滅世界,會在無意中阻止“遏制算法”自身的運行。
人類與機器中心主任伊亞德·拉赫萬表示,如果發(fā)生這種情況,將不知道“遏制算法”是否還在分析威脅,或者它是否已經(jīng)停止遏制有害的AI。
基于這些計算結(jié)果,“遏制問題”是無法計算的,沒有一種算法可以找到判斷人工智能是否會對世界產(chǎn)生危害的解決方案。
研究結(jié)果還證明,我們甚至可能不知道超級智能機器何時到來,因為決定一臺機器是否表現(xiàn)出優(yōu)于人類的智能與“遏制問題”屬于同一領(lǐng)域。
國際科研團(tuán)隊的論文警告說,如果一臺超級智能機器想要控制世界,傷害人類,拔掉插頭也無濟(jì)于事。
責(zé)編AJX
-
算法
+關(guān)注
關(guān)注
23文章
4784瀏覽量
98075 -
超級計算機
+關(guān)注
關(guān)注
2文章
482瀏覽量
43379 -
AI
+關(guān)注
關(guān)注
91文章
39793瀏覽量
301454
發(fā)布評論請先 登錄
自動駕駛激光雷達(dá)會傷害人體嗎?
Cadence Conformal AI Studio三大核心引擎重塑IC驗證
嵌入式軟件單元測試中AI自動化與人工檢查的協(xié)同機制研究:基于專業(yè)工具的實證分析
軟件定義的硬件輔助驗證如何助力AI芯片開發(fā)
【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片到AGI芯片
【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的科學(xué)應(yīng)用
【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的未來:提升算力還是智力
【「AI芯片:科技探索與AGI愿景」閱讀體驗】+可期之變:從AI硬件到AI濕件
AI輸出“偏見”,人類能否信任它的“三觀”?
【書籍評測活動NO.64】AI芯片,從過去走向未來:《AI芯片:科技探索與AGI愿景》
CYUSB3014在不關(guān)機的情況下用USB 2.0的線連接電腦,計算機無法識別FX3,這種情況正常嗎?
關(guān)于鴻蒙App上架中“AI文本生成模塊的資質(zhì)證明文件”的情況說明
是德科技推出AI數(shù)據(jù)中心構(gòu)建器以驗證和優(yōu)化網(wǎng)絡(luò)架構(gòu)和主機設(shè)計
自動駕駛中的激光雷達(dá)是否會傷害人眼?
研究驗證:AI無法保證任何情況下不能傷害人類
評論