人工智能不僅僅是發(fā)展戰(zhàn)爭武器的工具,它還是了解武器影響的工具,不管是我們當前擁有的武器還是我們未來擁有的武器。
在越戰(zhàn)之后流傳著這樣一段對話:一位美國上校告訴越南上校:“你知道,你從未在戰(zhàn)場上擊敗過我們。”,越南上校回答說:“可能確實是這樣,但這也無關(guān)緊要。”這段對話大概率是杜撰的,但它也引出了一個問題——不注重效能的戰(zhàn)斗。
“會產(chǎn)生什么影響?”是國家安全中一個經(jīng)常被忽視的基本問題:一個行動對對手產(chǎn)生了什么影響,它是否使我們更接近我們的目標?很多情形都適用這個問題,比如,為迎接當?shù)仡I(lǐng)導而進行的徒步巡邏、落在叛亂陣地的***、關(guān)閉電網(wǎng)的網(wǎng)絡(luò)行動或面向敵人的精彩航母展示等會產(chǎn)生什么效果?這個問題不光適用于高級政策制定者,也適用于初級戰(zhàn)術(shù)家。在任何層面上忽視它都會產(chǎn)生嚴重后果,尤其在有贏得一場戰(zhàn)斗卻輸?shù)粽麍鰬?zhàn)爭的傾向時。
縱然“會產(chǎn)生什么影響”是一個很重要的問題,但這個問題的答案卻十分虛無縹緲——盡管我們盡了最大的努力,但還是無法給出完整答案。一個影響是對手尊重美國利益的意圖發(fā)生了變化,但意圖是存在于對手頭腦中的。直接暴力可以使意圖變得清晰,但除了主動作戰(zhàn),我們無法獲悉別人打算做什么。即使我們能夠看清對手的想法,效能在時間維度和空間維度的復(fù)雜性也使得我們難以完全感知。例如,對于一顆落入叛亂陣地的***,不同的人會有不同的反應(yīng),比如***落點附近的叛亂分子、從遠處看到***爆炸的人還有聽到爆炸聲的人。要回答“會產(chǎn)生什么影響?”這一問題,我們需要在***爆炸時弄清楚這些瞬時反應(yīng),并在***爆炸后幾天和幾周內(nèi)了解這些反應(yīng)是如何發(fā)展的。對任何人或任何團體來說,弄明白這些都無比艱難。
人工智能(AI),作為一種基于證據(jù)的測量軍事影響的方法,可以讓我們更接近問題的答案。它可以衡量情緒,而情緒是行為意圖的指標,它可還以跨越時間和空間。我們既可以使用人工智能來開發(fā)用于發(fā)動戰(zhàn)爭的新工具,也可以使用它來更好地了解我們已有工具的效能。
決策者面臨的挑戰(zhàn)將是如何將人工智能作為衡量效能的方式。除了技術(shù)和組織方面的障礙外,我們還面臨著一個心理障礙:我們與生俱來的認知感。人類可以看到對手在他們視野中如何反應(yīng),并且人類可以感受到他人的情緒。采用人工智能作為效能的衡量標準,意味著承認我們自己的感知可能是不完整的,機器能做得比我們更好,而承認這一點可能會讓人覺得不舒服。采用人工智能作為衡量效能的第一步是了解人類的認知偏差如何使判斷效能變得困難。本文描述了人類用直覺判斷效能容易出錯的具體例子,并解釋了人工智能如何幫助回答這個基本問題:“會產(chǎn)生什么影響?”
一個難題=三個簡單問題?
心理學在過去半個世紀中最重要的發(fā)展之一是認識到,人類在面對極其復(fù)雜的問題時,會簡化這些問題以得出結(jié)論。用諾貝爾獎得主心理學家丹尼爾·卡尼曼的話來說就是,我們提出了難以解決的問題,卻用簡單易懂的問題代替它們。
相比于“會產(chǎn)生什么影響?”這個難題,我們更傾向于問(至少)三個簡單的問題:我想要的效果是什么?對敵人的刻板印象會產(chǎn)生什么影響?此時此刻的影響是什么?我們轉(zhuǎn)向這些更簡單的問題——用判斷和決策研究人員的話說就是啟發(fā)式問題——因為這些問題的答案更直觀。回答這些問題要比回答多維對手將如何在不同的時間和空間上做出反應(yīng)容易得多。回答這些簡單的問題會導致對所討論的“效能”產(chǎn)生系統(tǒng)偏見估計。人工智能在測量效能方面最重要的貢獻是為我們消除這種偏見。當然,是否是最重要的貢獻要取決于我們對人工智能的問題指引。
簡單問題#1:我們的目標是什么?
當面對復(fù)雜性問題時,我們傾向于用期待代替現(xiàn)實,用“我想要什么樣的影響?”來代替“會產(chǎn)生什么效果?”或者,考慮到組織的激勵措施,用“我的老板希望影響是什么?”來代替。“我想要”這個問題是很容易回答的,我們希望影響能夠滿足我們的目標。
這個簡單的問題由于混淆了理想目標(我們想要看到實現(xiàn)的某些影響)與準確目標(我們想知道實現(xiàn)的實際影響)。這種情況很常見,任何人都曾經(jīng)計劃在一天內(nèi)完成比實際可行的更多的任務(wù),并且將這兩個目標等同起來。這是心理學家所說的“計劃謬論”。
人工智能,至少是狹義上的人工智能,已經(jīng)可以經(jīng)過訓練解決一系列特定問題,并且能不像人類那樣容易受到目標混淆的影響。例如,一個接受過適當訓練來衡量對手聲音中恐懼的程序,就不會為了在戰(zhàn)前增強其自信心或者在戰(zhàn)后上傳好消息,去下意識地去改變它的算法。這個算法只會測量恐懼。(該衡量標準是否以無偏見的方式使用,將取決于人類決策者。)
簡單問題#2:對敵人心理的刻板印象有什么影響?
第二種替換是將對手的全部復(fù)雜性替換為對他或她簡單的刻板印象。“會產(chǎn)生什么影響?”需要衡量一個行動對所有相關(guān)戰(zhàn)斗人員的影響,而一個任務(wù)往往隨著每個額外戰(zhàn)斗人員的增加變得更加復(fù)雜。一個更簡單、更直觀的任務(wù)是對所有戰(zhàn)斗人員創(chuàng)建一個單一的刻板印象,并衡量對該單一刻板印象的影響。有研究認為,人們傾向于認為對手不如他們。即使是不傾向于貶低敵人的決策者,也必須依賴某種程度的簡化。原因很簡單,因為他們的認知能力有限,無法理解對手的全部復(fù)雜性。
原因可能追溯到我們進化的過去,人類傾向于高估敵人的恐懼程度,而低估他們自己將經(jīng)歷的憤怒程度。恐懼和憤怒會導致不同的行為,可以將影響從好的變成壞的。恐懼會讓人感受到世界上更多的風險,并削弱對局勢的控制,如果目標是說服敵人停止戰(zhàn)斗,那么這兩者都是好事。但憤怒會產(chǎn)生相反的效果——它導致對手感受到更少的風險和更強的控制,并尋求報應(yīng)性正義。如果目標是停止戰(zhàn)斗,所有這些都是不好的。
使用已有的技術(shù),可以訓練算法衡量來自文本、人臉圖像和語音音調(diào)的不同情緒。測量工具可以理想地與現(xiàn)有的情報收集功能相結(jié)合,捕捉語音通信或面部圖像的平臺可以為算法提供必要的基本數(shù)據(jù),以評估對手對某一行動的情感反應(yīng)。開發(fā)這樣的工具需要使商業(yè)技術(shù)適用軍事環(huán)境,例如,商業(yè)公司已經(jīng)將情緒衡量作為衡量營銷活動有效性的手段。
使用敵人先前是否有恐懼或憤怒反應(yīng)的歷史數(shù)據(jù),算法可以預(yù)測影響何時會導致一種情緒。實際上,憤怒和恐懼只是開始。人工智能可以接受訓練,以衡量與有效性相關(guān)的其他因素:例如,民眾對政府的信任程度,或戰(zhàn)斗部隊的團隊精神。
簡單問題#3:此時此刻的影響是什么(僅此時此刻)?
最后,人類傾向于簡化難以解決的影響問題,因為它涵蓋了太多的空間和時間。回到先前提到的落入叛亂陣地的***這個例子,任何看到***的人、***附近的人、甚至是只聽到爆炸聲的人都可能會改變他們尊重美國利益的想法。要想完整回答“會產(chǎn)生什么影響?”這一問題,必須考慮到任何直接或間接接觸***的人。
影響也會隨著時間的推移而變化。***爆炸后立即產(chǎn)生的影響可能與它一周后產(chǎn)生的影響有所不同,最初的震驚可能已經(jīng)變成了恐懼或憤怒。在整個空間和時間維度,即使是衡量一個動作的效果,對人類來說也是不切實際的。更別說衡量長期行動及其對整個地區(qū)的影響。
人工智能可以幫助解決這個問題,通過使用算法,在更廣泛的意義上評估影響。如果利用正確的數(shù)據(jù)進行適當?shù)挠柧殻惴ň湍芎饬啃袆又苓厖^(qū)域以及有關(guān)行動的新聞所能傳播到的區(qū)域人們的情緒反應(yīng),并且衡量***爆炸瞬間、幾天和幾周內(nèi)人們的情緒。人工智能可以使決策者面臨的復(fù)雜問題變得迎刃而解。
當然,算法的有效性取決于訓練數(shù)據(jù)的有效性以及人類收集信息的數(shù)量。專家們必須避免將人類的局限性編碼到人工智能算法中——例如,如果算法只使用對美國而言積極的結(jié)果數(shù)據(jù)集進行訓練,那么人工智能就很容易得出有偏差的答案。
技術(shù)、組織和心理上的挑戰(zhàn)
為了讓人工智能成為一種衡量軍事影響的方法,國防部必須克服許多障礙。首先,它必須說服技術(shù)專家為軍事應(yīng)用開發(fā)人工智能。谷歌員工最近在抗議他們公司使用開源人工智能解決方案,來幫助國防部處理來自無人機系統(tǒng)的數(shù)據(jù)。這段插曲表明,將人工智能應(yīng)用于軍事環(huán)境并不像與公司簽訂一份合同那么簡單。如果五角大樓要使用人工智能衡量軍事影響,就需要讓糾結(jié)的開發(fā)者相信軍事應(yīng)用在道義上是合理的。
針對那些具有相關(guān)人工智能專業(yè)知識的人的說服策略應(yīng)該強調(diào),從長遠來看,更好的影響衡量標準可以減少暴力沖突。更精確地衡量影響會減少客觀上無效的暴力(即使直覺上似乎有效)。在需要暴力的情況下,更好的效力措施將有助于確保它只針對那些意圖無法通過除暴力外的其他手段改變的人。
組織上的障礙部分源于國防部的規(guī)模和過去的成功。采用新技術(shù)所需的靈活性往往隨著官僚規(guī)模的擴大而減少,而美國軍方過去的成功卻帶來了一個阻止任何形式改變的問題:既然過去的方法是成功的,那為什么還采用新方法呢?國防部的創(chuàng)新委員會建議五角大樓充分利用人工智能,包括建立一個致力于研究、實驗和技術(shù)運營的全系統(tǒng)中心。然而,正如創(chuàng)新委員會成員和前谷歌CEO埃里克·施密特所言,阻礙進步的是“創(chuàng)新采納問題”。據(jù)他說,國防部并不缺乏新的想法,而是缺乏超越現(xiàn)狀的能力。
然而,在技術(shù)和組織動力的背后,是一個更為基本的心理障礙。我們可以用自己的眼睛看到影響,并且不費吹灰之力就能看穿他們。采用人工智能來衡量有效性,就是懷疑我們的直覺。自我懷疑并非易事,特別是對于經(jīng)驗豐富的決策者而言,他們對于組織的價值部分決定于他們了解情況的能力。
結(jié)論
人工智能不僅僅是發(fā)展戰(zhàn)爭武器的工具,它還是了解武器影響的工具,不管是我們當前擁有的武器還是我們未來擁有的武器。它不是第一種能同時發(fā)動戰(zhàn)爭和理解戰(zhàn)爭效力的手段。運輸彈藥的飛機也可以作為戰(zhàn)損評估的平臺,衛(wèi)星可以在用于偵察的同時被武器化。但是,人工智能的不同之處在于,它不僅僅是一種收集更多有關(guān)軍事效力信息的方式,它還是一種理解所有信息的手段。
人工智能是解決信息豐富而認知能力有限這一歷史悠久問題的一種手段。也就是說,如果我們愿意讓它發(fā)揮作用,它就可以做到這一點。如果是這樣的話,人工智能可以使我們更接近于解決另一個悠久的問題:它可以幫助我們觀察敵人的思想,影響一直存在敵人的大腦中,但我們還從未見過。
-
人工智能
+關(guān)注
關(guān)注
1817文章
50102瀏覽量
265521
原文標題:老問題,新方法:在人工智能時代衡量軍事效能
文章出處:【微信號:drc_iite,微信公眾號:全球技術(shù)地圖】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
開發(fā)智能體配置-內(nèi)容合規(guī)
利用超微型 Neuton ML 模型解鎖 SoC 邊緣人工智能
挖到寶了!人工智能綜合實驗箱,高校新工科的寶藏神器
挖到寶了!比鄰星人工智能綜合實驗箱,高校新工科的寶藏神器!
關(guān)于人工智能處理器的11個誤解
超小型Neuton機器學習模型, 在任何系統(tǒng)級芯片(SoC)上解鎖邊緣人工智能應(yīng)用.
迅為RK3588開發(fā)板Linux安卓麒麟瑞芯微國產(chǎn)工業(yè)AI人工智能
最新人工智能硬件培訓AI 基礎(chǔ)入門學習課程參考2025版(大模型篇)
人工智能是做什么的
開售RK3576 高性能人工智能主板
NXP技術(shù)白皮書:AIoT人工智能物聯(lián)網(wǎng) 將人工智能與現(xiàn)實世界相連
人工智能對智慧園區(qū)的提升和幫助
AI人工智能隱私保護怎么樣
如何將人工智能作為衡量軍事效能的方式?
評論