大型語言模型將如何影響美國國家安全?
ChatGPT風靡全球。自2022年11月發布以來,OpenAI的聊天機器人在SAT考試中取得了1020高分,通過了醫療執照考試,成功地降低了用戶的有線電視費用,甚至起草了如何監管AI的立法。從課堂到播客再到餐桌,甚至名人云集的電視節目,它一直是熱門話題。
關于ChatGPT對教育和勞動力等領域的影響,有很多評論。但是這個“ChatGPT時刻”,以及更廣泛的大語言模型(Large Language Models,LLMs),對美國國家安全意味著什么?
在戰略層面,各國將尋求利用AI模型獲得經濟、軍事和國家安全優勢。正如OpenAI首席執行官 Sam Altman在國家AI安全委員會(NSCAI)2021年全球新興技術峰會期間告訴Eric Schmidt的那樣,“將有多種全球努力來構建這些強大的人工智能系統,而在世界上獲得我們想要的結果的最佳方式,即與自由民主制度相一致的AI,將需要我們和我們的盟友首先構建它們”
本文的其余部分將概述LLMs的一些戰略考慮,首先評估我們今天在AI進步的高潮中所處的位置,然后轉向LLMs對國防部、情報界和更廣泛的美國國家安全機構的具體影響。我們將以決策者的關鍵考慮作為結尾。
AI進步的“ChatGPT時刻”
ChatGPT并非憑空出現。相反,它是AI快速發展的更廣泛趨勢線中的最新數據點。近年來,自然語言處理(Natural Language Processing,NLP)以及其他提高機器任務性能的機器學習(ML)功能發展迅速。在OpenAI于2020年發布GPT-3和2022年底發布ChatGPT的時間之間,僅LLMs生態系統就已經發展到包括來自世界各地的十幾個實體,它們已經基于開源LLMs發布模型和構建適合特定用途的工具。

LLMs生態系統中的參與者
今天推動LLMs向前發展的許多主要參與者都是美國公司。但是,中國的實體和公司,以及英國、以色列、韓國等國家的組織,也成為了重要的參與者。雖然美國私營部門具有競爭優勢,但中國決心在AI領域超越美國,在各個領域爭奪領導地位,包括算力、算法、數據、應用程序、集成和人才。中國也是LLMs的快速追隨者,百度將在3月份發布自己的類ChatGPT的聊天機器人。
更重要的是,我們可以預期AI生態系統將進一步擴展,因為訓練AI模型的障礙(如成本)會隨著“無代碼AI”等新技術的出現而減少。美國必須為世界上越來越多的參與者,從國家到公司再到個人,做好準備,以便能夠為各種目的創建和利用定制算法。
事實上,LLMs等工具正變得越來越實用和易于使用。據報道,在上線的兩個月里,ChatGPT的月活躍用戶已達到創紀錄的1億。TikTok花了九個月的時間才達到這一里程碑。谷歌宣布將很快發布自己的聊天模型Bard,該模型建立在其內部LaMDA模型之上。與許多其他組織一樣,SCSP在最近幾個月使用LLMs來幫助生成內容。在我們的第一份報告《國家競爭力的中期挑戰》中,我們嘗試了三個LLM:OpenAI的GPT-3、Hugging Face的BLOOM和Anthropic開發的模型,向它們詢問報告旨在解決的關鍵問題(大致上,LLMs的回答是合理的)。我們還使用LLMs來幫助撰寫本文的前一版,我們的2022年全球新興技術峰會邀請了Anthropic LLM(與Anthropic聯合創始人Jack Clark一起)回答觀眾的現場提問。
然而,LLMs可以做的不僅僅是談論國家安全形勢,他們實際上開始塑造它。以下是美國國家安全企業中LLMs的一些潛在用例。
美國國家安全企業的機會
LLMs作為“智能化intelligentized”工具的接口:類似于ChatGPT的LLMs可以成為人類訪問各種AI工具的接口,包括計算機視覺和機器人技術。在癌癥篩查等任務中,人機團隊(Human-machine teams,HMT)已經證明比單獨使用人類或AI模型更有效。在國家安全背景下,此類智能化工具可以通過AI生成的預測洞察力改變指標和警告格局,啟用半自主系統,例如使用LLMs來訓練有用的機器人并與之交互,以及支持從物流和供應鏈管理到出口管制申請審查的任務。
LLM和情報:ChatGPT和其他新興技術有能力在所有情報學科(INT)和情報周期的各個階段,以及在戰爭的各個層面為軍隊建立一個更強大、更快的情報社區。使用ML模型的HMT功能已經證明能夠通過過濾大量數據和標記重要信息來提高情報處理和分析的效率,并使分析師能夠專注于更深入的分析。LLMs還可以通過幫助生成估計分析草稿、準確翻譯外文等來提高生產力。特別是對于開源情報(OSINT),具有外部搜索能力和專家知情培訓數據的LLMs將增強我們的收集和分析能力。可以為對開源情報中心的需求和情報目的訓練和開發這些工具。
決策支持:決策優勢將歸于領導人最有能力利用AI模型作為決策支持工具的國家。通過將AI、數據、建模和仿真功能以及預測洞察力正確組合,模型將能夠制定出各種政策選項,并向人類決策者提供分析。最近的成就,例如AI模型在戰略游戲“強權外交Diplomacy”中的表現優于人類,其中涉及與對手互動和討價還價,以及在戰爭游戲中展示了這一技術向量的相當大的進步,即使還有更多的工作要做。LLMs在做出操作決策的半自治系統中應扮演的角色有明顯的局限性。然而,這些“專家”可能是房間里的另一個聲音,提供關于政策或戰爭選擇的實時、數據知情的觀點。
其他重要的國家安全考慮
信息格局:ChatGPT增加了NSCAI最終報告第1章中描述的風險,即在我們制定適當的對策之前,我們的對手轉動了啟用AI的信息操作的表盤。諸如ChatGPT之類的LLMs可用于以速度和規模生成獨特的文本,從而避開現有的過濾系統。也許最重要的是,盡管這些技術能力在ChatGPT之前就已經存在,但隨著公眾的關注,更多人可能會質疑他們在社交媒體等上閱讀的內容是否由AI生成。我們可能確實正在進入一個我們消費的大部分內容都是AI生成的世界,為國家和非國家行為者創造新的載體來塑造信息格局。令人欣慰的是,最近合成內容檢測功能的激增,包括OpenAI發布的文本分類器和C2PA的規范標準,提高了國家安全專業人員和知情公民等人將擁有可用于幫助識別合成媒體的工具的前景。
數據和訓練是基礎:LLMs近年來取得了長足的進步,但它們不是神諭。它們最終只能與訓練它們的數據一樣好,并且可以產生沒有事實依據的“幻覺”信息。它們的使用總是會帶來相關的風險,人類必須仔細考慮。盡管如此,LLMs將繼續激增,因為國家、公司和其他參與者推動了最先進的技術水平,并且人們將ChatGPT等工具集成到他們的日常生活中。任何擁有全球技術野心的國家都不會在生態系統向前發展時轉身離開。
AI對抗AI:隨著AI功能被整合到國家安全設備中,我們的LLMs可能會與我們的對手進行測試,無論是在特定情況下還是為了整體信息優勢。美國將需要利用私營部門的競爭優勢來確保我們的LLMs是世界上最好的。此外,我們需要確保美國軍方和情報界的AI工具在適當情況下能夠與我們的盟友和合作伙伴的AI工具進行互操作。
黑匣子問題:隨著我們越來越依賴AI系統,我們需要一種方法來解釋和理解它們?!白⒁饬ttention modeling”和“思維鏈推理chain-of-thought reasoning”方面的進步是有前途的,但我們仍然無法“查詢”AI應用程序以“討論”其思維過程。這一領域的突破將使人類用戶能夠理解AI系統做出特定決定的原因,從而有助于建立對AI系統的信任。
網絡安全和代碼:LLMs將通過代碼生成在基礎計算機科學層面影響國家安全,對國家安全機構、企業和消費者產生影響。Copilot是針對代碼生成進行微調的GPT-3版本,已經大大提高了編碼準確性和生產率。類似的技術開始用于檢測和防止零日攻擊,并且通??梢詭椭鷱娀a。LLMs還將為網絡安全創造新的風險載體,例如降低惡意網絡參與者的進入門檻。這些風險將使大規模部署有助于確保我們的網絡系統安全的AI工具變得更加重要。
跟上技術的發展速度:無論是制定AI法規還是將AI能力整合到人類勞動力中,政府都將努力跟上技術快速發展的步伐。例如,歐盟委員會正在努力解決歐盟即將出臺的AI法案將如何處理ChatGPT等系統的問題,這凸顯了設置適用于最新功能的治理模型的難度。同樣,工具和技術的快速變化可能會導致政府部門和機構采取保守的態度并繼續使用時已經過時的系統。唯一的前進方向是讓采購流程和治理框架等變得足夠靈活,以便它們能夠跟上AI的步伐。
歸根結底,無論我們的領導者和組織是否傾向于“ChatGPT時刻”,LLMs和AI都將更廣泛地重塑國家安全格局。今天,美國在LLMs研發的前沿具有關鍵的競爭優勢。但長期優勢將通過采用此類工具來塑造,而那些無法適應和落后的人將面臨風險。
編輯:黃飛
?
電子發燒友App












評論