12 月 19 日,OpenAI宣布加緊內部安全防護工作,設立“安全顧問小組”以防范有害人工智能的潛在威脅。這一舉措意味著技術團隊之上增加新的“守護者”,為領導層提供專業意見,且擁有董事會的否決權。
OpenAI將針對每個模型在網絡安全、說服力(如虛假信息)、模型自主性以及 CBRN(化學、生物、放射性和核威脅,如制造新病原體的可能性)等四個方面進行風險評級。
為了防止某些問題得不到充分討論或處理,OpenAI設定了多種可能的緩解策略,例如模型拒絕教授如何制作凝固汽油或管式炸彈的傳授。對于評級認定為“高風險”的模型,將禁止其發布;而若模型存在“關鍵風險”,則終止其后續研發。
然而,負責研發模型的人員并非最佳安全評估和建議者。為此,OpenAI正籌建一支“跨職能安全咨詢小組”,涉足技術領域,審查研究人員報告,從更全面的視角提供建議,發掘此前未曾意識到的隱憂。
這個過程要求安全專家的意見同步反饋至董事會及領導層,領導層將權衡利弊并作出決定;盡管董事會享有最終決定權,但他們也可以隨時撤回決定,防止潛在的安全隱患被忽略。
本次更新的重要焦點在于,OpenAI前任首席執行官Sam Altman因模型安全問題被董事會罷免。此次高層人事變動,導致兩位主張謹慎做事的董事Ilya Sutskever和 Helen Toner離任。
然而,業界仍存擔憂,若專家小組提出建議、CEO據此決策,眼下的 OpenAI董事會是否有足夠力量制止此舉?此外,OpenAI允諾引入獨立第三方審計體現的透明度問題是否真正得到解決?
-
網絡安全
+關注
關注
11文章
3489瀏覽量
63408 -
人工智能
+關注
關注
1817文章
50094瀏覽量
265275 -
OpenAI
+關注
關注
9文章
1245瀏覽量
10057
發布評論請先 登錄
《人工智能應用開發-中級(大模型)》認證證書含金量如何?怎么考?
人工智能時代,如何打造網絡安全“新范式”
在物聯網設備面臨的多種安全威脅中,數據傳輸安全威脅和設備身份安全威脅有何本質區別?
四維圖新亮相2025國際前瞻人工智能安全與治理大會
【艾為視角】保證大方向正確!利用人工智能解決一線實際問題
利用超微型 Neuton ML 模型解鎖 SoC 邊緣人工智能
“人工智能+”行動重磅發布!ElfBoard助力嵌入式教育智能化升級
挖到寶了!人工智能綜合實驗箱,高校新工科的寶藏神器
挖到寶了!比鄰星人工智能綜合實驗箱,高校新工科的寶藏神器!
最新人工智能硬件培訓AI 基礎入門學習課程參考2025版(大模型篇)
芯盾時代引領人工智能安全治理新范式
開售RK3576 高性能人工智能主板
AI人工智能隱私保護怎么樣
OpenAI強化內部安全流程,應對有害人工智能威脅
評論