機器是種族主義者嗎? 算法和人工智能具有天生的偏見嗎?Facebook,Google和Twitter是否有政治偏見?這些答案很復雜。
但是,如果問題在于科技行業是否在解決這些偏見方面做得足夠,那么直接的回答是“否”。
警告AI和機器學習系統正在使用“不良數據”進行訓練。經常被吹捧的解決方案是確保人們使用無偏數據來訓練系統,這意味著人類需要避免自己偏見。但這意味著科技公司正在培訓其工程師和數據科學家以了解認知偏差以及如何“應對”偏差。有沒有人停下來問那些給機器喂食的人是否真的了解偏見是什么意思?
諸如Facebook(我的前雇主),Google和Twitter之類的公司因各種帶有偏見的算法而反復受到攻擊。為了應對這些合理的恐懼,他們的領導人發誓要進行內部審計,并聲稱他們將與這一指數級威脅作斗爭。正如無數的研究和出版物所表明的那樣,人類無法完全避免偏見。堅持不這樣做是對一個非常現實的問題的一種理智上的不誠實和懶惰的反應。
在Facebook的六個月中,我被聘為公司業務誠信部全球選舉誠信運營負責人,參與了有關該主題的眾多討論。我不知道有人故意將偏見納入工作。但是我也沒有找到任何人真正知道以任何真實和有條理的方式抵制偏見的含義。
在擔任CIA官員十多年的時間里,我經歷了數月的結構性方法培訓和例行再培訓,以檢查假設和理解認知偏見。這是情報人員發展的最重要技能之一。分析人員和操作人員必須磨練測試假設的能力,并在分析事件時認真地評估自己的偏見,并進行不舒服且通常耗時的工作。他們還必須檢查那些向收藏家提供信息的人(資產,外國政府,媒體,對手)的偏見。
傳統上,這類培訓是為那些需要批判性分析思維的人員而設的,據我所知和經驗,在技術領域這種培訓很少見。盡管高科技公司通常會接受強制性的“管理偏見”培訓來幫助解決多樣性和包容性問題,但我沒有看到有關認知偏見和決策領域的任何此類培訓,特別是與產品和流程的構建和保護有關的培訓。
從我的Facebook同事提出的一些想法來看,我花了多年時間做的所有事情-結構化的分析技術,權衡證據,沒有得出結論,具有挑戰性的假設-都不是正常的做法,即使在解決問題時也是如此。他們制造的產品在現實世界中的后果。在很大程度上,“快速行動”文化與這些技術相反,因為在面臨重要決策時需要放慢速度。
-
算法
+關注
關注
23文章
4784瀏覽量
98048 -
Facebook
+關注
關注
3文章
1432瀏覽量
58908 -
人工智能
+關注
關注
1817文章
50098瀏覽量
265349
發布評論請先 登錄
開發智能體配置-內容合規
微軟與新思科技分享智能體人工智能技術的行業影響
利用超微型 Neuton ML 模型解鎖 SoC 邊緣人工智能
“人工智能+”,走老路難賺到新錢
挖到寶了!人工智能綜合實驗箱,高校新工科的寶藏神器
挖到寶了!比鄰星人工智能綜合實驗箱,高校新工科的寶藏神器!
超小型Neuton機器學習模型, 在任何系統級芯片(SoC)上解鎖邊緣人工智能應用.
最新人工智能硬件培訓AI 基礎入門學習課程參考2025版(大模型篇)
墨芯人工智能入選中國戰略性新興產業典型案例
如何構建邊緣人工智能基礎設施
開售RK3576 高性能人工智能主板
人工智能對智慧園區的提升和幫助
AI人工智能隱私保護怎么樣
算法和人工智能具有天生的偏見嗎?
評論