人工智能已經(jīng)成為每個(gè)人生活中不可或缺的一部分。 從YouTube建議之類的簡(jiǎn)單任務(wù)到諸如生成可治愈疾病的藥物之類的復(fù)雜的救生任務(wù),它已經(jīng)無處不在。 它以比我們意識(shí)到的更多的方式影響著我們的生活。
但是,人工智能公平嗎? 不,絕對(duì)不是。
定義一個(gè)公平的AI很難。 這是我能想到的最好的解釋。 如果輸出獨(dú)立于已經(jīng)受到社會(huì)歧視影響的特定任務(wù)的敏感參數(shù)(例如性別,種族,性別,宗教信仰,殘疾等),則給定的AI模型是公平的。
在此文章中,我將撰寫有關(guān)AI偏差,AI偏差的現(xiàn)實(shí)示例以及解決方法的文章。
問題
AI偏差是由于用于訓(xùn)練模型的數(shù)據(jù)固有的偏見引起的,從而導(dǎo)致社會(huì)歧視。 這導(dǎo)致缺乏平等機(jī)會(huì)。
例如,假設(shè)我的任務(wù)是創(chuàng)建一個(gè)模型,以位置為參數(shù)來計(jì)算一個(gè)人的信用評(píng)分。 某些種族集中在某些地方。 這將使我的模型在種族上偏向那些種族群體,從而在獲得信用卡和銀行貸款時(shí)影響他們。
偏愛的AI模型加劇了當(dāng)前的社會(huì)歧視,并為壓迫鋪平了道路。
現(xiàn)實(shí)生活中AI偏見的例子
這是AI偏見的一些現(xiàn)實(shí)例子:
COMPAS:COMPAS(替代性制裁的更正罪犯管理分析)是美國(guó)法院用來判斷被告(被控犯罪的人)成為累犯(重犯先前犯罪的行為)的軟件。 由于數(shù)據(jù)的嚴(yán)重偏差,該模型預(yù)測(cè)的黑人違犯累犯率是白人的兩倍。
亞馬遜的招聘:2014年,亞馬遜開發(fā)了一個(gè)AI招聘系統(tǒng),以簡(jiǎn)化其招聘流程。 由于用于訓(xùn)練模型的數(shù)據(jù)來自過去10年,由于技術(shù)行業(yè)中男性占主導(dǎo)地位,因此大多數(shù)被選為男性的申請(qǐng)人被發(fā)現(xiàn)具有歧視性。 亞馬遜在2018年取消了該系統(tǒng)。
美國(guó)醫(yī)療保健:美國(guó)醫(yī)療保健系統(tǒng)使用的AI模型為黑人分配的相同疾病發(fā)病率低于白人。 這是因?yàn)樵撃P歪槍?duì)成本進(jìn)行了優(yōu)化,并且由于人們認(rèn)為黑人支付能力較差,因此該模型將其健康風(fēng)險(xiǎn)等級(jí)低于白人。 這導(dǎo)致黑人的醫(yī)療保健標(biāo)準(zhǔn)降低。
Twitter圖像裁剪:2020年9月,Twitter用戶發(fā)現(xiàn)圖像裁剪算法更喜歡白臉而不是黑臉。 即,當(dāng)將寬高比與預(yù)覽窗口不同的圖像發(fā)布到Twitter時(shí),該算法會(huì)裁剪圖像的一部分,并僅顯示圖像的特定部分作為預(yù)覽。 這種AI模型經(jīng)常在預(yù)覽窗口中以白色和黑色面孔顯示白色面孔。
Facebook的廣告算法:2019年,F(xiàn)acebook允許廣告商根據(jù)種族,性別和宗教信仰來定位人群。 這導(dǎo)致護(hù)理和秘書等工作針對(duì)女性,而看門人和出租車司機(jī)等工作針對(duì)男性,尤其是有色男人。 該模型還了解到,向白人展示房地產(chǎn)廣告時(shí),其點(diǎn)擊率更高,從而導(dǎo)致向少數(shù)群體提供房地產(chǎn)廣告的情況有所減少。
這些只是AI偏見的一些常見示例。 無論是否有開發(fā)人員的知識(shí),都有許多不公平的AI做法實(shí)例。
那么如何解決?
邁向公平AI的第一步就是承認(rèn)這個(gè)問題。 人工智能是不完美的。 數(shù)據(jù)不完美。 我們的算法不完善。 我們的技術(shù)不完善。 假裝沒有問題,就不可能找到解決方案。
其次,問問自己這個(gè)解決方案是否需要AI。
不要害怕在沒有機(jī)器學(xué)習(xí)的情況下發(fā)布產(chǎn)品-Google
存在一些不依賴于數(shù)據(jù)的問題。 諸如發(fā)現(xiàn)被告再犯的可能性之類的任務(wù)更多地取決于情感而不是數(shù)據(jù)。
第三,遵循負(fù)責(zé)任的AI實(shí)踐。 我在下面添加了Google負(fù)責(zé)任的AI實(shí)踐指南中的要點(diǎn)。
負(fù)責(zé)任的AI實(shí)踐:
使用以人為本的設(shè)計(jì)方法:內(nèi)置適當(dāng)披露的設(shè)計(jì)模型,并在部署之前合并測(cè)試人員的反饋。
確定多個(gè)度量標(biāo)準(zhǔn)以評(píng)估培訓(xùn)和監(jiān)視:使用適合任務(wù)的不同度量標(biāo)準(zhǔn),以了解不同錯(cuò)誤和經(jīng)驗(yàn)之間的權(quán)衡。 這些指標(biāo)可以是來自消費(fèi)者的反饋,誤報(bào)率和誤報(bào)率等。
如有可能,請(qǐng)檢查您的原始數(shù)據(jù):AI模型反映了用于訓(xùn)練模型的數(shù)據(jù)。 如果數(shù)據(jù)有問題,則模型也將有問題。 嘗試獲得平衡的數(shù)據(jù)。
了解模型的局限性:經(jīng)過訓(xùn)練可檢測(cè)相關(guān)性的模型不一定有助于建立因果關(guān)系。 例如,一個(gè)模型可能會(huì)得知購(gòu)買籃球鞋的人通常平均會(huì)更高,但這并不意味著購(gòu)買籃球鞋的用戶會(huì)因此變高。
測(cè)試:進(jìn)行嚴(yán)格的單元測(cè)試以確定模型中的故障。
部署后繼續(xù)監(jiān)視和更新模型:考慮用戶反饋,并在部署后根據(jù)此模型定期更新模型。
設(shè)計(jì)一個(gè)具有公平性和包容性具體目標(biāo)的模型:與來自倫理學(xué)和社會(huì)研究領(lǐng)域的專家合作,以理解和解釋各種觀點(diǎn)。 嘗試使您的模型盡可能公平。
使用代表性的數(shù)據(jù)集來訓(xùn)練和測(cè)試模型:嘗試評(píng)估數(shù)據(jù)的公平性。 即,尋找特征和標(biāo)簽之間的偏見或歧視性關(guān)聯(lián)。
檢查是否存在不公正的偏見:從不同背景的測(cè)試人員那里獲得單元測(cè)試輸入。 這可以幫助確定該模型可能影響的人群。
分析效果:考慮不同的指標(biāo)。 一個(gè)指標(biāo)的改進(jìn)可能會(huì)損害另一個(gè)指標(biāo)的性能。
開發(fā)公平AI的工具
FATE:Microsoft提供的AI中的公平性,問責(zé)制,透明度和道德規(guī)范(FATE),由Microsoft提供評(píng)估可視化儀表板和緩解偏差算法的工具。 它主要用于比較系統(tǒng)的公平性和性能之間的權(quán)衡。
AI Fairness 360:AI Fairness 360是IBM提供的一個(gè)開源工具包,可幫助您檢查,報(bào)告和減輕機(jī)器學(xué)習(xí)模型中的歧視和偏見。
ML Fairness Gym:ML Fairness Gym是Google提供的一種工具,用于探索機(jī)器學(xué)習(xí)系統(tǒng)對(duì)AI偏見的長(zhǎng)期影響。
結(jié)論
在過去的幾年中,公司和政府已經(jīng)開始認(rèn)真對(duì)待AI偏見。 許多公司已經(jīng)開發(fā)了評(píng)估AI公平性的工具,并且正在竭盡全力對(duì)抗AI偏見。 盡管AI具有巨大的潛力,但對(duì)我們而言,現(xiàn)在要比以往任何時(shí)候都更加重要,要牢記AI系統(tǒng)的潛在歧視性危險(xiǎn)并幫助開發(fā)公平的AI模型。
責(zé)編AJX
-
AI
+關(guān)注
關(guān)注
91文章
39866瀏覽量
301525 -
人工智能
+關(guān)注
關(guān)注
1817文章
50105瀏覽量
265561 -
模型
+關(guān)注
關(guān)注
1文章
3756瀏覽量
52127
發(fā)布評(píng)論請(qǐng)先 登錄
開發(fā)智能體配置-內(nèi)容合規(guī)
生成式人工智能會(huì)讓自動(dòng)駕駛更靈活嗎?
微軟與新思科技分享智能體人工智能技術(shù)的行業(yè)影響
利用超微型 Neuton ML 模型解鎖 SoC 邊緣人工智能
“人工智能+”,走老路難賺到新錢
挖到寶了!人工智能綜合實(shí)驗(yàn)箱,高校新工科的寶藏神器
挖到寶了!比鄰星人工智能綜合實(shí)驗(yàn)箱,高校新工科的寶藏神器!
關(guān)于人工智能處理器的11個(gè)誤解
超小型Neuton機(jī)器學(xué)習(xí)模型, 在任何系統(tǒng)級(jí)芯片(SoC)上解鎖邊緣人工智能應(yīng)用.
迅為RK3588開發(fā)板Linux安卓麒麟瑞芯微國(guó)產(chǎn)工業(yè)AI人工智能
最新人工智能硬件培訓(xùn)AI 基礎(chǔ)入門學(xué)習(xí)課程參考2025版(大模型篇)
如何構(gòu)建邊緣人工智能基礎(chǔ)設(shè)施
開售RK3576 高性能人工智能主板
AI人工智能隱私保護(hù)怎么樣
為什么人工智能總是有缺陷,不能做到公平?
評(píng)論