對于人工智能(以下簡稱 AI),研究人員經(jīng)常說,一流的機(jī)器學(xué)習(xí)實(shí)際上更像一門藝術(shù)而不是科學(xué)。有效的公共關(guān)系也是如此,選擇合適的詞語來傳達(dá)積極的語調(diào)或重塑有關(guān) AI 的話題是一項(xiàng)需要技巧的任務(wù):做得好,就可以加強(qiáng)一個人的品牌形象,但做不好,可能會引起更強(qiáng)烈的反對和抵制。
科技巨頭們對這一點(diǎn)肯定是心知肚明。過去幾年里,他們不得不快速學(xué)會這門藝術(shù),因?yàn)楣妼λ麄兊男袨樵絹碓讲恍湃危麄兊?AI 研究和技術(shù)也面臨越來越多的批評。
現(xiàn)在,他們想向公眾證明他們十分關(guān)注 AI 開發(fā)方式的合理性,但又想確保這樣不會招來過多的審查,因此開發(fā)了一種新詞匯。以下是一則解讀他們的語言、挑戰(zhàn)他們的假設(shè)和價值觀的內(nèi)部指南。
Accountability(責(zé)任,名詞)—— 即你的 AI 系統(tǒng)失敗時,讓其他人為其后果負(fù)責(zé)的行為。
Accuracy(準(zhǔn)確性,名詞)—— 技術(shù)正確性。這是評估 AI 模型性能時最重要的成功衡量標(biāo)準(zhǔn),參見 validation。
Adversary(對手,名詞)—— 即一個能破壞你強(qiáng)大的盈利 AI 系統(tǒng)的獨(dú)立工程師,參見 robustness 和 security。
Alignment(結(jié)盟,名詞)—— 即設(shè)計 AI 系統(tǒng)的挑戰(zhàn),該系統(tǒng)需執(zhí)行我們的命令,重視我們所重視的一切,故意轉(zhuǎn)移注意力。避免使用造成不良意外后果的真實(shí)例子,參見 safety。
Artificial general intelligence(人工一般智能,短語)—— 假設(shè)的 AI 上帝,可能會在遙遠(yuǎn)的未來出現(xiàn),但也可能馬上就會到來。可好可壞,只要說得通即可,但你明顯在打造一個好的 AI 上帝。這代價不菲,因此,你需要更多的資金,參見 long-term risks。
Audit(審計,名詞)—— 你花錢請別人對你的公司或 AI 系統(tǒng)進(jìn)行審查,這樣你無需做任何改變就可以顯得更透明,參見 impact assessment。
Augment(增加,動詞)—— 即提高白領(lǐng)工人的生產(chǎn)力。副作用:自動化讓藍(lán)領(lǐng)無工可做,雖令人難過但不可避免。
Beneficial(有益的,形容詞)—— 即對你要構(gòu)建的體系的籠統(tǒng)描述,定義不明更好,參見 value。
By design(精心設(shè)計,詞組)—— 如 “精心設(shè)計而來的公平” 或 “精心設(shè)計而來的責(zé)任”,這個詞組表明你從一開始就在認(rèn)真思考重要的事情。
Compliance(服從,名詞)—— 即行為遵守法律,凡是不違法的都可以。
Data Labelers(數(shù)據(jù)標(biāo)簽者,詞組)—— 據(jù)說這些人藏身于亞馬遜的 “土耳其機(jī)器人” 接口背后,以低廉的價格做數(shù)據(jù)清理工作,不確定他們是誰,從未見過他們。
Democratize(民主化,動詞)—— 即不惜一切代價擴(kuò)展技術(shù),也是集中資源的理由,參見 scale。
Diversity、equity、and inclusion(多樣性、公平和包容,詞組)—— 即雇傭邊緣群體的工程師和研究人員的行為,這樣你就可以把他們公之于眾,如果他們挑戰(zhàn)現(xiàn)狀,就可以解雇他們。
Efficiency(效率,名詞)—— 即使用較少的數(shù)據(jù)、內(nèi)存、人員或精力來建立一個 AI 系統(tǒng)。
Ethics board (道德委員會,詞組)—— 即一個沒有實(shí)權(quán)的顧問小組,召集起來讓你的公司表現(xiàn)出樂于傾聽的樣子。如谷歌的 AI 道德委員會(已取消),F(xiàn)acebook 的監(jiān)督委員會(仍存在)。
Ethics principles(倫理原則,詞組)—— 用來表明你動機(jī)良好的老生常談。保持高水平,語言越模糊越好,參見 responsible AI。
Explainable(可解釋的,形容詞)—— 描述一個你、開發(fā)者和用戶都能理解的 AI 系統(tǒng),但對用戶來說就很難實(shí)現(xiàn)這一點(diǎn),可能不值得這么做,參見 interpretable。
Fairness (公平,名詞)—— 一個用來描述公平算法的復(fù)雜概念,可根據(jù)你的偏好以幾十種方式下定義。
For good (永久地,詞組) —— 如 “永久的 AI” 或 “一勞永逸的數(shù)據(jù)”。一個與你的核心業(yè)務(wù)完全無關(guān)的倡議可以幫你起到良好的宣傳效果。
Foresight (遠(yuǎn)見,名詞)—— 即展望未來的能力。這基本上是不可能的,因此,你的 AI 系統(tǒng)為何無法擺脫意外后果也就有了非常合理的解釋。
Framework (框架,名詞) –即一套指導(dǎo)決策的方針。這是一個讓你在實(shí)際過程中拖延決策時顯得深思熟慮和慎重的好辦法。
Generalizable (可推廣的,形容詞)—— 一個好 AI 模型的標(biāo)志,即盡管條件不斷變化仍能繼續(xù)工作的 AI 模型,參見 real world。
Governance (管理方式,名詞) —— 即官僚體系。
Human-centered design (以人為本的設(shè)計,詞組)—— 這個過程包括代入 “角色” 來想象一個普通用戶可能想從你的 AI 系統(tǒng)中得到什么,只要有時間的話,可能需要征求實(shí)際用戶的反饋,參見 stakeholders。
Human in the loop (人機(jī)回圈,詞組) —— 人人都是 AI 系統(tǒng)的一份子。責(zé)任范圍很廣,從偽造系統(tǒng)的能力到規(guī)避對自動化的指責(zé)。
Impact assessment(影響評估,詞組)—— 你自己對你的公司或 AI 系統(tǒng)進(jìn)行的評估,來表明你愿意在不做改變的情況下看到其缺點(diǎn),參見 audit。
Interpretable (可說明的,形容詞)—— 對一個 AI 系統(tǒng)的描述,作為開發(fā)者的你可以一步步遵循其計算過程來理解該系統(tǒng)是如何得出答案的。實(shí)際上可能只是線性回歸。AI 聽起來更好。
Integrity(誠信,名詞)—— 即破壞你模型的技術(shù)性能或你公司擴(kuò)張能力的因素。不要將之與對社會有害的問題弄混淆,也不要把 honesty(誠實(shí))與之混淆。
Interdisciplinary(跨學(xué)科的,形容詞)—— 凡是有不懂編碼的人員的團(tuán)隊(duì)或項(xiàng)目就會用這個術(shù)語,這些人員包括用戶研究者、產(chǎn)品經(jīng)理、道德哲學(xué)家,尤其是道德哲學(xué)家。
Long-term risks(長期風(fēng)險,名詞)—— 在遙遠(yuǎn)的未來可能帶來災(zāi)難性后果的壞事情,這也可能永遠(yuǎn)不會發(fā)生,但研究和避免長期風(fēng)險比避免現(xiàn)有 AI 系統(tǒng)帶來的直接危害更重要。
Partners(伙伴,名詞)—— 其他精英團(tuán)體,他們與你有相同的世界觀,并能與你一起維持現(xiàn)狀,參見 stakeholders。
Privacy trade-off(隱私取舍,詞組)—— 犧牲個人對個人信息的控制來實(shí)現(xiàn)群體利益,比如 AI 驅(qū)動的醫(yī)療保健進(jìn)步,這也是非常有利的。
Progress (進(jìn)步,名詞) —— 科學(xué)和技術(shù)進(jìn)步。一種固有優(yōu)勢。
Real world(真實(shí)世界,詞組)—— 與模擬世界相反,即一個充滿意外驚喜的動態(tài)物理環(huán)境,AI 模型經(jīng)過訓(xùn)練可在該環(huán)境生存。不要將之與人類社會混淆。
Regulation(監(jiān)管,名詞)—— 你呼吁把減輕有害 AI 的責(zé)任轉(zhuǎn)嫁給政策制定者。不要將之與阻礙你發(fā)展的政策混淆。
Responsible AI(負(fù)責(zé)任的人工智能,名詞)—— 即公司內(nèi)凡是公眾認(rèn)為確實(shí)在努力減輕 AI 系統(tǒng)危害的工作。
Robustness(穩(wěn)健性,名詞)——AI 模型在惡意輸入破壞數(shù)據(jù)的情況下仍能連貫無誤工作的能力。
safety(安全性,名詞)—— 即挑戰(zhàn)構(gòu)建不違背設(shè)計者意圖的 AI 系統(tǒng)。不要將之與構(gòu)建不會失敗的 AI 系統(tǒng)混淆,參見 alignment。
Scale(規(guī)模,名詞)—— 即任何好 AI 系統(tǒng)事實(shí)上都應(yīng)該努力實(shí)現(xiàn)的最終狀態(tài)。
Security(保障,名詞)—— 即保護(hù)有價值或敏感數(shù)據(jù)和 AI 模型不被壞人破壞的行為,參見 adversary。
Stakeholders(利益相關(guān)者,名詞)—— 即股東、監(jiān)管機(jī)構(gòu)、用戶。你想讓掌權(quán)的人滿意。
Transparency(透明度,名詞)—— 即顯示你的數(shù)據(jù)和代碼。這對所有人和敏感信息不利。因此做到這一點(diǎn)非常困難,坦白來說,可以說是不可能。不要將之理解為闡明你系統(tǒng)的實(shí)際工作原理。
Trustworthy(可信賴的,形容詞)—— 對一個在足夠協(xié)調(diào)的宣傳下制造出來的 AI 系統(tǒng)的評價。
Universal basic income(普遍基本收入,詞組)—— 向每個人支付固定工資的想法可以平息自動化導(dǎo)致大規(guī)模失業(yè)帶來的大規(guī)模經(jīng)濟(jì)動蕩,受到了 2020 年的總統(tǒng)候選人楊安澤的推廣,參見 wealth redistribution。
Validation(驗(yàn)證,名詞)—— 對 AI 模型進(jìn)行數(shù)據(jù)測試來檢查模型是否仍準(zhǔn)確的過程,而不是對它接入的數(shù)據(jù)進(jìn)行測試。
Value(價值,名詞)—— 給你的用戶帶來的無形利益,這讓你賺得盆滿缽滿。
Value(價值觀,名詞)—— 提醒人們你有價值觀。
Wealth redistribution(財富再分配,詞組)—— 當(dāng)人們因?yàn)槟闶褂昧颂噘Y源和賺了太多錢審查你時,這個想法很有用。財富再分配如何運(yùn)作呢?當(dāng)然是靠普遍基本收入。這需要監(jiān)管,也不是你自己能搞清楚的,參見 regulation。
Withhold publication(拒絕公開,詞組)—— 選擇不開放源代碼的慈善行為,因?yàn)檫@可能會落入壞人的手中。最好是限制買得起源代碼的合作伙伴的使用權(quán)。
原文標(biāo)題:谷歌、Facebook等科技巨頭是如何討論AI倫理的?
文章出處:【微信公眾號:DeepTech深科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
責(zé)任編輯:haq
-
谷歌
+關(guān)注
關(guān)注
27文章
6254瀏覽量
111452 -
AI
+關(guān)注
關(guān)注
91文章
39859瀏覽量
301506
原文標(biāo)題:谷歌、Facebook等科技巨頭是如何討論AI倫理的?
文章出處:【微信號:deeptechchina,微信公眾號:deeptechchina】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
嵌入式AI現(xiàn)在如何?
AI眼鏡或成為下一代手機(jī)?谷歌、蘋果等巨頭扎堆布局
配置了串口DMA,現(xiàn)在是接收可以,發(fā)送不行,是什么地方?jīng)]有設(shè)置對嗎?
【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI的科學(xué)應(yīng)用
《AI芯片:科技探索與AGI愿景》—— 勾勒計算未來的戰(zhàn)略羅盤
【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+內(nèi)容總覽
NVIDIA硅光技術(shù)助力邁向百萬GPU AI工廠
AI 芯片浪潮下,職場晉升新契機(jī)?
AI終于賺錢了,科技巨頭紛紛猛加杠桿
【書籍評測活動NO.64】AI芯片,從過去走向未來:《AI芯片:科技探索與AGI愿景》
AI搜索一夜變天,專為Agent做搜索的賽道能否誕生百億美金新巨頭?
科技巨頭們現(xiàn)在是怎么討論AI倫理的?
評論