国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

大語言模型,救不了“網絡暴民”

腦極體 ? 來源:腦極體 ? 作者:腦極體 ? 2023-07-12 09:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

語言可以殺人——網絡時代,相信沒人會否認這一點。

語言攻擊,是最具代表性的網絡暴力之一。謾罵剛失去兒子的母親,詆毀女孩的粉色頭發,嘲笑男性的氣質“太娘”,炮制莫須有的黃色謠言……無數侮辱性的語言,在網絡間橫行無阻,給他人帶來了無窮無盡的精神傷害。

語言暴力,已經成為網絡治理的全球性難題。

各種方案被使出,但都無法有效阻止“網絡暴民”的增加和語言暴力的橫行。其中,技術層面的解決思路,就是利用AI算法來自動檢測有毒語言,按照攻擊性來設定毒性評分,并對高毒性語言進行預防處理,比如屏蔽、心理干預等。

但由于語言的模糊性,此前的機器學習算法魯棒性不強,很容易做出錯誤判斷,導致識別和干預的結果并不理想,仍然需要大量人工審核員。不僅處理效率低下,而且長期閱讀有毒語言也會傷害人類審核員的心理健康。

ChatGPT這類大語言模型,憑借強大的魯棒性和泛化能力,展現出了前所未有的語言理解力。

按理說,本著“技術向善”的宗旨,大語言模型應該被用來更有效、高效地預防網絡暴力,但為什么迄今為止,我們仍然沒有見到相關應用?反倒是利用大語言模型生成更多有害內容的“技術作惡”大行其道。

大語言模型,也救不了“網絡暴民”,難道我們注定只能在有毒網絡環境下“數字化生存”嗎?

大語言模型,內容檢測技術的一大步

預防,是治理網絡暴力最重要的環節。利用AI內容檢測來預防網絡暴力,相關研究已經有數年歷史了。

2015年就有人提出,個體的情緒狀態就與有害意圖之間存在顯著關聯,使用機器學習來檢測社交媒體中的有害行為,被認為是網絡暴力檢測的良好指標。

也就是說,一個人在生活遭遇了劇變、坎坷或感到低落、郁悶等情緒狀態不佳時,就容易在網絡上發出仇恨、攻擊、詆毀等冒犯性語言。

2017年,谷歌的Jigsaw創建了Conversation AI,檢測在線有毒評論。許多科技巨頭,多年來一直在將算法納入其內容審核中,都有一套對網絡信息內容進行識別和過濾的手段。比如國內某短視頻平臺,就研發了100多個智能識別模型,來提前攔截辱罵內容,但該平臺依然是網暴的“重災區”。某問答平臺,會對評論內容進行識別,對有風險的內容進行提醒,直到用戶修改才允許發出。

wKgaomStc8SAE36sAAHibGVrI4c809.jpg

但顯而易見,這些AI檢測算法也并沒有根除網暴,網友對平臺治理網暴的批評仍是“不作為”“沒效果”。原因之一,是傳統的機器學習算法,不能滿足網絡內容的審查需求:

1.理解力不夠。有害語言非常難以區分,而AI算法的語義理解能力不夠強,經常會將有害評論和無害評論給出相同的分數,沒有真正過濾掉那些不尊重的評論,或者給中性句子更低的分數,過濾了不該過濾的正常評論,阻礙了博主和粉絲的交流。

wKgZomStc8SAInMeAAB1qmxA088787.jpg

2.靈活性不夠。某些網站可能要求檢測攻擊語言,但不需要檢測謠言,而其他網站的要求可能恰好相反。傳統的AI檢測工具往往使用一個通用的“毒性評分”,不夠靈活,無法滿足不同平臺的不同需求。

3.更新速度不夠。很多檢測算法是使用API來工作的,而這些模型通過大量網絡數據進行訓練,在與訓練數據相似的示例上表現良好,一旦遇到不熟悉的有毒語言,比如涉及飯圈的討論會有很多黑話、yyds之類的拼音簡寫,以及不斷新造的詞語,很可能就會失敗。某社交媒體平臺,一開始設置了一百多個禁發關鍵詞,比如一些臟話、“綠茶婊”“怎么不去死”等,如今已經增加到了700多個。所以,AI模型缺乏高效實時的人類反饋,無法快速微調并迭代模型,從而導致自動化檢測的效果不佳。

我們知道,大語言模型具備智能涌現、預訓練、人類反饋的強化學習等特點,這就對傳統方法帶來了很大的助力,更強的語言理解能力,使用通用模型可以很快訓練出精度更高的定制模型,同時借助人類反饋查漏補缺,獲得更好更快的檢測效果。

防范網絡暴力,已經成為各國互聯網治理的重點,平臺也能因此建立起更良好的社區氛圍,所以大語言模型在檢測有害語言方面,應該能大展拳腳才對。

但為什么這一波大語言模型的浪潮中,我們很少見到將LLM用于預防網絡暴力的探索呢?

AI,防范語言暴力的一小步

AI技術體系內部來看,從傳統NLP到大語言模型,是一個自然語言理解的飛躍式進步。但走到更大的現實中,AI的一大步,也只是將問題解決向前推進了一點點。

作用不能說沒有,但也很有限。應對網絡中的語言攻擊,AI的力量仍然弱小。

首先,敵人數量太龐大。

康奈爾大學信息科學部門的丹尼斯庫表示,很多時候,你我這樣的普通人都會成為網絡暴力的幫兇。當為數不少的網民自身積怨和不滿得不到緩解之時,會對周圍事物看不慣,在互聯網上用語言攻擊他人,來緩解負面情緒。

此前《三聯生活周刊》有一篇報道,某位網絡暴力受害者已經去世,作者聯系到的一些施暴者則回應稱“忘記自己當時做過了什么”。

許多網暴者平時看起來是非常正常的,會在某些時刻、某些偶然事件后,短暫地化身“語言惡魔”,然后“事了拂衣去,深藏身與名”,即使是AI,也很難及時準確地判定出,哪些人存在攻擊可能。

此外,語言攻擊越來越隱蔽。

AI自動檢測技術發展到今天,一些明顯有害的言論,比如威脅、隱晦、辱罵等,已經可以被直接屏蔽掉了,但人類用語言傷害人的“創造力”是很大的,很多在機器看來中性化的語言,也可能惡意滿滿。

比如此前校園事故中痛失孩子的母親,就被大量評論“她怎么看起來不傷心”“她怎么還有心思打扮”,看似并沒有什么侮辱性語言,但這些質疑累加在一起,卻形成了對受害者的“道德審判”。

對于隱蔽的攻擊性語言,目前的NLP模型還有比較大的局限性,語言背后的實際、細微的含義,很難被捕捉到,依然需要人工審核的干預。

而平臺監測語言暴力,并沒有一個通行的判定體系,往往是各個平臺自己酌定。比如知乎會判定邪路隱私、辱罵臟話、扣帽子、貼負面標簽等行為。豆瓣則會處理諷刺、抬杠、拱火、歧視偏見等。不過,這些標準都有很大的主觀成分,所以大家會看到“掛一漏萬”的現象,一些很正常的發言被斃掉,一些明顯煽動情緒的發言沒有被及時處理。

另外,網絡信息的“巴爾干化”。

巴爾干化,指的是一些四分五裂的小國家,互相敵對或沒有合作的情況。一項研究顯示,互聯網雖然消除了地理屏障,讓不同地區的人可以低成本地相互交流,但卻造成了觀念上的“巴爾干化”,輿論上的分離割裂程度越來越嚴重。

網絡信息的推送機制,算法設計還不夠科學,偏好設置過于狹窄,采用關鍵詞聯想、通訊錄關聯、圖網絡等過濾方式,類似“吃了一個饅頭=喜歡吃饅頭=再來一百個饅頭”“你媽愛吃饅頭,你也一定愛吃”“饅頭=更適合中國寶寶體質的吐司=看看吐司”。人們長期停留在有限的信息范圍內,對自己感興趣的內容之外的信息很少涉獵,和其他群體之間的觀念間隙會越來越大。

信息獲取機制的“巴爾干化”,會導致輿論“極化”,就是一個觀點反復發酵,從而引發大規模的跟風行為,網暴風險也就提高了。

數量多、識別難、極化情緒嚴重,將互聯網變成了一個負面語言的游樂場。

技術之外,做得更多

當然,AI防止網暴道阻且長,但咱們不能就此放棄努力。

大語言模型的出現,帶來了更強大的自動檢測潛力。媒體機構基于通用模型,可以訓練出更高精度、識別能力更強的行業大模型,用人類專業知識來增強模型效果,創建具有人類智能的AI檢測模型,從而支持更加復雜的內容理解和審核決策,提高有害內容的檢測效率。

升級技術之外,必須做的更多。預防網絡暴力,與其說是一個技術問題,不如說是一個社會問題。網絡信息環境不改變,攻擊語言還會不斷變種,增加技術檢測的難度與成本,這是用戶、平臺和社會所不堪承受的。

但此前,很多治理方法效果都不是很理想。

比如說,網絡匿名是暴力的“隱身衣”,于是實名制成為一項重要的治理手段,但效果并不理想。韓國是第一個施行網絡實名制的國家,于2005年10月提出要實行網絡實名制,但按照韓國的統計,實名制之后,網絡侵權行為從原來的13.9%降到了12.2%,僅降了1.7%。

立法也是被期待的一種。各國都在不斷推出法規,韓國《刑法》對網絡暴力最高判處七年有期徒刑,我國刑法、民法中也有相應的規定,治理網絡暴力并非無法可依。但立法容易、執法難。

網絡環境復雜,網暴攻擊的發動者難以確定,網暴一般是由大量跟帖評論等攻擊行為累加而成的,證據收集十分困難,容易滅失,“情節嚴重”難以認定,維權周期長,網暴受害者的維權成本太高,最后大多不了了之,很難對施暴者產生實際的懲罰,助長了“法不責眾”的僥幸心理。

要改變“法不責眾”的難題,治本的辦法,是消除“無意識跟風”的“眾”。

網暴不是一個人能完成的,除了少數發布者之外,大量攻擊言論,都來自是上頭了的跟風者,網民集體非理性行動的結果。

報紙時代、電視時代的單向傳播,只有少數群體有發言、評論的機會,而大眾在線下面對面交流時,也不會輕易侮辱攻擊別人。到了網絡時代,隨著智能手機的普及,所有人都可以直接在網絡上表達自己的意見,一旦媒體素養跟不上,信息識別能力不夠,那么面對真假難辨的網絡信息,煽動性的語言,就很容易沖動失控,無意識地加入網暴大軍。

很多人在評論時,并不一定經過了理性的思考和判斷,只是看自己關注的博主那么說,或者很多人都在討伐,就跟風批判,使網絡暴力升級。

對此,指責“網暴者”的行為偏激,反而又會形成新的“網暴”?!坝媚Хù驍∧Хā?,會嚴重擾亂了網絡話語生態。很多偶發性的“語言暴力”,是可以通過個人媒體素養的提高去規避的。

這就需要專業媒體機構和有關部門,投入更多媒體資源,面對網絡時代,幫助人們習得更高的媒體素養,實現更文明、友好的“數字化生存”。

每個人內心深處都有某種暴力沖動。正如羅翔老師所說,“我們遠比自己想象的更偽善和幽暗,每個人心中都藏著一個張三”。

當理性上升,當一個人習得了自我控制的能力,那么“非理性”的暴力一定會減少。比起AI的韁繩,真正能消除網暴的,是每個人心中的道德律令。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    91

    文章

    39793

    瀏覽量

    301431
  • 大模型
    +關注

    關注

    2

    文章

    3650

    瀏覽量

    5186
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    什么是大模型,智能體...?大模型100問,快速全面了解!

    一、概念篇1.什么是大模型?大模型是指參數規模巨大(通常達到數十億甚至萬億級別)、使用海量數據訓練而成的人工智能模型。2.什么是大語言模型
    的頭像 發表于 02-02 16:36 ?899次閱讀
    什么是大<b class='flag-5'>模型</b>,智能體...?大<b class='flag-5'>模型</b>100問,快速全面了解!

    摩爾線程新一代大語言模型對齊框架URPO入選AAAI 2026

    近日,摩爾線程在人工智能前沿領域取得重要突破,其提出的新一代大語言模型對齊框架——URPO統一獎勵與策略優化,相關研究論文已被人工智能領域的國際頂級學術會議AAAI 2026收錄。這一成果標志著摩爾線程在大模型基礎技術探索上邁出
    的頭像 發表于 11-17 16:03 ?496次閱讀
    摩爾線程新一代大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>對齊框架URPO入選AAAI 2026

    NVIDIA ACE現已支持開源Qwen3-8B小語言模型

    為助力打造實時、動態的 NPC 游戲角色,NVIDIA ACE 現已支持開源 Qwen3-8B 小語言模型(SLM),可實現 PC 游戲中的本地部署。
    的頭像 發表于 10-29 16:59 ?1229次閱讀

    構建CNN網絡模型并優化的一般化建議

    通過實踐,本文總結了構建CNN網絡模型并優化的一般化建議,這些建議將會在構建高準確率輕量級CNN神經網絡模型方面提供幫助。 1)避免單層神經網絡
    發表于 10-28 08:02

    在Ubuntu20.04系統中訓練神經網絡模型的一些經驗

    本帖欲分享在Ubuntu20.04系統中訓練神經網絡模型的一些經驗。我們采用jupyter notebook作為開發IDE,以TensorFlow2為訓練框架,目標是訓練一個手寫數字識別的神經網絡
    發表于 10-22 07:03

    3萬字長文!深度解析大語言模型LLM原理

    我們正在參加全球電子成就獎的評選,歡迎大家幫我們投票~~~謝謝支持本文轉自:騰訊技術工程作者:royceshao大語言模型LLM的精妙之處在于很好地利用數學解決了工業場景的問題,筆者基于過往工程經驗
    的頭像 發表于 09-02 13:34 ?3455次閱讀
    3萬字長文!深度解析大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>LLM原理

    小白學大模型:國外主流大模型匯總

    )領域。論文的核心是提出了一種名為Transformer的全新模型架構,它完全舍棄了以往序列模型(如循環神經網絡RNNs和卷積神經網絡CNNs)中常用的循環和卷積結構
    的頭像 發表于 08-27 14:06 ?961次閱讀
    小白學大<b class='flag-5'>模型</b>:國外主流大<b class='flag-5'>模型</b>匯總

    利用自壓縮實現大型語言模型高效縮減

    隨著語言模型規模日益龐大,設備端推理變得越來越緩慢且耗能巨大。一個直接且效果出人意料的解決方案是剪除那些對任務貢獻甚微的完整通道(channel)。我們早期的研究提出了一種訓練階段的方法——自壓
    的頭像 發表于 07-28 09:36 ?561次閱讀
    利用自壓縮實現大型<b class='flag-5'>語言</b><b class='flag-5'>模型</b>高效縮減

    【教程】使用NS1串口服務器對接智普清言免費AI大語言模型

    AI大語言模型可以幫助我們解決各種問題,如翻譯、寫文案、創作詩歌、解決數學問題、情感陪伴等等。今天教大家如何使用NS1串口服務器模塊實現對接智普清言AI大語言模型,實現與大
    的頭像 發表于 06-12 19:33 ?795次閱讀
    【教程】使用NS1串口服務器對接智普清言免費AI大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>

    歐洲借助NVIDIA Nemotron優化主權大語言模型

    NVIDIA 正攜手歐洲和中東的模型構建商與云提供商,共同優化主權大語言模型 (LLM),加速該地區各行業采用企業級 AI。
    的頭像 發表于 06-12 15:42 ?1189次閱讀

    瑞薩RZ/V2H平臺支持部署離線版DeepSeek -R1大語言模型

    瑞薩RZ/V2H平臺支持部署離線版DeepSeek -R1大語言模型
    的頭像 發表于 05-13 17:07 ?1651次閱讀
    瑞薩RZ/V2H平臺支持部署離線版DeepSeek -R1大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>

    小白學大模型:從零實現 LLM語言模型

    在當今人工智能領域,大型語言模型(LLM)的開發已經成為一個熱門話題。這些模型通過學習大量的文本數據,能夠生成自然語言文本,完成各種復雜的任務,如寫作、翻譯、問答等。https
    的頭像 發表于 04-30 18:34 ?1310次閱讀
    小白學大<b class='flag-5'>模型</b>:從零實現 LLM<b class='flag-5'>語言</b><b class='flag-5'>模型</b>

    如何借助大語言模型打造人工智能生態系統

    語言模型(LLMs)正以革命性的姿態重塑我們與科技的互動模式。然而,由于其龐大的規模,它們往往屬于資源密集型范疇,不僅大幅推高了成本,還造成了能源消耗的激增。本文深入剖析了大語言模型
    的頭像 發表于 04-27 09:19 ?1086次閱讀
    如何借助大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>打造人工智能生態系統

    AD8313沒有模型,仿真不了怎么解決?

    AD8313沒有模型,在multisim上仿真不了,請提供支援,或者提供一個更新的版本也可以。
    發表于 03-24 06:38

    ?VLM(視覺語言模型)?詳細解析

    視覺語言模型(Visual Language Model, VLM)是一種結合視覺(圖像/視頻)和語言(文本)處理能力的多模態人工智能模型,能夠理解并生成與視覺內容相關的自然
    的頭像 發表于 03-17 15:32 ?8847次閱讀
    ?VLM(視覺<b class='flag-5'>語言</b><b class='flag-5'>模型</b>)?詳細解析