国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

入門自然語言處理的基本任務——文本匹配

深度學習自然語言處理 ? 來源:NLP情報局 ? 作者:Giant ? 2021-05-31 11:51 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

2020年初,新冠疫情席卷全球。除了“待在家,不亂跑”,我想還能從哪為抗擊疫情出點微薄之力呢?

碰巧室友推送了一個天池公益賽“新冠疫情相似句對判定大賽”,秉持“重在參與”的心態參加了比賽。經過半個月的努力,最終結果勉強不錯(第6),收割了一臺Kindle。

2021年1月,疫情形勢依然嚴峻,幸運的是國家不僅及時穩住了疫情,還研發出了有效的疫苗。借助疫情主題的比賽,我希望幫助更多讀者,入門自然語言處理的基本任務——文本匹配。

開源代碼:

https://github.com/yechens/COVID-19-sentence-pair

01 數據分析任務背景非常直觀,主辦方給定了“肺炎”、“支氣管炎”、“上呼吸道感染”等醫療背景下的用戶真實提問,要求選手通過算法識別任意2個問題,是否表達同一個意思。舉例:

問題1:“輕微感冒需不需要吃藥?”

問題2:“輕微感冒需要吃什么藥?”

問題1關心“是否得吃藥”,問題2關心“該吃什么藥”,側重點不同所以意思不同。

數據集樣本都是三元組(query1, query2, label)。為了降低難度,每一個問題的長度被控制在20字以內。

比賽的訓練集、驗證集分別包含8746、2001條三元組。我們從dev中隨機保留了800條樣本作為最終dev,其余均加入訓練。

數據增強拿到數據簡單分析后,我發現數據集已經過清洗,竟然異常的干凈整齊(沒有雜亂的符號、不通順的句子),label分布幾乎也接近1:1。

再觀察數據,相同的query1總是按順序排列在一起,隨后跟著不同的query2。這種分布很容易想到一種數據增強策略:相似傳遞性。

A 《-》 B 相似 and A 《-》 C 相似 =》 B 《-》 C 相似

最終我額外獲得了5000條高質量的數據,比賽準確率因此提升了0.5%。

實體替換此外,我們也嘗試了訓練一個NER模型挖掘文本中的醫療實體,如“胸膜炎”、“肺氣腫”,再通過word2vec查找最接近的實體進行替換。

但這種方式并沒有提升最終結果。我覺得原因有2個:

1W條樣本規模偏小,NER模型識別誤差較大

詞向量沒有針對醫療場景訓練,包含的醫療實體很少

02 匹配方法實現文本匹配有非常多簡單又實用的方法,例如:

基于字符統計:字符串匹配、編輯距離、Jaccards距離

基于語言模型:word2vec/glove詞向量、BERT

基于神經網絡:孿生網絡、TextCNN、DSSM、FastText等

由于比賽需要盡可能獲得高分,這里主要介紹基于神經網絡和BERT的文本匹配算法。

BERT[1]是一種預訓練語言模型,通過海量文本、Transformer架構和MLM訓練任務在眾多NLP任務上取得了優異成果。對BERT不了解的讀者,可以參考我之前的文章“從BERT、XLNet到MPNet,細看NLP預訓練模型發展變遷史”[2]。

比賽中我們測試了5-6種不同的神經網絡方法,并最終選擇了3種在dev上表現最好的模型加權融合。具體可以參考 文件。

文本CNN(TextCNN)TextCNN是Yoon Kim[3]在2014年提出的用于句子分類的卷積神經網絡。文本匹配任務本質上可以理解成二分類任務(0:不相似,1:相似),所以一般的分類模型也能滿足匹配需求。

與圖像中的二維卷積不同,TextCNN采用的是一維卷積,每個卷積核的大小為 (h為卷積核窗口,k為詞向量維度)。文中采用了不同尺寸的卷積核,來提取不同文本長度的特征。

然后,作者對于卷積核的輸出進行最大池化操作,只保留最重要的特征。各個卷積核輸出經MaxPooling后拼接形成一個新向量,最后輸出到全連接層分類器(Dropout + Linear + Softmax)實現分類。

我們知道,文本中的關鍵詞對于判斷2個句子是否相似有很大影響,而CNN局部卷積的特效能很好的捕捉這種關鍵特征。同時TextCNN還具有參數量小,訓練穩定等優點。

文本RNN(TextRCNN)相比TextCNN,TextRCNN的模型結構看起來復雜一些。

簡單瀏覽論文后,會發現它的思路其實簡單,粗暴。

首先通過詞向量獲得字符編碼 ,隨后將其通過雙向RNN學習上下文特征,編碼得到兩個方向的特征。

再將詞向量 和 、 拼接得到新向量,輸入經tanh函數激活的全連接網絡。最后,將網絡的輸出最大池化,并輸入另一個全連接分類器完成分類。

RNN模型對于長文本有較好的上下文“記憶”能力,更適合處理文本這種包含時間序列的信息。

BERT+MLP(fine-tune)最后一種方法,直接用語言模型BERT最后一層Transformer的輸出,接一層Dense實現文本匹配。

實驗中我們發現,對最終輸出的每個token特征取平均(MeanPooling)效果好于直接使用首字符“[CLS]”的特征。

模型權重上,崔一鳴等人[5]發布的中文roberta_wwm_ext_large模型效果要好于BERT_large。

最后,我們根據這三種模型在dev上的準確率設置了不同比重,通過自動搜索找到最優權重組合,在線上測試集取得了96.26%的準確率。

讀者可以在“NLP情報局”后臺回復“文本匹配”直接下載模型論文。

03 漲分trick做一個深度學習主導的算法比賽,除了分析數據與模型,一些trick也是獲得高分的重要因素。這里羅列了一些常用策略。

數據增強[6]

標簽平滑

自蒸餾

文本對抗訓練[7]

模型融合

特征篩選

使用多個學習率[8]

針對這次文本匹配任務,數據增強、標簽平滑、模型融合、多學習率都被證明是有效的。

04 總結過去將近1年的天池“新冠疫情相似句對判定大賽”,任務并不復雜,是入門NLP項目實戰,提升編程能力的很好鍛煉機會。

比賽雖然結束了,疫情猶在。大家一定要保護好自己哦!

編輯:jq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4838

    瀏覽量

    107753
  • 數據集
    +關注

    關注

    4

    文章

    1236

    瀏覽量

    26190
  • nlp
    nlp
    +關注

    關注

    1

    文章

    491

    瀏覽量

    23280

原文標題:天池NLP賽道top指南

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    Linux Shell文本處理神器合集:15個工具+實戰例子,效率直接翻倍

    在 Linux 系統中,文本是數據交互的 “通用語言”—— 日志文件、配置文件、數據報表、程序輸出幾乎都以文本形式存在。手動編輯文本不僅繁瑣,還容易出錯,而掌握 Shell
    的頭像 發表于 02-03 15:42 ?1475次閱讀
    Linux Shell<b class='flag-5'>文本處理</b>神器合集:15個工具+實戰例子,效率直接翻倍

    自然語言處理NLP的概念和工作原理

    自然語言處理 (NLP) 是人工智能 (AI) 的一個分支,它會教計算機如何理解口頭和書面形式的人類語言自然語言處理將計算
    的頭像 發表于 01-29 14:01 ?361次閱讀
    <b class='flag-5'>自然語言</b><b class='flag-5'>處理</b>NLP的概念和工作原理

    云知聲論文入選自然語言處理頂會EMNLP 2025

    近日,自然語言處理(NLP)領域國際權威會議 ——2025 年計算語言學與自然語言處理國際會議(EMNLP 2025)公布論文錄用結果,云知
    的頭像 發表于 11-10 17:30 ?802次閱讀
    云知聲論文入選<b class='flag-5'>自然語言</b><b class='flag-5'>處理</b>頂會EMNLP 2025

    格靈深瞳突破文本人物檢索技術難題

    格靈深瞳參與研究的GA-DMS框架,為攻破上述技術難題提供了全新解決方案。研究團隊通過數據構建和模型架構的協同改進,推動CLIP在人物表征學習中的應用,顯著提升了基于文本的人物檢索效果。該成果已入選EMNLP 2025 主會(自然語言
    的頭像 發表于 09-28 09:42 ?628次閱讀
    格靈深瞳突破<b class='flag-5'>文本</b>人物檢索技術難題

    HarmonyOSAI編程自然語言代碼生成

    安裝CodeGenie后,在下方對話框內,輸入代碼需求描述,將根據描述智能生成代碼,生成內容可一鍵復制或一鍵插入至編輯區當前光標位置。 提問示例 使用ArkTs語言寫一段代碼,在頁面中間部分
    發表于 09-05 16:58

    【HZ-T536開發板免費體驗】5- 無需死記 Linux 命令!用 CangjieMagic 在 HZ-T536 開發板上搭建 MCP 服務器,自然語言輕松控板

    GPIO 等),并返回結果。 Cangjie Magic 角色 :構建MCP服務器,同時提供自然語言理解能力,將用戶輸入的文本(如 “查看開發板 IP 地址”“點亮 LED1”)轉換為機器可識別的指令(如
    發表于 08-23 13:10

    高德與阿里云一起,開啟智慧出行新范式

    ,加速智能化場景落地。 技術融合:大模型賦能地圖交互升級 基于阿里云通義千問系列大模型領先的自然語言處理與多模態交互能力,MCP Server實現從文本指令到可視化地圖的精準轉化。用戶可通過
    的頭像 發表于 07-18 10:29 ?565次閱讀

    云知聲四篇論文入選自然語言處理頂會ACL 2025

    近日,第63屆國際計算語言學年會ACL 2025(Annual Meeting of the Association for Computational Linguistics,簡稱ACL)論文接收
    的頭像 發表于 05-26 14:15 ?1310次閱讀
    云知聲四篇論文入選<b class='flag-5'>自然語言</b><b class='flag-5'>處理</b>頂會ACL 2025

    小白學大模型:從零實現 LLM語言模型

    在當今人工智能領域,大型語言模型(LLM)的開發已經成為一個熱門話題。這些模型通過學習大量的文本數據,能夠生成自然語言文本,完成各種復雜的任務
    的頭像 發表于 04-30 18:34 ?1305次閱讀
    小白學大模型:從零實現 LLM<b class='flag-5'>語言</b>模型

    【「零基礎開發AI Agent」閱讀體驗】總體預覽及入門

    ,相關術語有計算機編程,數據庫,向量數據庫等概念,然后是大模型的相關概念,比如自然語言處理、提示詞工程、思維鏈和思維樹以及ReAct、多模態等內容。 然后是業務流程對AiAgent的開發及應用,講解
    發表于 04-20 21:53

    自然語言處理的發展歷程和應用場景

    你是否曾經對著手機說:“嘿,Siri,今天天氣怎么樣?”或者在出國旅行時,打開翻譯軟件,對著菜單說:“請把這道菜翻譯成英文”。
    的頭像 發表于 04-17 11:40 ?1327次閱讀

    東芝硬盤如何優化存儲

    自然語言處理、推薦系統和圖像識別同時開跑,每個任務的訓練速度呈指數級下降,大量時間浪費在等待數據加載上。像極了早高峰擠地鐵——誰都別想快!
    的頭像 發表于 04-11 11:17 ?974次閱讀

    使用VirtualLab Fusion中分布式計算的AR波導測試圖像模擬

    總計算時間超過31小時。通過使用一個由8個多核PC組成的網絡,提供35個客戶端分布式計算,將模擬時間減少到1小時5分鐘。基本模擬任務基本任務集合:FOV使用分布式計算的集合模擬概述模擬時間節省96%的計算時間!!!
    發表于 04-10 08:48

    自然語言提示原型在英特爾Vision大會上首次亮相

    在英特爾Vision大會上,Network Optix首次展示了自然語言提示原型,該方案將重新定義視頻管理,為各行各業由AI驅動的洞察和效率提速。
    的頭像 發表于 04-09 09:30 ?961次閱讀

    ?VLM(視覺語言模型)?詳細解析

    視覺語言模型(Visual Language Model, VLM)是一種結合視覺(圖像/視頻)和語言文本處理能力的多模態人工智能模型,能夠理解并生成與視覺內容相關的
    的頭像 發表于 03-17 15:32 ?8824次閱讀
    ?VLM(視覺<b class='flag-5'>語言</b>模型)?詳細解析