国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

在BERT中引入知識圖譜中信息的若干方法

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 作者:RUC AI Box ? 2020-12-26 10:14 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

引言

隨著BERT等預訓練模型橫空出世,NLP方向迎來了一波革命,預訓練模型在各類任務上均取得了驚人的成績。隨著各類預訓練任務層出不窮,也有部分研究者考慮如何在BERT這一類模型中引入或者強化知識圖譜中包含的信息,進而增強BERT對背景知識或常識信息的編碼能力。本文主要關注于如何在BERT中引入知識圖譜中信息,并survey了目前已公布的若干種方法,歡迎大家批評和交流。

ERNIE: Enhanced Language Representation with Informative Entities

論文鏈接:https://www.aclweb.org/anthology/P19-1139.pdf

這篇論文來自于清華劉知遠老師和華為劉群老師,已被ACL2019所錄取,是較早的考慮將知識引入預訓練模型的論文。

該論文主要利用了從知識庫中提出的高信息量的實體信息,通過特殊的語義融合模塊,來增強文本中對應的表示。首先本文通過實體鏈接算法,將Wikipedia文本中包含的實體與Wikidata中的實體庫構建關聯,然后采用TransE算法,對Wikidata中的實體embedding進行預訓練,進而得到其初始的表示;之后本文采用一個特殊的信息融合結構,其模型框架如下圖所示:

0819d160-4692-11eb-8b86-12bb97331649.png

從圖中可以看出,ERNIE的框架分為以下兩部分,T-Encoder和K-Encoder,以上兩部分均使用BERT的Transformer框架,并利用其中的參數進行初始化。其中Wikipedia中的每一句話首先被輸入給T-Encoder,其通過Transformer的多頭注意力機制對文本中的信息進行編碼;之后輸出的表示與其內部包含的實體被一起輸入給了K-Encoder,其內部包含兩個多頭注意力層以分別對文本信息和實體信息進行編碼。

編碼后實體信息會得到兩種表示——詞級別和實體級別的表示,ERNIE通過將兩種信息concat之后輸入給DNN層,進而融合得到知識增強的表示;為進一步促進該部分融合,ERNIE采用一個denoising entity auto-encoder (dEA)來對該部分進行監督,其采用類似于BERT中的Mask機制,基于一定的概率對其中的實體進行mask或替換,然后還原該部分實體信息。

在采用以上過程預訓練后,本文將ERNIE在多個NLP任務上進行微調,并在多個數據集上獲得了State-of-the-art的結果。

K-BERT: Enabling Language Representation with Knowledge Graph

論文鏈接:https://arxiv.org/pdf/1909.07606v1.pdf

這篇論文來自于北大和騰訊,已被AAAI2020所錄取,是較早的考慮將知識圖譜中的邊關系引入預訓練模型的論文。

該論文主要通過修改Transformer中的attention機制,通過特殊的mask方法將知識圖譜中的相關邊考慮到編碼過程中,進而增強預訓練模型的效果。首先本文利用CN-DBpedia、HowNet和MedicalKG作為領域內知識圖譜,對每一個句子中包含的實體抽取其相關的三元組,這里的三元組被看作是一個短句(首實體,關系,尾實體),與原始的句子合并一起輸入給Transformer模型;針對該方法,本文采用基于可見矩陣的mask機制,如下圖所示:

0854c52c-4692-11eb-8b86-12bb97331649.png

從圖中可以看出,輸入的句子增加了許多三元組構成的短句,在每次編碼時針對每一個詞,模型通過可視矩陣(0-1變量)來控制該詞的視野,使其計算得到的attention分布不會涵蓋與其無關的詞,進而模擬一個句子樹的場景;由于該策略僅僅改動了mask策略,故其可以支持BERT,RoBERTa等一系列模型;該方法最終在8個開放域任務和4個特定領域任務下取得了一定的提升。

KEPLER: A Unified Model for Knowledge Embedding and Pre-trained Language Representation

論文鏈接:https://arxiv.org/pdf/1911.06136.pdf

這篇論文來源于清華和Mila實驗室,其主要關注于如何使用BERT增強知識圖譜embedding,并幫助增強對應的表示。

該論文主要通過添加類似于TransE的預訓練機制來增強對應文本的表示,進而增強預訓練模型在一些知識圖譜有關任務的效果。首先本文基于Wikipedia和Wikidata數據集,將每個entity與對應的維基百科描述相鏈接,則每個entity均獲得其對應的文本描述信息;之后對于每一個三元組——<頭實體,關系,尾實體>,本文采用基于BERT對encoder利用entity的描述信息,對每個實體進行編碼,如下圖所示:

091dc22e-4692-11eb-8b86-12bb97331649.png

從圖中可以看出,在通過encoder得到頭實體和尾實體對應的表示之后,本文采用類似于TransE的訓練方法,即基于頭實體和關系預測尾實體;此外本文還采用BERT經典的MLM損失函數,并使用RoBERTa的原始參數進行初始化;最終本文提出的方法在知識圖譜補全和若干NLP任務上均帶來了增益。

CoLAKE: Contextualized Language and Knowledge Embedding

論文鏈接:https://arxiv.org/pdf/2010.00309.pdf

這篇論文來源于復旦和亞馬遜,其主要關注于如何使用知識圖譜以增強預訓練模型的效果。

本文首先將上下文看作全連接圖,并根據句子中的實體在KG上抽取子圖,通過兩個圖中共現的實體將全連接圖和KG子圖融合起來;然后本文將該圖轉化為序列,使用Transformer進行預訓練,并在訓練時采用特殊的type embedding來表示實體、詞語與其他子圖信息,如下圖所示:

09636cc0-4692-11eb-8b86-12bb97331649.png

最終本文將文本上下文和知識上下文一起用MLM進行預訓練,將mask的范圍推廣到word、entity和relation;為訓練該模型,本文采用cpu-gpu混合訓練策略結合負采樣機制減少訓練時間;最終本文提出的方法在知識圖譜補全和若干NLP任務上均帶來了增益。

Exploiting Structured Knowledge in Text via Graph-Guided Representation Learning

論文鏈接:https://arxiv.org/pdf/2004.14224.pdf

這篇論文來源于悉尼科技大學和微軟,其主要關注于如何使用知識圖譜增強預訓練模型。

0a84b942-4692-11eb-8b86-12bb97331649.png

本文思路比較簡潔,其提出了一個基于entity的mask機制,結合一定的負采樣機制來增強模型。首先對于輸入的每一句話,本文首先進行實體鏈接工作,得到其中的entity,并從知識圖譜conceptnet和freebase中召回其鄰接的三元組;本文利用一個特殊的權重,防止在mask時關注于句子中過于簡單和過于難的entity,這樣模型在entity-level MLM訓練時就關注于較為適合學習的信息;此外本文還引入了基于知識圖譜的負采樣機制,其利用relation來選擇高質量的負例,以進一步幫助訓練;最終本文提出的方法在知識圖譜補全和若干NLP任務上均帶來了增益。

K-ADAPTER: Infusing Knowledge into Pre-Trained Models with Adapters

論文鏈接:https://arxiv.org/pdf/2002.01808v3.pdf

這篇論文來源于復旦和微軟,其考慮自適應的讓BERT與知識相融合。

這篇論文考慮如何通過不同的特殊下游任務來幫助向預訓練模型融入任務相關的知識。首先本文針對不同的預訓練任務,定義了對應的adapter;在針對具體的下游任務進行fine-tune時,可以采用不同的adapter來針對性的加入特征,進而增強其效果;如下圖所示:

0d3635e4-4692-11eb-8b86-12bb97331649.png

基于該思想,本文提出了兩種特殊的adapter,分別利用factor knowledge和linguistic knowledge;針對這兩個adapter,本文提出了針對entity之間的關系分類任務和基于依存關系的分類任務;再fine-tune階段,兩個adapter得到的特征可以與BERT或RoBERTa得到的特征一起拼接來進行預測,該策略在三個知識驅動數據集上均取得了較大增益。

Integrating Graph Contextualized Knowledge into Pre-trained Language Models

論文鏈接:https://arxiv.org/pdf/1912.00147.pdf

這篇論文來自于華為和中科大,其主要關注于如何將上下文有關的知識信息加入到預訓練模型里。

0e58a5b0-4692-11eb-8b86-12bb97331649.png

這篇論文的思想類似于graph-BERT和K-BERT,其針對給出文本首先檢索返回相關的entity三元組,再在知識圖譜上搜集其相鄰的節點以構成子圖;然后將該子圖轉換成序列的形式,輸入給傳統的Transformer模型(類似graph-BERT),通過特殊的mask來約束注意力在相鄰節點上(K-BERT);最后用類似于ERNIE的策略將子圖中的信息加入到Transformer中;最終該模型在下游的幾個醫療相關數據集上取得了增益。

JAKET: Joint Pre-training of Knowledge Graph and Language Understanding

論文鏈接:https://arxiv.org/pdf/2010.00796.pdf

這篇論文來自于CMU和微軟,其主要關注于如何同時對知識圖譜和語言模型一起預訓練。

本文使用RoBERTa作為語言模型對文本進行編碼,增加了relation信息的graph attention模型來對知識圖譜進行編碼;由于文本和知識圖譜的交集在于其中共有的若干entity,本文采用一種交替訓練的方式來幫助融合兩部分的知識,如下圖所示:

11124da6-4692-11eb-8b86-12bb97331649.png

可以看出,語言模型得到的信息會首先對輸入文本以及entity/relation的描述信息進行編碼,以得到對應的表示;之后語言模型得到的entity embedding會被送給R-GAT模型以聚合鄰居節點的信息,以得到更強的entity表示;然后該部分信息會被輸入給語言模型繼續融合并編碼,以得到強化的文本表示信息;為了訓練該模型,本文還采用embedding memory機制來控制訓練時梯度的更新頻率和優化目標的權重,并提出四種特殊的損失函數來進行預訓練;最終本文提出的模型在多個知識驅動的下游任務均取得較好效果。

責任編輯:xj

原文標題:BERT meet Knowledge Graph:預訓練模型與知識圖譜相結合的研究進展

文章出處:【微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • nlp
    nlp
    +關注

    關注

    1

    文章

    491

    瀏覽量

    23280
  • 知識圖譜
    +關注

    關注

    2

    文章

    132

    瀏覽量

    8315
  • 訓練模型
    +關注

    關注

    1

    文章

    37

    瀏覽量

    4071

原文標題:BERT meet Knowledge Graph:預訓練模型與知識圖譜相結合的研究進展

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    實力認證!行云創新入圍《AI 中國生態圖譜 2025》大模型開放平臺板塊

    近日,中國電子信息產業發展研究院旗下權威 IT 創新媒體與專業市場研究機構賽迪網,正式發布 《AI 中國生態圖譜 2025》 。作為國內 AI 產業極具權威性與公信力的全景研判成果,該圖譜全面梳理
    的頭像 發表于 03-04 14:25 ?63次閱讀
    實力認證!行云創新入圍《AI 中國生態<b class='flag-5'>圖譜</b> 2025》大模型開放平臺板塊

    潤和軟件入選大模型一體機產業圖譜

    格局與創新力量。本次圖譜,江蘇潤和軟件股份有限公司(以下簡稱“潤和軟件”)以AI全棧技術能力與豐富的行業落地實踐入選圖譜,成為國產智能計算領域的重要力量。 潤和軟件入選《大模型一體
    的頭像 發表于 12-10 17:56 ?1477次閱讀
    潤和軟件入選大模型一體機產業<b class='flag-5'>圖譜</b>

    verditrace信號的方法

    具體方法 1、原理圖中trace * 源代碼框右鍵選中信號,new schematic選項
    發表于 10-28 06:03

    中信數科-華為“商業聯合創新中心”正式揭牌

    【中國,杭州,2025年10月22日】中信數科-華為“商業聯合創新中心”揭牌儀式杭州舉行。中信數科黨委書記、董事長張繼勝,網絡運營總監鄭軍,華為副總裁、ISP與互聯網軍團CEO岳坤,華為政企光領域
    的頭像 發表于 10-24 20:55 ?2769次閱讀
    <b class='flag-5'>中信</b>數科-華為“商業聯合創新中心”正式揭牌

    ANSA設置ABAQUS獨立非線性分析步的方法

    搭建Abaqus有限元模型時,經常需要設置多分析步。設置Abaqus多分析步的常用方法仿真分析任務設置多個“Step”,將整個仿真任務的求解時間劃分為
    的頭像 發表于 08-06 15:14 ?1413次閱讀
    <b class='flag-5'>在</b>ANSA<b class='flag-5'>中</b>設置ABAQUS獨立非線性分析步的<b class='flag-5'>方法</b>

    智啟未來,鏈通全球——中信國際電訊集團亮相2025世界人工智能大會

    2025年7月26日 ,上海 — 中信國際電訊集團有限公司(股份代號:1883)攜旗下澳門電訊(CTM)、中信國際電訊CPC、企通信等多家子公司,連續第四年
    的頭像 發表于 07-28 10:48 ?461次閱讀
    智啟未來,鏈通全球——<b class='flag-5'>中信</b>國際電訊集團亮相2025世界人工智能大會

    軟國際入選中國信通院AI Agent智能體產業圖譜1.0

    近日,中國信息通信研究院(以下簡稱“中國信通院”)《AI Agent智能體產業圖譜1.0》正式發布。該圖譜是國內系統性梳理智能體產業生態的重要成果,聚焦“基礎底座、智能體平臺、場景智能體與行業智能體
    的頭像 發表于 07-14 14:55 ?1623次閱讀

    家電電路識圖自學手冊

    家電電路識圖自學手冊
    發表于 07-11 15:49 ?13次下載

    輕輕松松學電工(識圖篇)

    內容介紹 結合廣大電工人員的實際需要,主要介紹了常用電工電路識圖的基礎知識方法及技巧,內容包括常用電氣符號、電工識圖基本方法,以及識讀供配
    發表于 04-30 17:18

    圖表細說電子元器件(建議下載)

    資料介紹本文檔共9章內容,以圖文同頁的方式細說了常用的11大類數十種電子元器件,介紹元器件的識別方法、電路符號識圖信息、主要特性、重要參數、典型應用電路、檢測方法、修配技術、更換操作、
    發表于 04-17 17:10

    典型電路原理、電路識圖從入門到精通等資料

    1、電路識圖從入門到精通高清電子資料 由淺入深地介紹了電路圖的基礎知識、典型單元電路的識圖方法,通過“入門篇”和“精通篇”循序漸進、由淺入深地介紹了電路圖的基礎
    的頭像 發表于 04-15 15:53 ?2.4w次閱讀
    典型電路原理、電路<b class='flag-5'>識圖</b>從入門到精通等資料

    每周推薦!電子工程師必學!典型電路原理、電路識圖從入門到精通等資料

    1、 電路識圖從入門到精通高清電子資料 由淺入深地介紹了電路圖的基礎知識、典型單元電路的識圖方法,通過“入門篇”和“精通篇”循序漸進、由淺入深地介紹了電路圖的基礎
    發表于 04-11 15:17

    電路識圖從入門到精通高清電子資料

    由淺入深地介紹了電路圖的基礎知識、典型單元電路的識圖方法,通過“入門篇”和“精通篇”循序漸進、由淺入深地介紹了電路圖的基礎知識、典型單元電路的識圖
    發表于 04-10 16:22

    HDJF-5A超聲波局部放電檢測儀使用時域信號波形與PRPD圖譜

    值?(如dBμV)為縱坐標,二維坐標系展示放電信號與電源相位的關聯性。其核心作用在于通過相位分布特征(如50Hz/100Hz相關性)判斷放電類型(如空隙放電、
    的頭像 發表于 03-20 15:29 ?2315次閱讀
    HDJF-5A超聲波局部放電檢測儀使用時域信號波形與PRPD<b class='flag-5'>圖譜</b>

    格陸博科技榮登投中信息2024年度銳公司100榜單

    近日,投中信息重磅發布2024年度“銳公司100榜單”,格陸博科技憑借智能駕駛領域的突出表現和強勁發展勢頭,再度成功入選!這也是格陸博科技連續第二年獲此殊榮!
    的頭像 發表于 03-18 14:24 ?822次閱讀