日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何在BERT中引入知識圖譜中信息

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 作者:深度學(xué)習(xí)自然語言 ? 2020-11-03 17:52 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

引言

隨著BERT等預(yù)訓(xùn)練模型橫空出世,NLP方向迎來了一波革命,預(yù)訓(xùn)練模型在各類任務(wù)上均取得了驚人的成績。隨著各類預(yù)訓(xùn)練任務(wù)層出不窮,也有部分研究者考慮如何在BERT這一類模型中引入或者強(qiáng)化知識圖譜中包含的信息,進(jìn)而增強(qiáng)BERT對背景知識或常識信息的編碼能力。本文主要關(guān)注于如何在BERT中引入知識圖譜中信息,并survey了目前已公布的若干種方法,歡迎大家批評和交流。

ERNIE: Enhanced Language Representation with Informative Entities

論文鏈接:https://www.aclweb.org/anthology/P19-1139.pdf

這篇論文來自于清華劉知遠(yuǎn)老師和華為劉群老師,已被ACL2019所錄取,是較早的考慮將知識引入預(yù)訓(xùn)練模型的論文。

該論文主要利用了從知識庫中提出的高信息量的實(shí)體信息,通過特殊的語義融合模塊,來增強(qiáng)文本中對應(yīng)的表示。首先本文通過實(shí)體鏈接算法,將Wikipedia文本中包含的實(shí)體與Wikidata中的實(shí)體庫構(gòu)建關(guān)聯(lián),然后采用TransE算法,對Wikidata中的實(shí)體embedding進(jìn)行預(yù)訓(xùn)練,進(jìn)而得到其初始的表示;之后本文采用一個特殊的信息融合結(jié)構(gòu),其模型框架如下圖所示:

從圖中可以看出,ERNIE的框架分為以下兩部分,T-Encoder和K-Encoder,以上兩部分均使用BERT的Transformer框架,并利用其中的參數(shù)進(jìn)行初始化。其中Wikipedia中的每一句話首先被輸入給T-Encoder,其通過Transformer的多頭注意力機(jī)制對文本中的信息進(jìn)行編碼;之后輸出的表示與其內(nèi)部包含的實(shí)體被一起輸入給了K-Encoder,其內(nèi)部包含兩個多頭注意力層以分別對文本信息和實(shí)體信息進(jìn)行編碼;編碼后實(shí)體信息會得到兩種表示——詞級別和實(shí)體級別的表示,ERNIE通過將兩種信息concat之后輸入給DNN層,進(jìn)而融合得到知識增強(qiáng)的表示;為進(jìn)一步促進(jìn)該部分融合,ERNIE采用一個denoising entity auto-encoder (dEA)來對該部分進(jìn)行監(jiān)督,其采用類似于BERT中的Mask機(jī)制,基于一定的概率對其中的實(shí)體進(jìn)行mask或替換,然后還原該部分實(shí)體信息。

在采用以上過程預(yù)訓(xùn)練后,本文將ERNIE在多個NLP任務(wù)上進(jìn)行微調(diào),并在多個數(shù)據(jù)集上獲得了State-of-the-art的結(jié)果。

K-BERT: Enabling Language Representation with Knowledge Graph

論文鏈接:https://arxiv.org/pdf/1909.07606v1.pdf

這篇論文來自于北大和騰訊,已被AAAI2020所錄取,是較早的考慮將知識圖譜中的邊關(guān)系引入預(yù)訓(xùn)練模型的論文。

該論文主要通過修改Transformer中的attention機(jī)制,通過特殊的mask方法將知識圖譜中的相關(guān)邊考慮到編碼過程中,進(jìn)而增強(qiáng)預(yù)訓(xùn)練模型的效果。首先本文利用CN-DBpedia、HowNet和MedicalKG作為領(lǐng)域內(nèi)知識圖譜,對每一個句子中包含的實(shí)體抽取其相關(guān)的三元組,這里的三元組被看作是一個短句(首實(shí)體,關(guān)系,尾實(shí)體),與原始的句子合并一起輸入給Transformer模型;針對該方法,本文采用基于可見矩陣的mask機(jī)制,如下圖所示:

從圖中可以看出,輸入的句子增加了許多三元組構(gòu)成的短句,在每次編碼時針對每一個詞,模型通過可視矩陣(0-1變量)來控制該詞的視野,使其計(jì)算得到的attention分布不會涵蓋與其無關(guān)的詞,進(jìn)而模擬一個句子樹的場景;由于該策略僅僅改動了mask策略,故其可以支持BERT,RoBERTa等一系列模型;該方法最終在8個開放域任務(wù)和4個特定領(lǐng)域任務(wù)下取得了一定的提升。

KEPLER: A Unified Model for Knowledge Embedding and Pre-trained Language Representation

論文鏈接:https://arxiv.org/pdf/1911.06136.pdf

這篇論文來源于清華和Mila實(shí)驗(yàn)室,其主要關(guān)注于如何使用BERT增強(qiáng)知識圖譜embedding,并幫助增強(qiáng)對應(yīng)的表示。

該論文主要通過添加類似于TransE的預(yù)訓(xùn)練機(jī)制來增強(qiáng)對應(yīng)文本的表示,進(jìn)而增強(qiáng)預(yù)訓(xùn)練模型在一些知識圖譜有關(guān)任務(wù)的效果。首先本文基于Wikipedia和Wikidata數(shù)據(jù)集,將每個entity與對應(yīng)的維基百科描述相鏈接,則每個entity均獲得其對應(yīng)的文本描述信息;之后對于每一個三元組——<頭實(shí)體,關(guān)系,尾實(shí)體>,本文采用基于BERT對encoder利用entity的描述信息,對每個實(shí)體進(jìn)行編碼,如下圖所示:

從圖中可以看出,在通過encoder得到頭實(shí)體和尾實(shí)體對應(yīng)的表示之后,本文采用類似于TransE的訓(xùn)練方法,即基于頭實(shí)體和關(guān)系預(yù)測尾實(shí)體;此外本文還采用BERT經(jīng)典的MLM損失函數(shù),并使用RoBERTa的原始參數(shù)進(jìn)行初始化;最終本文提出的方法在知識圖譜補(bǔ)全和若干NLP任務(wù)上均帶來了增益。

CoLAKE: Contextualized Language and Knowledge Embedding

論文鏈接:https://arxiv.org/pdf/2010.00309.pdf

這篇論文來源于復(fù)旦和亞馬遜,其主要關(guān)注于如何使用知識圖譜以增強(qiáng)預(yù)訓(xùn)練模型的效果。

本文首先將上下文看作全連接圖,并根據(jù)句子中的實(shí)體在KG上抽取子圖,通過兩個圖中共現(xiàn)的實(shí)體將全連接圖和KG子圖融合起來;然后本文將該圖轉(zhuǎn)化為序列,使用Transformer進(jìn)行預(yù)訓(xùn)練,并在訓(xùn)練時采用特殊的type embedding來表示實(shí)體、詞語與其他子圖信息,如下圖所示:

最終本文將文本上下文和知識上下文一起用MLM進(jìn)行預(yù)訓(xùn)練,將mask的范圍推廣到word、entity和relation;為訓(xùn)練該模型,本文采用cpu-gpu混合訓(xùn)練策略結(jié)合負(fù)采樣機(jī)制減少訓(xùn)練時間;最終本文提出的方法在知識圖譜補(bǔ)全和若干NLP任務(wù)上均帶來了增益。

Exploiting Structured Knowledge in Text via Graph-Guided Representation Learning

論文鏈接:https://arxiv.org/pdf/2004.14224.pdf

這篇論文來源于悉尼科技大學(xué)和微軟,其主要關(guān)注于如何使用知識圖譜增強(qiáng)預(yù)訓(xùn)練模型。

本文思路比較簡潔,其提出了一個基于entity的mask機(jī)制,結(jié)合一定的負(fù)采樣機(jī)制來增強(qiáng)模型。首先對于輸入的每一句話,本文首先進(jìn)行實(shí)體鏈接工作,得到其中的entity,并從知識圖譜conceptnet和freebase中召回其鄰接的三元組;本文利用一個特殊的權(quán)重,防止在mask時關(guān)注于句子中過于簡單和過于難的entity,這樣模型在entity-level MLM訓(xùn)練時就關(guān)注于較為適合學(xué)習(xí)的信息;此外本文還引入了基于知識圖譜的負(fù)采樣機(jī)制,其利用relation來選擇高質(zhì)量的負(fù)例,以進(jìn)一步幫助訓(xùn)練;最終本文提出的方法在知識圖譜補(bǔ)全和若干NLP任務(wù)上均帶來了增益。

K-ADAPTER: Infusing Knowledge into Pre-Trained Models with Adapters

論文鏈接:https://arxiv.org/pdf/2002.01808v3.pdf

這篇論文來源于復(fù)旦和微軟,其考慮自適應(yīng)的讓BERT與知識相融合。

這篇論文考慮如何通過不同的特殊下游任務(wù)來幫助向預(yù)訓(xùn)練模型融入任務(wù)相關(guān)的知識。首先本文針對不同的預(yù)訓(xùn)練任務(wù),定義了對應(yīng)的adapter;在針對具體的下游任務(wù)進(jìn)行fine-tune時,可以采用不同的adapter來針對性的加入特征,進(jìn)而增強(qiáng)其效果;如下圖所示:

基于該思想,本文提出了兩種特殊的adapter,分別利用factor knowledge和linguistic knowledge;針對這兩個adapter,本文提出了針對entity之間的關(guān)系分類任務(wù)和基于依存關(guān)系的分類任務(wù);再fine-tune階段,兩個adapter得到的特征可以與BERT或RoBERTa得到的特征一起拼接來進(jìn)行預(yù)測,該策略在三個知識驅(qū)動數(shù)據(jù)集上均取得了較大增益。

Integrating Graph Contextualized Knowledge into Pre-trained Language Models

論文鏈接:https://arxiv.org/pdf/1912.00147.pdf

這篇論文來自于華為和中科大,其主要關(guān)注于如何將上下文有關(guān)的知識信息加入到預(yù)訓(xùn)練模型里。

這篇論文的思想類似于graph-BERT和K-BERT,其針對給出文本首先檢索返回相關(guān)的entity三元組,再在知識圖譜上搜集其相鄰的節(jié)點(diǎn)以構(gòu)成子圖;然后將該子圖轉(zhuǎn)換成序列的形式,輸入給傳統(tǒng)的Transformer模型(類似graph-BERT),通過特殊的mask來約束注意力在相鄰節(jié)點(diǎn)上(K-BERT);最后用類似于ERNIE的策略將子圖中的信息加入到Transformer中;最終該模型在下游的幾個醫(yī)療相關(guān)數(shù)據(jù)集上取得了增益。

JAKET: Joint Pre-training of Knowledge Graph and Language Understanding

論文鏈接:https://arxiv.org/pdf/2010.00796.pdf

這篇論文來自于CMU和微軟,其主要關(guān)注于如何同時對知識圖譜和語言模型一起預(yù)訓(xùn)練。

本文使用RoBERTa作為語言模型對文本進(jìn)行編碼,增加了relation信息的graph attention模型來對知識圖譜進(jìn)行編碼;由于文本和知識圖譜的交集在于其中共有的若干entity,本文采用一種交替訓(xùn)練的方式來幫助融合兩部分的知識,如下圖所示:

可以看出,語言模型得到的信息會首先對輸入文本以及entity/relation的描述信息進(jìn)行編碼,以得到對應(yīng)的表示;之后語言模型得到的entity embedding會被送給R-GAT模型以聚合鄰居節(jié)點(diǎn)的信息,以得到更強(qiáng)的entity表示;然后該部分信息會被輸入給語言模型繼續(xù)融合并編碼,以得到強(qiáng)化的文本表示信息;為了訓(xùn)練該模型,本文還采用embedding memory機(jī)制來控制訓(xùn)練時梯度的更新頻率和優(yōu)化目標(biāo)的權(quán)重,并提出四種特殊的損失函數(shù)來進(jìn)行預(yù)訓(xùn)練;最終本文提出的模型在多個知識驅(qū)動的下游任務(wù)均取得較好效果。

責(zé)任編輯:xj

原文標(biāo)題:BERT meet Knowledge Graph:預(yù)訓(xùn)練模型與知識圖譜相結(jié)合的研究進(jìn)展

文章出處:【微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5610

    瀏覽量

    124656
  • 知識圖譜
    +關(guān)注

    關(guān)注

    2

    文章

    132

    瀏覽量

    8359
  • 訓(xùn)練模型
    +關(guān)注

    關(guān)注

    1

    文章

    37

    瀏覽量

    4082

原文標(biāo)題:BERT meet Knowledge Graph:預(yù)訓(xùn)練模型與知識圖譜相結(jié)合的研究進(jìn)展

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    上海3月26-28日《EMC設(shè)計(jì)整改與仿真應(yīng)用》公開課安排來襲!

    課程名稱:《EMC設(shè)計(jì)整改與仿真應(yīng)用》講師:石老師、樊老師時間地點(diǎn):上海3月26-28日主辦單位:賽盛技術(shù)課程特色系統(tǒng)化知識圖譜:從電磁兼容基礎(chǔ)、三要素到接地、寄生參數(shù)等核心原理,構(gòu)建清晰完整
    的頭像 發(fā)表于 03-18 09:33 ?437次閱讀
    上海3月26-28日《EMC設(shè)計(jì)整改與仿真應(yīng)用》公開課安排來襲!

    實(shí)力認(rèn)證!行云創(chuàng)新入圍《AI 中國生態(tài)圖譜 2025》大模型開放平臺板塊

    近日,中國電子信息產(chǎn)業(yè)發(fā)展研究院旗下權(quán)威 IT 創(chuàng)新媒體與專業(yè)市場研究機(jī)構(gòu)賽迪網(wǎng),正式發(fā)布 《AI 中國生態(tài)圖譜 2025》 。作為國內(nèi) AI 產(chǎn)業(yè)極具權(quán)威性與公信力的全景研判成果,該圖譜全面梳理
    的頭像 發(fā)表于 03-04 14:25 ?376次閱讀
    實(shí)力認(rèn)證!行云創(chuàng)新入圍《AI 中國生態(tài)<b class='flag-5'>圖譜</b> 2025》大模型開放平臺板塊

    潤和軟件入選大模型一體機(jī)產(chǎn)業(yè)圖譜

    近日,由中國人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟與中國信息通信研究院聯(lián)合編制的《大模型一體機(jī)產(chǎn)業(yè)圖譜》正式發(fā)布。該圖譜系統(tǒng)梳理并收錄了國內(nèi)大模型一體機(jī)產(chǎn)業(yè)鏈上下游70余家代表性企業(yè),全面呈現(xiàn)我國大模型一體機(jī)的生態(tài)
    的頭像 發(fā)表于 12-10 17:56 ?1743次閱讀
    潤和軟件入選大模型一體機(jī)產(chǎn)業(yè)<b class='flag-5'>圖譜</b>

    華為聯(lián)合發(fā)布宜興“天機(jī)鏡”大模型知識圖譜

    近日,由宜興市大數(shù)據(jù)發(fā)展有限公司與華為聯(lián)合主辦的“共聚AI泛生態(tài) 智啟產(chǎn)業(yè)新未來——城市大安全AI產(chǎn)業(yè)發(fā)展峰會暨華為中國行2025江蘇站”,在江蘇宜興舉行。
    的頭像 發(fā)表于 11-14 16:40 ?1731次閱讀

    奧比光黃源浩出席中信證券2026年資本市場年會

    11月11日-13日,中信證券2026年資本市場年會在深圳舉行,奧比光創(chuàng)始人、董事長兼CEO黃源浩受邀出席;在11日上午的主論壇圓桌上,黃源浩,影石創(chuàng)新創(chuàng)始人、董事長劉靖康,長存資本總經(jīng)理施文廣
    的頭像 發(fā)表于 11-13 10:10 ?2120次閱讀

    何在VS code配置Zephyr集成開發(fā)環(huán)境

    上一篇文章介紹了如何在VS code中使用瑞薩官方插件為RA芯片創(chuàng)建項(xiàng)目與項(xiàng)目調(diào)試,相信大家對RA在VS code的開發(fā)有了基礎(chǔ)的了解。
    的頭像 發(fā)表于 11-05 14:46 ?1818次閱讀
    如<b class='flag-5'>何在</b>VS code<b class='flag-5'>中</b>配置Zephyr集成開發(fā)環(huán)境

    verditrace信號的方法

    的所有driver的波形 * 以此類推即可往前不斷追蹤信號 3、代碼trace * 在源代碼框左鍵選中信號,并在工具欄中點(diǎn)擊Driver標(biāo)志,或右鍵onetrace選中Driver. * 代碼即跳轉(zhuǎn)到信號被驅(qū)動的代
    發(fā)表于 10-28 06:03

    中信數(shù)科-華為“商業(yè)聯(lián)合創(chuàng)新中心”正式揭牌

    【中國,杭州,2025年10月22日】中信數(shù)科-華為“商業(yè)聯(lián)合創(chuàng)新中心”揭牌儀式在杭州舉行。中信數(shù)科黨委書記、董事長張繼勝,網(wǎng)絡(luò)運(yùn)營總監(jiān)鄭軍,華為副總裁、ISP與互聯(lián)網(wǎng)軍團(tuán)CEO岳坤,華為政企光領(lǐng)域
    的頭像 發(fā)表于 10-24 20:55 ?2979次閱讀
    <b class='flag-5'>中信</b>數(shù)科-華為“商業(yè)聯(lián)合創(chuàng)新中心”正式揭牌

    何在 buildroot 的 rootfs 顯示當(dāng)前目錄?

    何在 buildroot 的 rootfs 顯示當(dāng)前目錄?
    發(fā)表于 09-03 07:02

    小鵬汽車與中信銀行達(dá)成戰(zhàn)略合作

    近日,小鵬汽車與中信銀行在廣州舉行戰(zhàn)略合作簽約儀式,小鵬汽車副董事長兼聯(lián)席總裁顧宏地與中信銀行廣州分行行長薛鋒慶共同出席,并代表雙方簽訂戰(zhàn)略合作協(xié)議。
    的頭像 發(fā)表于 08-19 11:38 ?918次閱讀

    智啟未來,鏈通全球——中信國際電訊集團(tuán)亮相2025世界人工智能大會

    2025年7月26日 ,上海 — 中信國際電訊集團(tuán)有限公司(股份代號:1883)攜旗下澳門電訊(CTM)、中信國際電訊CPC、企通信等多家子公司,連續(xù)第四年在中信集團(tuán)的統(tǒng)一部署下亮相
    的頭像 發(fā)表于 07-28 10:48 ?577次閱讀
    智啟未來,鏈通全球——<b class='flag-5'>中信</b>國際電訊集團(tuán)亮相2025世界人工智能大會

    軟國際入選中國信通院AI Agent智能體產(chǎn)業(yè)圖譜1.0

    近日,中國信息通信研究院(以下簡稱“中國信通院”)《AI Agent智能體產(chǎn)業(yè)圖譜1.0》正式發(fā)布。該圖譜是國內(nèi)系統(tǒng)性梳理智能體產(chǎn)業(yè)生態(tài)的重要成果,聚焦“基礎(chǔ)底座、智能體平臺、場景智能體與行業(yè)智能體
    的頭像 發(fā)表于 07-14 14:55 ?1847次閱讀

    家電電路識圖自學(xué)手冊

    家電電路識圖自學(xué)手冊
    發(fā)表于 07-11 15:49 ?16次下載

    在ccg3pa何在發(fā)送goodcrc之前了解已收到的數(shù)據(jù)包?

    在 CCG3PA ,考慮到源端正在向匯端發(fā)送Source_Capability或其他信息,此時匯端如何在從匯端發(fā)送GoodCRC之前知道匯端收到了哪些信息? 無論我們收到什么消息,天
    發(fā)表于 05-21 08:12

    何在Linux配置DNS服務(wù)器

    本文詳細(xì)介紹了如何在Linux配置DNS服務(wù)器,包括DNS工作原理、本地緩存、DNS查詢過程,以及正向和反向查詢的配置。步驟包括服務(wù)器配置、編輯BIND配置文件、添加解析信息和客戶端測試,同時提到了注意事項(xiàng)和常見問題解決方法。
    的頭像 發(fā)表于 05-09 13:38 ?2805次閱讀
    如<b class='flag-5'>何在</b>Linux<b class='flag-5'>中</b>配置DNS服務(wù)器
    吉林市| 成安县| 延庆县| 高雄县| 正安县| 扶沟县| 双桥区| 枞阳县| 闻喜县| 基隆市| 河津市| 偏关县| 绥化市| 定安县| 边坝县| 额敏县| 华容县| 元朗区| 商南县| 长葛市| 互助| 双峰县| 新田县| 平山县| 徐汇区| 新兴县| 南阳市| 马公市| 宣威市| 山西省| 龙川县| 丽江市| 招远市| 江永县| 嘉禾县| 古田县| 长阳| 宁陵县| 化隆| 连江县| 鹤庆县|