日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NER中的深度學(xué)習(xí)技術(shù)

深度學(xué)習(xí)自然語言處理 ? 來源:CS的陋室 ? 作者:CS的陋室 ? 2021-03-05 16:17 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

上周推薦了一篇NER的論文,這周算是把這篇綜述看完了,感覺自己的收獲挺大的(老是感覺自己看過寫過,但是又沒找到),給大家介紹一下。

A Survey on Deep Learning for Named Entity Recognition.

總評

這篇綜述讓我感受到比較完整的NER世界觀是啥樣的,問題定義、問題拆解、常用方法及其評價、模型評估、拓展等,由于是綜述,全面性滿滿,具體的方法可以在參考文獻(xiàn)里面找,212篇文獻(xiàn)可謂是誠意滿滿。

文章關(guān)鍵點筆記

1 introduction

命名實體識別的中的核心,命名實體(Named Entity)概念的出現(xiàn)其實并不久遠(yuǎn),1996年。時至今日,處理NER問題的主要有四種:

基于規(guī)則的方法。

無監(jiān)督學(xué)習(xí)方法。

基于特征的機(jī)器學(xué)習(xí)方法。

深度學(xué)習(xí)方法。

我們其實可以看到,得益于機(jī)器學(xué)習(xí)方法,NER問題被更好的解決。

2 background

本章主要是討論了NER的一些背景問題,NER的問題定義(尤其是NE的定義)、數(shù)據(jù)集和工具、模型評估、傳統(tǒng)方法之類的。

NER問題定義

首先是問題定義,主要是命名實體的定義,我直接用文章的原句吧:

A named entity is a word or a phrase that clearly identies one item from a set of other items that have similar attributes.

那么NER,其實就是去識別這個命名實體。

NER的模型評估

作者把評估方法分為了兩塊,精準(zhǔn)匹配和軟匹配(我翻譯的,英文是relaxed-match)。

精確匹配有兩個層面,一個是每個位點的預(yù)測準(zhǔn)確情況(BIO或者BIEMO的情況),這個比較常見。

而軟匹配上,其實由于他的復(fù)雜性和基于問題的特異性,沒有被廣泛使用。

傳統(tǒng)NER方法

所謂的“傳統(tǒng)”方法,作者認(rèn)為是除了DL之外的方法都算吧。

基于規(guī)則的方法會依賴問題的背景,其實也有一些輸出,作者角度看,如果資源足夠時,其實就能夠有很好的效果(這個和我的實踐來看是一致的),高準(zhǔn)確低召回低可遷移性是它的特點。

無監(jiān)督方法

無監(jiān)督方法也有一些,說白了就是聚類,利用的是關(guān)鍵詞匯、種子詞匯去進(jìn)行擴(kuò)增,從而完成無監(jiān)督學(xué)習(xí)的任務(wù),需要根據(jù)問題進(jìn)行策略的調(diào)整,可遷移性較低。

基于特征的機(jī)器學(xué)習(xí)方法

常用的機(jī)器學(xué)習(xí)方法其實就是那些,隱馬爾科夫、決策樹、最大熵、支持向量機(jī)和條件隨機(jī)場。

至于特征上,也給了大家一些提示,詞性、句子成分、大小寫等,另外還可以引入一些外部的知識信息,例如維基百科的地點詞等。

3 NER中的深度學(xué)習(xí)技術(shù)

我們都知道,在nlp領(lǐng)域下,論準(zhǔn)招等各種效果,深度學(xué)習(xí)具有很高的地位,因此作者也花了非常大的筆墨來討論深度學(xué)習(xí),首先就談了深度學(xué)習(xí)的特點:

非線性處理。

自動化信息抽取,不用花費精力尋找和維護(hù)特征。

直接端到端訓(xùn)練。

對于解決NER的深度學(xué)習(xí)方法,作者把整體架構(gòu)劃分為三個等級:

分布式文本表示

上下文編碼

tag解碼

分布式文本表示

分布式文本表示,說白了就是word2vector、glove之類的預(yù)訓(xùn)練方法。具體定義不贅述了哈哈哈。

word級別,其實就比較常見word2vector、glove、fasttet、senna等,當(dāng)然也有一些簡單預(yù)訓(xùn)練語言模型,例如結(jié)合CNN之類的。

而char級別(中文就是字級別)對未登錄詞的識別能力很高,其構(gòu)建的主要方式主要有CNN-based和RNN-based。

當(dāng)然,還有一些混合方法,會加入一些外部信息(詞典信息、詞匯相似度信息),這些方法對效果提升有用,但是可遷移性下降了。另外,作者把bert的方法也歸于此處,主要原因是他在預(yù)訓(xùn)練的時候使用了大量外部語料信息。

上下文編碼架構(gòu)

上下文編碼是文本表示之后的操作,作者分為了4種情況,CNN、RNNs、遞歸神經(jīng)網(wǎng)絡(luò)和transformer,另外還單獨提到了神經(jīng)網(wǎng)絡(luò)語言模型。

CNN和RNNs的情況其實比較常規(guī)了,不做太多解釋,文章中其實更多的也是論文的解釋。

遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks)其實我也只是聽過,自己沒有深入地了解,后續(xù)會排期學(xué)習(xí)。簡單的用作者的話評價:

Recursive Neural Networks are non-linear adaptive mod- els that are able to learn deep structured information, by traversing a given structure in topological order.

也就是構(gòu)建了一種特定的拓?fù)浣Y(jié)構(gòu)來表達(dá)內(nèi)部的信息,這種信息大都和句子的語法結(jié)構(gòu)相關(guān)。

神經(jīng)語言模型是nlp里面最為基礎(chǔ)的內(nèi)容,NLP幾次前進(jìn)的里程碑都和神經(jīng)語言模型的大跨步有關(guān),word2vector、elmo、bert。

想提一個有意思的思路,他借助語言模型和NER多任務(wù)的模型來進(jìn)行訓(xùn)練,這種方式能讓模型學(xué)到更加針對領(lǐng)域的語言模型,同時也能滿足NER的需求,作者的解釋放這里:

Peters et al. [19] proposed TagLM, a language model augmented sequence tagger. This tagger considers both pre-trained word embeddings and bidirectional language model embeddings for every token in the input sequence for sequence labeling task. Figure 12 shows the architecture of LM-LSTM-CRF model [121], [122]. The language model and sequence tagging model share the same character-level layer in a multi-task learning manner. The vectors from character- level embeddings, pre-trained word embeddings, and lan- guage model representations, are concatenated and fed into the word-level LSTMs. Experimental results demonstrate that multi-task learning is an effective approach to guide the language model to learn task-specific knowledge.

transformer可以說是距離我們最近的一次里程碑跨越的代表了,一次技術(shù)的突破需要時間落到更多任務(wù)的實踐中,NER也不例外,目前在transformer應(yīng)用于NER的研究上,已經(jīng)有不少人進(jìn)行嘗試,而且從效果來看,具有下面這些特點:

上下文和位置信息的表征。

微調(diào)方法為模型的通用性提供了保證,同時對特定問題也能進(jìn)行特異性訓(xùn)練。

tag解碼器

有關(guān)tag解碼器,其實就有點像機(jī)器學(xué)習(xí)方法了,上游做好特征工程,然后下游接解碼器預(yù)測每個位置的分類,常用的方法有:

MLP+softmax,簡單,但是上下文信息捕獲能力很差。

CRF,NER上比較重要的基本方法。、

RNN,訓(xùn)練速度比CRF稍快,但是個人感覺效果不如CRF強。

pointer networks。RNN的一種升級版,用來提取其中的chunk,內(nèi)部其實有兩個神經(jīng)網(wǎng)絡(luò),一個用于分詞,一個用于標(biāo)記。

summary

作者花了很多的力氣去對比各個模型的效果,經(jīng)過作者的總結(jié),有如下信息:

文本表示效果對預(yù)測結(jié)果影響很大。

噪音數(shù)據(jù)對效果影響較大。

外部信息,包括預(yù)訓(xùn)練語言模型,效果雖好,作者特別指出了里面的問題:

外部信息依賴計算性能和標(biāo)注性能。

大部分情況不利于可遷移能力。

從效果來看transformer比lstm系列效果更好,可以成為lstm的替換方法。

rnn系列的缺點在于貪婪法,首先強烈依賴于上一步的結(jié)果,同時對速度有影響。

后續(xù)作者對任務(wù)下的方法進(jìn)行總結(jié),給出一些方法選擇的建議:

For end users, what architecture to choose is data and domain task dependent. If data isabundant, training models withRNNs from scratch and fine-tuning contextualized languagemodels could be considered. If data is scarce, adoptingtransfer strategiesmight be a better choice. For newswires domain, there are many pre-trained off-the-shelf models available. For specific domains (e.g., medical and social media),fine-tuning general-purpose contextualized language modelswith domain-specific data is often an effective way.

可惜的是作者這里只考慮了準(zhǔn)招效果,而沒有考慮參數(shù)量、復(fù)雜度、內(nèi)存等其他因素,不過就準(zhǔn)招而言,確實有借鑒意義。

深度學(xué)習(xí)在NER中的應(yīng)用

這章更多的是談一些使用深度學(xué)習(xí)解決NER的思路,這塊涉及自己的盲點很多,但是這些東西都很值得學(xué)習(xí),此處先列出,后續(xù)慢慢學(xué)習(xí)。

深度多任務(wù)學(xué)習(xí)。

深度遷移學(xué)習(xí)。

深度主動學(xué)習(xí)。

深度強化學(xué)習(xí)。

深度對抗學(xué)習(xí)。

Attention機(jī)制。

NER的挑戰(zhàn)和未來方向

看到類似的句子,說明綜述到尾聲了,總結(jié)了過去,肯定要展望未來,在挑戰(zhàn)上,作者提出了兩個關(guān)鍵點:

數(shù)據(jù)標(biāo)注問題,NER相比文本分類,其實更加需要數(shù)據(jù),這個一直是一個老大難的問題,如何獲取更多更準(zhǔn)的標(biāo)注樣本,是一個技術(shù)活。

非正式語言環(huán)境。在非正式的語境下,其實語法結(jié)構(gòu)并不是那么完整(例如微博、朋友圈、用戶query到等),這對準(zhǔn)確性和魯棒性要求就很高了。

而在方向上,有如下思路可供參考:

細(xì)粒度的NER和邊界問題。NER有時候也被叫做提槽,槽位的精準(zhǔn)在現(xiàn)在問題下,其實多在于對邊緣的準(zhǔn)確劃分。

實體鏈接。即對NER問題有了更高級的需求,要求理解實體之間的關(guān)系,這個對知識圖譜的構(gòu)建非常重要。

資源匱乏下NER的訓(xùn)練。

NER的可延展性,由于NER大都依賴rnn這種遞歸式,貪婪式的模型,所以耗時普遍較長,長句子的識別時間尤其可怕,因此這個問題需要被關(guān)注。

遷移學(xué)習(xí)。說白了就是看看能不能白嫖或者是少花錢的方式完成一個ner任務(wù)。

NER下可用的深度學(xué)習(xí)工具。

評價

這篇綜述其實談到了很多NER我之前沒有關(guān)注的點,幾個重點我劃一下,后續(xù)我也會持續(xù)去看:

上下游編碼結(jié)構(gòu)和tagger兩個模塊的模型拓展。

多任務(wù)、主動學(xué)習(xí)這兩塊有較大的挖掘空間。

另外我認(rèn)為作者還有幾個方向沒有談到但是大家應(yīng)該關(guān)注:

nlp下的數(shù)據(jù)增強問題,可以從ner角度開始拓展,主要因為ner的標(biāo)注數(shù)據(jù)具有的信息,比比他簡單的文本分類問題的數(shù)據(jù)多,也比比他復(fù)雜的機(jī)器翻譯、對話系統(tǒng)的數(shù)據(jù)信息更結(jié)構(gòu)化,因此用ner進(jìn)行數(shù)據(jù)增強具有很大價值。

蒸餾。我們都知道上述模型耗時長、體積大,蒸餾是解決該問題的一個重要方法,但是相比CV領(lǐng)域,nlp領(lǐng)域的蒸餾還有很大潛力。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3834

    瀏覽量

    52291
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    67

    文章

    8567

    瀏覽量

    137269
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5610

    瀏覽量

    124661

原文標(biāo)題:【綜述】2018年的一篇NER綜述筆記

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    深度學(xué)習(xí)為什么還是無法處理邊緣場景?

    [首發(fā)于智駕最前沿微信公眾號]雖然自動駕駛車輛已經(jīng)完成了數(shù)百萬公里的行駛測試,深度學(xué)習(xí)也已被普遍應(yīng)用,但依然會在一些看似簡單的場景犯下低級錯誤。比如在遇到一些從未見到過的邊緣場景時,系統(tǒng)可能會
    的頭像 發(fā)表于 05-04 10:16 ?2155次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>為什么還是無法處理邊緣場景?

    人工智能-Python深度學(xué)習(xí)進(jìn)階與應(yīng)用技術(shù):工程師高培解讀

    深度學(xué)習(xí)的工程化落地,早已不是紙上談兵的事。從卷積神經(jīng)網(wǎng)絡(luò)到Transformer,從目標(biāo)檢測到大模型私有化部署,技術(shù)棧不斷延伸,工程師面臨的知識體系也越來越龐雜?,F(xiàn)根據(jù)際賽威工程師
    的頭像 發(fā)表于 04-21 11:01 ?400次閱讀
    人工智能-Python<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>進(jìn)階與應(yīng)用<b class='flag-5'>技術(shù)</b>:工程師高培解讀

    深度學(xué)習(xí)驅(qū)動的超構(gòu)表面設(shè)計進(jìn)展及其在全息成像的應(yīng)用

    當(dāng)前,深度學(xué)習(xí)技術(shù)與超構(gòu)表面(metasurface)全息成像技術(shù)的融合,有力推動了光學(xué)成像領(lǐng)域的發(fā)展。得益于超構(gòu)表面對光波特性的精準(zhǔn)調(diào)控,全息成像
    的頭像 發(fā)表于 04-09 13:55 ?179次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>驅(qū)動的超構(gòu)表面設(shè)計進(jìn)展及其在全息成像<b class='flag-5'>中</b>的應(yīng)用

    【智能檢測】基于AI深度學(xué)習(xí)與飛拍技術(shù)的影像測量系統(tǒng):實現(xiàn)高效精準(zhǔn)的全自動光學(xué)檢測與智能制造數(shù)據(jù)閉環(huán)

    內(nèi)容概要:文檔內(nèi)容介紹了圖儀器(Chotest)影像測量儀融合人工智能深度學(xué)習(xí)與飛拍技術(shù)的自動化檢測解決方案。系統(tǒng)通過AI深度
    發(fā)表于 03-31 17:11

    人工智能與機(jī)器學(xué)習(xí)在這些行業(yè)的深度應(yīng)用

    自人工智能和機(jī)器學(xué)習(xí)問世以來,多個在線領(lǐng)域的數(shù)字化格局迎來了翻天覆地的變化。這些技術(shù)從誕生之初就為企業(yè)賦予了競爭優(yōu)勢,而在線行業(yè)正是受其影響最為顯著的領(lǐng)域。人工智能(AI)與機(jī)器學(xué)習(xí)(ML)的
    的頭像 發(fā)表于 02-04 14:44 ?715次閱讀

    機(jī)器學(xué)習(xí)深度學(xué)習(xí)需避免的 7 個常見錯誤與局限性

    無論你是剛?cè)腴T還是已經(jīng)從事人工智能模型相關(guān)工作一段時間,機(jī)器學(xué)習(xí)深度學(xué)習(xí)中都存在一些我們需要時刻關(guān)注并銘記的常見錯誤。如果對這些錯誤置之不理,日后可能會引發(fā)諸多麻煩!只要我們密切關(guān)注數(shù)據(jù)、模型架構(gòu)
    的頭像 發(fā)表于 01-07 15:37 ?370次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>中</b>需避免的 7 個常見錯誤與局限性

    穿孔機(jī)頂頭檢測儀 機(jī)器視覺深度學(xué)習(xí)

    LX01Z-DG626穿孔機(jī)頂頭檢測儀采用深度學(xué)習(xí)技術(shù),能夠?qū)崿F(xiàn)頂頭狀態(tài)的在線實時檢測,頂頭丟失報警,頂頭異常狀態(tài)報警等功能,響應(yīng)迅速,異常狀態(tài)視頻回溯,檢測頂頭溫度,配備吹掃清潔系統(tǒng),維護(hù)周期長
    發(fā)表于 12-22 14:33

    【團(tuán)購】獨家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實戰(zhàn)課(11大系列課程,共5000+分鐘)

    行業(yè)市場具備深度學(xué)習(xí)能力的視覺系統(tǒng)占比已突破40%,催生大量復(fù)合型技術(shù)崗位需求: ? 崗位缺口:視覺算法工程師全國缺口15萬+,缺陷檢測專項人才招聘響應(yīng)率僅32% ? 薪資水平:掌握LabVIEW+
    發(fā)表于 12-04 09:28

    【團(tuán)購】獨家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實戰(zhàn)課程(11大系列課程,共5000+分鐘)

    行業(yè)市場具備深度學(xué)習(xí)能力的視覺系統(tǒng)占比已突破40%,催生大量復(fù)合型技術(shù)崗位需求: ? 崗位缺口:視覺算法工程師全國缺口15萬+,缺陷檢測專項人才招聘響應(yīng)率僅32% ? 薪資水平:掌握LabVIEW+
    發(fā)表于 12-03 13:50

    如何深度學(xué)習(xí)機(jī)器視覺的應(yīng)用場景

    深度學(xué)習(xí)視覺應(yīng)用場景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測:處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)化缺陷模式 非標(biāo)產(chǎn)品分類:對形狀、顏色、紋理多變的產(chǎn)品進(jìn)行智能分類 外觀質(zhì)量評估:基于學(xué)習(xí)的外觀質(zhì)量標(biāo)準(zhǔn)判定 精密
    的頭像 發(fā)表于 11-27 10:19 ?355次閱讀

    如何在機(jī)器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    人士而言往往難以理解,人們也常常誤以為需要扎實的編程技能才能真正掌握并合理使用這項技術(shù)。事實上,這種印象忽視了該技術(shù)為機(jī)器視覺(乃至生產(chǎn)自動化)帶來的潛力,因為深度學(xué)習(xí)并非只屬于計算機(jī)
    的頭像 發(fā)表于 09-10 17:38 ?1079次閱讀
    如何在機(jī)器視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    深度學(xué)習(xí)對工業(yè)物聯(lián)網(wǎng)有哪些幫助

    、實施路徑三個維度展開分析: 一、深度學(xué)習(xí)如何突破工業(yè)物聯(lián)網(wǎng)的技術(shù)瓶頸? 1. 非結(jié)構(gòu)化數(shù)據(jù)處理:解鎖“沉睡數(shù)據(jù)”價值 傳統(tǒng)困境 :工業(yè)物聯(lián)網(wǎng)70%以上的數(shù)據(jù)為非結(jié)構(gòu)化數(shù)據(jù)(如設(shè)備振
    的頭像 發(fā)表于 08-20 14:56 ?1254次閱讀

    自動駕駛Transformer大模型會取代深度學(xué)習(xí)嗎?

    持續(xù)討論。特別是在自動駕駛領(lǐng)域,部分廠商開始嘗試將多模態(tài)大模型(MLLM)引入到感知、規(guī)劃與決策系統(tǒng),引發(fā)了“傳統(tǒng)深度學(xué)習(xí)是否已過時”的激烈爭論。然而,從技術(shù)原理、算力成本、安全需求與實際落地路徑等維度來看,Transforme
    的頭像 發(fā)表于 08-13 09:15 ?4396次閱讀
    自動駕駛<b class='flag-5'>中</b>Transformer大模型會取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    當(dāng)深度學(xué)習(xí)遇上嵌入式資源困境,特征空間如何破局?

    近年來,隨著人工智能(AI)技術(shù)的迅猛發(fā)展,深度學(xué)習(xí)(Deep Learning)成為最熱門的研究領(lǐng)域之一。在語音識別、圖像識別、自然語言處理等領(lǐng)域,深度
    發(fā)表于 07-14 14:50 ?1331次閱讀
    當(dāng)<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>遇上嵌入式資源困境,特征空間如何破局?

    深度學(xué)習(xí)賦能:正面吊車載箱號識別系統(tǒng)的核心技術(shù)

    在現(xiàn)代物流與智慧港口建設(shè),集裝箱的高效精準(zhǔn)識別是提升作業(yè)效率的關(guān)鍵環(huán)節(jié)?;贠CR+AI深度學(xué)習(xí)技術(shù)的正面吊車載箱號識別系統(tǒng),憑借99%以上的識別率和毫秒級響應(yīng)速度,正成為港口自動化
    的頭像 發(fā)表于 05-07 10:10 ?691次閱讀
    木里| 图们市| 德兴市| 娱乐| 宿迁市| 闻喜县| 天气| 文登市| 武汉市| 梅河口市| 中西区| 当阳市| 双峰县| 海宁市| 合作市| 连江县| 台北县| 南京市| 商洛市| 石柱| 牡丹江市| 宝兴县| 蓬溪县| 沐川县| 东方市| 岳普湖县| 榆树市| 旌德县| 余姚市| 鄂托克旗| 抚宁县| 门头沟区| 奈曼旗| 大洼县| 贡嘎县| 永康市| 永善县| 当阳市| 广南县| 道真| 获嘉县|