日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NLP中的自監(jiān)督表示學(xué)習(xí)

深度學(xué)習(xí)自然語言處理 ? 來源:AI公園 ? 作者:amitness ? 2020-11-24 09:52 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導(dǎo)讀

其實在自監(jiān)督學(xué)習(xí)的概念提出之前,NLP中就已經(jīng)運用到了這一思想。

雖然計算機視覺在自監(jiān)督學(xué)習(xí)方面取得了驚人的進展,但在很長一段時間內(nèi),自監(jiān)督學(xué)習(xí)一直是NLP研究領(lǐng)域的一等公民。語言模型早在90年代就已經(jīng)存在,甚至在“自我監(jiān)督學(xué)習(xí)”這個術(shù)語出現(xiàn)之前。2013年的Word2Vec論文推廣了這一模式,在許多問題上應(yīng)用這些自監(jiān)督的方法,這個領(lǐng)域得到了迅速的發(fā)展。

這些自監(jiān)督的方法的核心是一個叫做 “pretext task” 的框架,它允許我們使用數(shù)據(jù)本身來生成標簽,并使用監(jiān)督的方法來解決非監(jiān)督的問題。這些也被稱為“auxiliary task”或“pre-training task“。通過執(zhí)行此任務(wù)獲得的表示可以用作我們的下游監(jiān)督任務(wù)的起點。

在這篇文章中,我將概述研究人員在沒有明確的數(shù)據(jù)標注的情況下從文本語料庫中學(xué)習(xí)表示的各種pretext tasks。本文的重點是任務(wù)的制定,而不是實現(xiàn)它們的架構(gòu)。

自監(jiān)督的方案

1. 預(yù)測中心

在這個公式中,我們?nèi)∫欢ù翱诖笮〉囊恍K文本,我們的目標是根據(jù)周圍的單詞預(yù)測中心單詞。

例如,在下面的圖中,我們有一個大小為1的窗口,因此我們在中間單詞的兩邊各有一個單詞。使用這些相鄰的詞,我們需要預(yù)測中心詞。

這個方案已經(jīng)在著名的Word2Vec論文的“Continuous Bag of Words”方法中使用過。

2. 預(yù)測鄰居詞

在這個公式中,我們?nèi)∫欢ù翱诖笮〉奈谋緩埑傻目臻g,我們的目標是在給定中心詞的情況下預(yù)測周圍的詞。

這個方案已經(jīng)在著名的Word2Vec論文的“skip-gram”方法中實現(xiàn)。

3. 相鄰句子的預(yù)測

在這個公式中,我們?nèi)∪齻€連續(xù)的句子,設(shè)計一個任務(wù),其中給定中心句,我們需要生成前一個句子和下一個句子。它類似于之前的skip-gram方法,但適用于句子而不是單詞。

這個方案已經(jīng)在Skip-Thought Vectors的論文中使用過。

4. 自回歸語言建模

在這個公式中,我們?nèi)〈罅课礃俗⒌奈谋荆⒃O(shè)置一個任務(wù),根據(jù)前面的單詞預(yù)測下一個單詞。因為我們已經(jīng)知道下一個來自語料庫的單詞是什么,所以我們不需要手工標注的標簽。

例如,我們可以通過預(yù)測給定前一個單詞的下一個單詞來將任務(wù)設(shè)置為從左到右的語言建模。

我們也可以用這個方案來通給定未來的單詞預(yù)測之前的單詞,方向是從右到左。

這個方案已經(jīng)使用在許多論文中,從n-gram模型到神經(jīng)網(wǎng)絡(luò)模型比如神經(jīng)概率語言模型 (GPT) 。

5. 掩碼語言建模

在這個方案中,文本中的單詞是隨機掩碼的,任務(wù)是預(yù)測它們。與自回歸公式相比,我們在預(yù)測掩碼單詞時可以同時使用前一個詞和下一個詞的上下文。

這個方案已經(jīng)在BERT、RoBERTa和ALBERT的論文中使用過。與自回歸相比,在這個任務(wù)中,我們只預(yù)測了一小部分掩碼詞,因此從每句話中學(xué)到的東西更少。

6. 下一個句子預(yù)測

在這個方案中,我們?nèi)∥募谐霈F(xiàn)的兩個連續(xù)的句子,以及同一文件或不同文件中隨機出現(xiàn)的另一個句子。

然后,任務(wù)是區(qū)分兩個句子是否是連貫的。

在BERT的論文中,它被用于提高下游任務(wù)的性能,這些任務(wù)需要理解句子之間的關(guān)系,比如自然語言推理(NLI)和問題回答。然而,后來的研究對其有效性提出了質(zhì)疑。

7. 句子順序的預(yù)測

在這個方案中,我們從文檔中提取成對的連續(xù)句子。然后互換這兩個句子的位置,創(chuàng)建出另外一對句子。

我們的目標是對一對句子進行分類,看它們的順序是否正確。

在ALBERT的論文中,它被用來取代“下一個句子預(yù)測”任務(wù)。

8. 句子重排

在這個方案中,我們從語料庫中取出一個連續(xù)的文本,并破開的句子。然后,對句子的位置進行隨機打亂,任務(wù)是恢復(fù)句子的原始順序。

它已經(jīng)在BART的論文中被用作預(yù)訓(xùn)練的任務(wù)之一。

9. 文檔旋轉(zhuǎn)

在這個方案中,文檔中的一個隨機token被選擇為旋轉(zhuǎn)點。然后,對文檔進行旋轉(zhuǎn),使得這個token成為開始詞。任務(wù)是從這個旋轉(zhuǎn)的版本中恢復(fù)原來的句子。

它已經(jīng)在BART的論文中被用作預(yù)訓(xùn)練的任務(wù)之一。直覺上,這將訓(xùn)練模型開始識別文檔。

10. 表情符號預(yù)測

這個方案被用在了DeepMoji的論文中,并利用了我們使用表情符號來表達我們所發(fā)推文的情感這一想法。如下所示,我們可以使用推特上的表情符號作為標簽,并制定一個監(jiān)督任務(wù),在給出文本時預(yù)測表情符號。

DeepMoji的作者們使用這個概念對一個模型進行了12億條推文的預(yù)訓(xùn)練,然后在情緒分析、仇恨語言檢測和侮辱檢測等與情緒相關(guān)的下游任務(wù)上對其進行微調(diào)。

責任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4844

    瀏覽量

    108216
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    491

    瀏覽量

    23347

原文標題:NLP中的自監(jiān)督表示學(xué)習(xí),全是動圖,很過癮的

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    算法工程師需要具備哪些技能?

    ResNet、VGG)。RNN/LSTM:序列建模(如時間序列預(yù)測、NLP的文本生成)。Transformer:注意力機制(如BERT、GPT)。 模型調(diào)優(yōu)正則化:L1/L2正則化防止過擬合。超參數(shù)
    發(fā)表于 02-27 10:53

    強化學(xué)習(xí)會讓自動駕駛模型學(xué)習(xí)更快嗎?

    是一種讓機器通過“試錯”學(xué)會決策的辦法。與監(jiān)督學(xué)習(xí)不同,監(jiān)督學(xué)習(xí)是有人提供示范答案,讓模型去模仿;而強化學(xué)習(xí)不會把每一步的“正確答案”都告訴你,而是把環(huán)境、動作和結(jié)果連起來,讓機器自己探索哪個行為長期看起來更有利
    的頭像 發(fā)表于 01-31 09:34 ?863次閱讀
    強化<b class='flag-5'>學(xué)習(xí)</b>會讓自動駕駛模型<b class='flag-5'>學(xué)習(xí)</b>更快嗎?

    自然語言處理NLP的概念和工作原理

    自然語言處理 (NLP) 是人工智能 (AI) 的一個分支,它會教計算機如何理解口頭和書面形式的人類語言。自然語言處理將計算語言學(xué)與機器學(xué)習(xí)和深度學(xué)習(xí)相結(jié)合來處理語音和文本數(shù)據(jù),這些數(shù)據(jù)也可以與其他類型的數(shù)據(jù)一起用于開發(fā)智能工程
    的頭像 發(fā)表于 01-29 14:01 ?628次閱讀
    自然語言處理<b class='flag-5'>NLP</b>的概念和工作原理

    機器學(xué)習(xí)和深度學(xué)習(xí)需避免的 7 個常見錯誤與局限性

    無論你是剛?cè)腴T還是已經(jīng)從事人工智能模型相關(guān)工作一段時間,機器學(xué)習(xí)和深度學(xué)習(xí)中都存在一些我們需要時刻關(guān)注并銘記的常見錯誤。如果對這些錯誤置之不理,日后可能會引發(fā)諸多麻煩!只要我們密切關(guān)注數(shù)據(jù)、模型架構(gòu)
    的頭像 發(fā)表于 01-07 15:37 ?370次閱讀
    機器<b class='flag-5'>學(xué)習(xí)</b>和深度<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>中</b>需避免的 7 個常見錯誤與局限性

    【團購】獨家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實戰(zhàn)課(11大系列課程,共5000+分鐘)

    趨勢: 無監(jiān)督學(xué)習(xí)普及 當前工業(yè)場景80%的缺陷檢測項目面臨\"OK樣本充足而NG樣本稀缺\"的困境,傳統(tǒng)監(jiān)督學(xué)習(xí)方案難以落地。課程第11系列(無監(jiān)督缺陷檢測篇)提供無需標注即可
    發(fā)表于 12-04 09:28

    【團購】獨家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實戰(zhàn)課程(11大系列課程,共5000+分鐘)

    趨勢: 無監(jiān)督學(xué)習(xí)普及 當前工業(yè)場景80%的缺陷檢測項目面臨\"OK樣本充足而NG樣本稀缺\"的困境,傳統(tǒng)監(jiān)督學(xué)習(xí)方案難以落地。課程第11系列(無監(jiān)督缺陷檢測篇)提供無需標注即可
    發(fā)表于 12-03 13:50

    華為出席Innovate Asia 2025無線智網(wǎng)絡(luò)圓桌論壇

    了無線智網(wǎng)絡(luò)產(chǎn)業(yè)發(fā)展、AN L4測評以及無線智網(wǎng)絡(luò)演進方向等熱點話題。他表示AN L4將分兩個階段演進,單域單場景自動化和單域網(wǎng)絡(luò)自治,并最終走向L5全域網(wǎng)絡(luò)自治。這將需要產(chǎn)業(yè)通力合作,共同推進
    的頭像 發(fā)表于 12-01 13:23 ?842次閱讀

    定點數(shù)表示實數(shù)的方法以及定點數(shù)在硬件上的運算驗證

    ’b110_0000_0000_0000_0000_0000時,表示為十進制小數(shù)0.75( 2^(-1)+2^(-2) )。E是指數(shù),為了能夠表示負指數(shù)、IEEE754標準規(guī)定浮點數(shù)的實際指數(shù)為E-127。從32位浮點數(shù)編碼結(jié)
    發(fā)表于 10-28 08:13

    自動駕駛中常提的“強化學(xué)習(xí)”是個啥?

    下,就是一個智能體在環(huán)境里行動,它能觀察到環(huán)境的一些信息,并做出一個動作,然后環(huán)境會給出一個反饋(獎勵或懲罰),智能體的目標是把長期得到的獎勵累積到最大。和監(jiān)督學(xué)習(xí)不同,強化學(xué)習(xí)沒有一一對應(yīng)的“正確答案”給它看,而是靠與環(huán)境交互、自我探索來發(fā)現(xiàn)
    的頭像 發(fā)表于 10-23 09:00 ?937次閱讀
    自動駕駛中常提的“強化<b class='flag-5'>學(xué)習(xí)</b>”是個啥?

    FPGA在機器學(xué)習(xí)的具體應(yīng)用

    ,越來越多地被應(yīng)用于機器學(xué)習(xí)任務(wù)。本文將探討 FPGA 在機器學(xué)習(xí)的應(yīng)用,特別是在加速神經(jīng)網(wǎng)絡(luò)推理、優(yōu)化算法和提升處理效率方面的優(yōu)勢。
    的頭像 發(fā)表于 07-16 15:34 ?3127次閱讀

    機器學(xué)習(xí)異常檢測實戰(zhàn):用Isolation Forest快速構(gòu)建無標簽異常檢測系統(tǒng)

    本文轉(zhuǎn):DeepHubIMBA無監(jiān)督異常檢測作為機器學(xué)習(xí)領(lǐng)域的重要分支,專門用于在缺乏標記數(shù)據(jù)的環(huán)境識別異常事件。本文深入探討異常檢測技術(shù)的理論基礎(chǔ)與實踐應(yīng)用,通過Isolatio
    的頭像 發(fā)表于 06-24 11:40 ?1635次閱讀
    機器<b class='flag-5'>學(xué)習(xí)</b>異常檢測實戰(zhàn):用Isolation Forest快速構(gòu)建無標簽異常檢測系統(tǒng)

    電阻上的數(shù)字如何表示電阻大???

    電阻是電子電路的重要元件,用于控制電流的流動。電阻的大小,也就是電阻值,通常通過其上的數(shù)字或顏色環(huán)來表示。了解這些表示方法對于電路設(shè)計和維修至關(guān)重要。今天昂洋科技將詳細介紹電阻上數(shù)字如何表示
    的頭像 發(fā)表于 06-09 14:38 ?4160次閱讀
    電阻上的數(shù)字如何<b class='flag-5'>表示</b>電阻大?。? />    </a>
</div>                              <div   id=

    對準硅化物工藝詳解

    源漏區(qū)的單晶硅和柵極上的多晶硅即使在摻雜后仍然具有較高的電阻率,對準硅化物(salicide)工藝能夠同時減小源/漏電極和柵電極的薄膜電阻,降低接觸電阻,并縮短與柵相關(guān)的RC延遲。另外,它避免了
    的頭像 發(fā)表于 05-28 17:30 ?3327次閱讀
    <b class='flag-5'>自</b>對準硅化物工藝詳解

    芯片制造對準接觸技術(shù)介紹

    但當芯片做到22納米時,工程師遇到了大麻煩——用光刻機畫接觸孔時,稍有一點偏差就會導(dǎo)致芯片報廢。 對準接觸技術(shù)(SAC) ,完美解決了這個難題。
    的頭像 發(fā)表于 05-19 11:11 ?1811次閱讀
    芯片制造<b class='flag-5'>中</b><b class='flag-5'>自</b>對準接觸技術(shù)介紹

    使用MATLAB進行無監(jiān)督學(xué)習(xí)

    監(jiān)督學(xué)習(xí)是一種根據(jù)未標注數(shù)據(jù)進行推斷的機器學(xué)習(xí)方法。無監(jiān)督學(xué)習(xí)旨在識別數(shù)據(jù)隱藏的模式和關(guān)系,無需任何監(jiān)督或關(guān)于結(jié)果的先驗知識。
    的頭像 發(fā)表于 05-16 14:48 ?1639次閱讀
    使用MATLAB進行無<b class='flag-5'>監(jiān)督學(xué)習(xí)</b>
    原平市| 纳雍县| 延庆县| 长宁区| 贡山| 永清县| 兴国县| 富锦市| 乐至县| 苗栗县| 宁海县| 浠水县| 娄烦县| 汨罗市| 抚松县| 江孜县| 山东| 昂仁县| 徐汇区| 德清县| 四川省| 衡南县| 延边| 邢台市| 永平县| 运城市| 建宁县| 汪清县| 哈尔滨市| 长垣县| 临海市| 固原市| 密山市| 大冶市| 平原县| 西畴县| 凯里市| 彝良县| 博白县| 富川| 临城县|