日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

無監(jiān)督訓練加微小調整,只用一個模型即可解決多種NLP

DPVg_AI_era ? 來源:未知 ? 作者:胡薇 ? 2018-06-13 18:00 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

基于一個可伸縮的、任務無關的系統(tǒng),OpenAI在一組包含不同的語言任務中獲得了最優(yōu)的實驗結果,方法是兩種現(xiàn)有理念的結合:遷移學習和無監(jiān)督的預訓練。這些結果證明了有監(jiān)督的學習方法可以與無監(jiān)督的預訓練進行完美的結合。這個想法許多人在過去探索過,OpenAI希望結果能激發(fā)更多的研究,進而將這個想法應用到更大、更多樣化的數(shù)據(jù)集上。

我們的系統(tǒng)分為兩個階段:首先,我們通過無監(jiān)督的方式在大數(shù)據(jù)集上訓練一個遷移學習模型,訓練過程中使用語言模型的訓練結果作為信號,然后我們在更小的有監(jiān)督數(shù)據(jù)集上對這個模型進行微調,以幫助它解決特定的任務。這個方法的開發(fā)是在我們前一個sentiment neuron(情緒神經(jīng)元)的工作之后進行的,在sentiment neuron任務中我們注意到,通過利用足夠的數(shù)據(jù)對模型進行訓練,無監(jiān)督學習可以獲得令人驚訝的判別特征。在這里,我們想進一步探討這個想法:我們能否開發(fā)一個模型,以一種無監(jiān)督的方式使用大量數(shù)據(jù)對模型進行訓練,然后對模型進行微調,以在不同的任務中都獲得良好的性能?我們的研究結果表明,這種方法的效果出奇地好。同樣的核心模型可以針對完全不同的任務進行微調,以適應任務。

本研究是基于在半監(jiān)督序列學習中引入的方法,該方法展示了如何通過對LSTM進行無監(jiān)督的預訓練,然后進行有監(jiān)督的微調,來提高文本分類的能力。它還擴展了ULMFiT的研究,該研究展示了如何對單個數(shù)據(jù)不可知的LSTM語言模型進行微調,從而在各種文本分類數(shù)據(jù)集上獲得最優(yōu)的性能。我們的工作展示了如何在這種方法中使用遷移學習模型,從而在文本分類之外的更廣泛任務中取得成功,例如常識推理、語義相似性和閱讀理解等。它與ELMo類似,但屬于任務無關型問題,它包含了預訓練,希望使用針對任務的特殊模型架構來獲得最優(yōu)的結果。

我們通過對很少的參數(shù)調優(yōu)來達到我們的目的。所有的數(shù)據(jù)集都僅使用一個前向語言模型,沒有任何組合,并且大多數(shù)的結果都使用完全相同的超參數(shù)設置。

我們的方法在COPA、RACE和ROCStories三個數(shù)據(jù)集上的性能都表現(xiàn)得特別好,這些數(shù)據(jù)集是用來測試常識推理和閱讀理解的。我們的模型在這些數(shù)據(jù)集上獲得了最優(yōu)的結果。這些數(shù)據(jù)集的識別被認為需要多句推理和重要的世界知識,這表明我們的模型主要通過無監(jiān)督學習來提高這些能力。以上表明,無監(jiān)督的技術有希望開發(fā)復雜的語言理解能力。

為什么是無監(jiān)督學習?

監(jiān)督學習是大多數(shù)機器學習算法成功的核心。然而,它需要對大量的數(shù)據(jù)進行仔細的清理,創(chuàng)建的代價也極其昂貴,這樣才能獲得很好的效果。無監(jiān)督學習的吸引力在于它有可能解決這些缺點。由于無監(jiān)督的學習消除了人為顯式標記的瓶頸,它也很好地擴展了當前的趨勢,即增加了原始數(shù)據(jù)的計算能力和可用性。無監(jiān)督學習是一個非?;钴S的研究領域,但它的實際應用往往很有限。

最近的一次一項嘗試是試圖通過使用無監(jiān)督學習來對具有大量未標記數(shù)據(jù)的系統(tǒng)進行增強,從而進一步提高模型的語言能力。通過無監(jiān)督訓練的單詞表示可以使用包含萬億字節(jié)信息組成的大型數(shù)據(jù)集,當與有監(jiān)督學習相結合時,可以提高各種NLP任務的性能。直到最近,這些無監(jiān)督的NLP技術(例如GLoVe和word2vec)使用了簡單的模型(詞向量)和訓練信號(單詞的局部同時出現(xiàn))。skip-Thought向量是一個很值得注意的早期想法,它展示了更復雜的方法如何進行改進的潛能。而現(xiàn)在正在使用新的技術將進一步提高實驗性能。上述技術包括使用預訓練的句子來表示模型,上下文化的詞向量(特別是ELMo和CoVE),以及像我們提出來的方法:使用特定的模型架構來將無監(jiān)督的預訓練和有監(jiān)督的微調融合在一起。

在大量文本的基礎上對我們的模型進行預訓練,極大地提高了它在具有挑戰(zhàn)性的自然語言處理任務上的性能,比如Winograd模式解析。

我們還注意到,我們可以使用未訓練的基礎語言模型執(zhí)行任務。例如,隨著基礎語言模型的改進,像選擇多個正確答案這樣任務的性能會穩(wěn)步增加。雖然這些方法的絕對性能相對于最新的有監(jiān)督技術而言仍然很低,(對于問答系統(tǒng),它的表現(xiàn)優(yōu)于簡單的滑動窗口那樣的基線系統(tǒng))但是鼓舞人心的一點是,這種行為在廣泛集合的任務中是具有魯棒性的。使用這些啟發(fā)式算法,不包含關于任務和世界的信息的隨機初始化網(wǎng)絡不會比包含這些信息的隨機初始化方法獲得更好的效果。這就提供了一些見解,告訴我們?yōu)槭裁瓷深A訓練可以提高下游任務的性能。

我們還可以使用模型中現(xiàn)有的語言功能來執(zhí)行情感分析。對于由正面和負面影評組成的斯坦福情緒Treebank數(shù)據(jù)集,我們可以通過使用語言模型在句子后面輸入單詞“very”來猜測評論是正面還是負面,還能看看這個模型是否具有預測“積極的”或“消極的”的傾向。 這種方法根本不需要根據(jù)任務調整模型,其性能與經(jīng)典基線相當,準確度達到80%左右。

我們的工作也驗證了遷移學習的魯棒性和有效性,這表明它足夠靈活,可以在不需要對復雜的任務進行定制或對超參數(shù)進行調優(yōu)的情況下,在廣泛數(shù)據(jù)的任務上獲得最優(yōu)的結果。

缺點

這個項目有一些問題還是值得注意的:

計算要求:許多以前的NLP任務方法都是從頭開始,在單個GPU上訓練相對較小的模型。 我們的方法需要昂貴的預訓練步驟:在8個GPU上進行為期1個月的訓練。幸運的是,這個訓練只需要進行一次。我們正在發(fā)布我們的模型,這樣其他人就不用再次訓練這樣的模型了。同時,與之前的工作相比,它也是一個大型模型,因此使用更多的計算和內存,我們使用了37層(12塊)Transformer架構,并且我們訓練的序列最多可達512個令牌。大多數(shù)實驗都是在4個/8個GPU系統(tǒng)上進行的。該模型可以快速調整新任務,從而有助于減輕額外的資源需求。

學習到文本中所包含的世界局限性和數(shù)據(jù)傾斜:互聯(lián)網(wǎng)上隨時可用的書籍和文本不包含關于世界的完整乃至準確的信息。最近的工作表明,某些類型的信息很難通過文本學習,而其他工作表明模型學習且利用了數(shù)據(jù)分布中包含的傾斜。

脆弱的泛化能力:盡管我們的方法改善了廣泛任務的性能,但目前的深度學習NLP模型的表現(xiàn)有時仍然是違反直覺并且令人震驚的,尤其是在以系統(tǒng)性,對抗性或分布式分布的方式進行評估時。盡管我們已經(jīng)觀察到一些進展的跡象,但我們的方法對這些問題并非免疫。相比較于以往純文本的神經(jīng)網(wǎng)絡,我們的方法具有更優(yōu)越的詞法魯棒性。在2018年Glockner等人介紹的數(shù)據(jù)集中,我們的模型準確率達到83.75%,表現(xiàn)類似于通過WordNet整合外部知識的KIM方法。

展望未來

擴展方法:我們已經(jīng)觀察到,語言模型性能的改進與下游任務的改進密切相關。目前我們正在使用一臺包含8 GPU計算機作為硬件,并僅使用大概包含5GB文本的幾千本書作為訓練數(shù)據(jù)集。 根據(jù)經(jīng)驗表明,使用更多的計算性能和數(shù)據(jù)可以使算法有很大的改進空間。

改進微調:我們的方法目前非常簡單。如果使用更復雜的適應和遷移技術(例如ULMFiT中探索的技術)可能會有實質性的改進。

更好地理解生成性預訓練的原理會對模型有益:盡管我們已經(jīng)討論了一些我們在此討論的想法,但更有針對性的實驗和研究將有助于區(qū)分那些不同的解釋。例如,我們觀察到的性能提高有多少是得益于改進了處理更廣泛背景的能力以及改進的世界知識?

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • nlp
    nlp
    +關注

    關注

    1

    文章

    491

    瀏覽量

    23347
  • 遷移學習
    +關注

    關注

    0

    文章

    74

    瀏覽量

    5856

原文標題:OpenAI最新研究:通過無監(jiān)督學習提高語言理解能力

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    AI模型是如何訓練的?訓練模型花費多大?

    電子發(fā)燒友網(wǎng)報道(文/李彎彎)在深度學習中,經(jīng)常聽到一個詞“模型訓練”,但是模型是什么?又是怎么訓練的?在人工智能中,面對大量的數(shù)據(jù),要在雜
    的頭像 發(fā)表于 10-23 00:19 ?2.9w次閱讀

    文詳解知識增強的語言預訓練模型

    ,在實際應用場景中效果不好。為了解決這個問題,將知識注入到PLMs中已經(jīng)成為非?;钴S的研究領域。本次分享將介紹三篇知識增強的預訓練語言模型論文,分別通過基于知識向量、知識檢索以及知
    的頭像 發(fā)表于 04-02 17:21 ?1.1w次閱讀

    【大語言模型:原理與工程實踐】大語言模型的預訓練

    訓練數(shù)據(jù)時,數(shù)量、質量和多樣性三者缺不可。 數(shù)據(jù)的多樣性對于大語言模型至關重要,這主要體現(xiàn)在數(shù)據(jù)的類別和來源兩方面。豐富的數(shù)據(jù)類別能夠提供多樣的語言表達特征,如官方知識型數(shù)據(jù)、口
    發(fā)表于 05-07 17:10

    迄今最大模型?OpenAI發(fā)布參數(shù)量高達15億的通用語言模型GPT-2

    史上最強“通用”NLP模型來襲:今天OpenAI在官博介紹了他們訓練大規(guī)模
    的頭像 發(fā)表于 02-16 08:43 ?4880次閱讀

    基于主動學習的半監(jiān)督圖神經(jīng)網(wǎng)絡模型來對分子性質進行預測方法

    總體來講,本文使用教師模型和學生模型來迭代訓練。每個模型都是圖神經(jīng)網(wǎng)絡。在教師
    的頭像 發(fā)表于 11-24 09:59 ?5274次閱讀

    小米在預訓練模型的探索與優(yōu)化

    大家?guī)硇∶自陬A訓練模型的探索與優(yōu)化。 01 預訓練簡介 預訓練與詞向量的方法脈相承。詞向量是從任務無關和大量的
    的頭像 發(fā)表于 12-31 10:17 ?3951次閱讀
    小米在預<b class='flag-5'>訓練</b><b class='flag-5'>模型</b>的探索與優(yōu)化

    NLP中的對抗訓練到底是什么

    簡介 對抗訓練種引入噪聲的訓練方式,可以對參數(shù)進行正則化,提升模型魯棒性和泛化能力。 對抗訓練的假設是:給輸入加上擾動之后,輸出分布和原
    的頭像 發(fā)表于 01-18 17:17 ?4296次閱讀

    利用ImageNet訓練能降噪、超分和去雨的圖像預訓練模型

    在上篇文章介紹過了,因為Transformer本身是用于NLP領域的,輸入應該是序列,因此這篇的論文做法和ViT[3]樣,首先需要把feature map分塊,每個patch則視
    的頭像 發(fā)表于 03-03 16:05 ?5657次閱讀
    利用ImageNet<b class='flag-5'>訓練</b>了<b class='flag-5'>一</b><b class='flag-5'>個</b>能降噪、超分和去雨的圖像預<b class='flag-5'>訓練</b><b class='flag-5'>模型</b>

    2021 OPPO開發(fā)者大會:NLP訓練模型

    2021 OPPO開發(fā)者大會:NLP訓練模型 2021 OPPO開發(fā)者大會上介紹了融合知識的NLP訓練
    的頭像 發(fā)表于 10-27 14:18 ?2262次閱讀
    2021 OPPO開發(fā)者大會:<b class='flag-5'>NLP</b>預<b class='flag-5'>訓練</b>大<b class='flag-5'>模型</b>

    2021年OPPO開發(fā)者大會 融合知識的NLP訓練模型

    2021年OPPO開發(fā)者大會劉海鋒:融合知識的NLP訓練模型,知識融合學習運用在小布助手里面。
    的頭像 發(fā)表于 10-27 14:48 ?2912次閱讀
    2021年OPPO開發(fā)者大會 融合知識的<b class='flag-5'>NLP</b>預<b class='flag-5'>訓練</b>大<b class='flag-5'>模型</b>

    如何實現(xiàn)更綠色、經(jīng)濟的NLP訓練模型遷移

    NLP中,預訓練模型Finetune是種非常常見的解決問題的范式。利用在海量文本上預訓練得到的Bert、GPT等
    的頭像 發(fā)表于 03-21 15:33 ?3086次閱讀

    AI模型是如何訓練的?訓練模型花費多大?

    電子發(fā)燒友網(wǎng)報道(文/李彎彎)在深度學習中,經(jīng)常聽到一個詞“模型訓練”,但是模型是什么?又是怎么訓練的?在人工智能中,面對大量的數(shù)據(jù),要在雜
    的頭像 發(fā)表于 10-23 00:20 ?1w次閱讀

    連接器即可解決所有問題,或者是?

    連接器即可解決所有問題,或者是?
    發(fā)表于 11-02 08:16 ?0次下載
    <b class='flag-5'>一</b><b class='flag-5'>個</b>連接器<b class='flag-5'>即可解決</b>所有問題,或者是?

    神經(jīng)網(wǎng)絡如何用監(jiān)督算法訓練

    神經(jīng)網(wǎng)絡作為深度學習的重要組成部分,其訓練方式多樣,其中監(jiān)督學習是種重要的訓練策略。
    的頭像 發(fā)表于 07-09 18:06 ?2412次閱讀

    大語言模型的預訓練

    能力,逐漸成為NLP領域的研究熱點。大語言模型的預訓練是這技術發(fā)展的關鍵步驟,它通過在海量標簽數(shù)據(jù)上進行
    的頭像 發(fā)表于 07-11 10:11 ?1834次閱讀
    商丘市| 边坝县| 宝兴县| 青神县| 余干县| 湖南省| 丰都县| 乌鲁木齐市| 高淳县| 潞西市| 洪洞县| 泰宁县| 南投县| 新邵县| 休宁县| 富蕴县| 呼图壁县| 梓潼县| 郎溪县| 麻阳| 墨脱县| 东至县| 晴隆县| 三都| 胶南市| 土默特右旗| 沂源县| 廉江市| 咸阳市| 平顺县| 东宁县| 枣庄市| 当涂县| 庆城县| 石阡县| 永川市| 长兴县| 璧山县| 和林格尔县| 灵台县| 通榆县|