日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀(guān)看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

SDNet成為目前世界上唯一在CoQA領(lǐng)域內(nèi)數(shù)據(jù)集上F1得分超過(guò)80%的模型,達(dá)到80.7%

DPVg_AI_era ? 來(lái)源:lq ? 2018-12-18 09:07 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

微軟語(yǔ)音與對(duì)話(huà)研究團(tuán)隊(duì)開(kāi)發(fā)的SDNet,在面向公共數(shù)據(jù)集CoQA的問(wèn)答對(duì)話(huà)系統(tǒng)模型性能挑戰(zhàn)賽中刷新最佳性能紀(jì)錄,成功奪冠!SDNet成為目前世界上唯一在CoQA領(lǐng)域內(nèi)數(shù)據(jù)集上F1得分超過(guò)80%的模型,達(dá)到80.7%。

近日,微軟語(yǔ)音與對(duì)話(huà)研究團(tuán)隊(duì)在斯坦福機(jī)器對(duì)話(huà)式問(wèn)答數(shù)據(jù)挑戰(zhàn)賽CoQA Challenge中奪冠,并且單模型和集成模型分別位列第二和第一,讓機(jī)器閱讀理解向著人類(lèi)水平又靠近了一步。

這也是繼語(yǔ)音識(shí)別、機(jī)器翻譯等成果之后,微軟取得的又一項(xiàng)好成績(jī)。

微軟研究人員將自注意力模型和外部注意力相結(jié)合,并且用新的方法整合了谷歌BERT語(yǔ)境模型,構(gòu)建了一個(gè)基于注意力的會(huì)話(huà)式問(wèn)答深度神經(jīng)網(wǎng)絡(luò)SDNet,更有效地理解文本和對(duì)話(huà)歷史。

一直以來(lái),微軟研究人員都有在機(jī)器閱讀理解中使用自注意力模型加外部注意力的想法,終于在這項(xiàng)工作中首次得以實(shí)現(xiàn)。

CoQA競(jìng)賽:更接近人類(lèi)對(duì)話(huà)的機(jī)器問(wèn)答挑戰(zhàn)賽

CoQA是面向建立對(duì)話(huà)式問(wèn)答系統(tǒng)的大型數(shù)據(jù)集,CoQA挑戰(zhàn)的目標(biāo)是衡量機(jī)器對(duì)文本的理解能力,以及機(jī)器面向?qū)υ?huà)中出現(xiàn)的彼此相關(guān)的問(wèn)題的回答能力的高低(CoQA的發(fā)音是“扣卡”)。

CoQA包含12.7萬(wàn)個(gè)問(wèn)題和答案,這些內(nèi)容是從8000多個(gè)對(duì)話(huà)中收集而來(lái)的。每組對(duì)話(huà)都是通過(guò)眾籌方式,以真人問(wèn)答的形式在聊天中獲取的。

CoQA的獨(dú)特之處在于:

數(shù)據(jù)集中的問(wèn)題是對(duì)話(huà)式的

答案可以是自由格式的文本

每個(gè)答案還附有對(duì)話(huà)段落中相應(yīng)答案的理由

這些問(wèn)題收集自七個(gè)不同的領(lǐng)域

CoQA 數(shù)據(jù)集旨在體現(xiàn)人類(lèi)對(duì)話(huà)中的特質(zhì),追求答案的自然性和問(wèn)答系統(tǒng)的魯棒性。在CoQA 中,答案沒(méi)有固定的格式,在問(wèn)題中頻繁出現(xiàn)指代詞,而且有專(zhuān)門(mén)用于跨領(lǐng)域測(cè)試的數(shù)據(jù)集。

CoQA具備了許多現(xiàn)有閱讀理解數(shù)據(jù)集中不存在的挑戰(zhàn),比如共用參照和實(shí)用推理等。因此,CoQA Challenge 也更能反映人類(lèi)真實(shí)對(duì)話(huà)的場(chǎng)景。

CoQA 與 SQuAD 兩個(gè)數(shù)據(jù)集對(duì)比:SQuAD 中約一半都是what型,CoAQ種類(lèi)更多;SQuAD中沒(méi)有共識(shí)推斷,CoQA幾乎每組對(duì)話(huà)都需要進(jìn)行上下文理解推斷;SQuAD中所有答案均可從原文本中提取,CoQA中這一比例僅為66.8%。

此前,斯坦福大學(xué)的自然語(yǔ)言處理小組已經(jīng)先后發(fā)表了 SQuAD 和 SQuAD2.0 數(shù)據(jù)集。該數(shù)據(jù)集包含一系列文本和基于文本的問(wèn)題、答案。針對(duì)該數(shù)據(jù)集提出的任務(wù)要求系統(tǒng)閱讀文本后判斷該問(wèn)題是否可以從文本中得出答案,如果可以回答則從文本中截取某一片段做出回答。

目前,微軟語(yǔ)音與對(duì)話(huà)研究已經(jīng)把他們?cè)贑oQA Challenge上奪冠成果的預(yù)印本論文發(fā)在了Arxiv上。下面結(jié)合論文內(nèi)容,對(duì)該團(tuán)隊(duì)的實(shí)驗(yàn)方法和研究成果做簡(jiǎn)單介紹。

結(jié)合自注意力模型和外部注意力,更有效理解文本和對(duì)話(huà)歷史

在本文中,我們提出了SDNet,一種基于語(yǔ)境注意力的會(huì)話(huà)問(wèn)答的深度神經(jīng)網(wǎng)絡(luò)。我們的網(wǎng)絡(luò)源于機(jī)器閱讀理解模型,但具備幾個(gè)獨(dú)特的特征,來(lái)解決面向?qū)υ?huà)的情境理解問(wèn)題。

首先,我們?cè)趯?duì)話(huà)和問(wèn)題中同時(shí)應(yīng)用注意力和自我注意機(jī)制,更有效地理解文章和對(duì)話(huà)的歷史。其次,SDNet利用了NLP領(lǐng)域的最新突破性成果:比如BERT上下文嵌入Devlin等。

我們采用了BERT層輸出的加權(quán)和,以及鎖定的BERT參數(shù)。我們?cè)谇皫纵唵?wèn)題和答案之前加上了當(dāng)前問(wèn)題,以納入背景信息。結(jié)果表明,每個(gè)部分都實(shí)現(xiàn)了顯著提高了預(yù)測(cè)準(zhǔn)確性的作用。

我們?cè)贑oQA數(shù)據(jù)集上對(duì)SDNet進(jìn)行了評(píng)估,結(jié)果在全局F1得分方面,比之前最先進(jìn)模型結(jié)果表現(xiàn)提升了1.6%(從75.0%至76.6%)。整體模型進(jìn)一步將F1得分提升至79.3%。此外,SDNet是有史以來(lái)第一個(gè)在CoQA的領(lǐng)域內(nèi)數(shù)據(jù)集上表現(xiàn)超過(guò)80%的模型。

實(shí)驗(yàn)方法與衡量指標(biāo)

我們?cè)贑oQA 上評(píng)估了我們的模型。在CoQA中,許多問(wèn)題的答案需要理解之前的問(wèn)題和答案,這對(duì)傳統(tǒng)的機(jī)器閱讀模型提出了挑戰(zhàn)。表1總結(jié)了CoQA中的領(lǐng)域分布。如圖所示,CoQA包含來(lái)自多個(gè)領(lǐng)域的段落,并且每個(gè)段落的平均問(wèn)答超過(guò)15個(gè)。許多問(wèn)題需要上下文的理解才能生成正確答案。

對(duì)于每個(gè)域內(nèi)數(shù)據(jù)集,開(kāi)發(fā)集中有100個(gè)段落,測(cè)試集中有100個(gè)段落。其余的域內(nèi)數(shù)據(jù)集位于訓(xùn)練集中。測(cè)試集還包括所有域外段落。

基線(xiàn)模型和指標(biāo)

我們將SDNet與以下基線(xiàn)模型進(jìn)行了比較:PGNet(具有復(fù)制機(jī)制的Seq2Seq)、DrQA、DrQA +PGNet、BiDAF ++ Yatskar(2018)和FlowQA Huang等。 (2018)。與官方排行榜一致,我們使用F1作為評(píng)估指標(biāo),F(xiàn)1是在預(yù)測(cè)答案和基本事實(shí)之間的單詞級(jí)別的精度上的調(diào)和平均。

結(jié)果

上表所示為SDNet和基線(xiàn)模型的性能對(duì)比。如圖所示,使用SDNet的實(shí)現(xiàn)結(jié)果明顯好于基線(xiàn)模型。具體而言,與先前的CoQA FlowQA模型相比,單個(gè)SDNet模型將整體F1得分提高了1.6%。 Ensemble SDNet模型進(jìn)一步將整體F1得分提升了2.7%,SDNet是有史以來(lái)第一個(gè)在CoQA的領(lǐng)域內(nèi)數(shù)據(jù)集上表現(xiàn)超過(guò)80%的模型(80.7%)。

上圖所示為開(kāi)發(fā)集隨epoch變化的F1得分情況。SDNet在第二個(gè)epoch之后的表現(xiàn)超越了兩個(gè)基線(xiàn)模型,并且僅在8個(gè)epoch后就實(shí)現(xiàn)了最優(yōu)秀的表現(xiàn)。

消融研究 (Ablation)

我們對(duì)SDNet模型進(jìn)行了消融研究,結(jié)果在上表中顯示。結(jié)果表明,正確使用上下文嵌入BERT是至關(guān)重要的。雖然移除BERT會(huì)使開(kāi)發(fā)集的F1得分降低6.4%,但在未鎖定內(nèi)部權(quán)重的情況下加入BERT會(huì)使得F1得分降低13%。

上下文歷史

在SDNet中,我們將當(dāng)前問(wèn)題與前N輪問(wèn)題和真實(shí)答案前置一致,來(lái)利用對(duì)話(huà)歷史記錄。我們?cè)囼?yàn)了不同的N值的效果,并在表4中列出了結(jié)果。試驗(yàn)顯示,我們的模型的性能對(duì)N的設(shè)置不是非常敏感。最后,我們的最終模型設(shè)置N = 2。

未來(lái):讓模型更接近于真人對(duì)話(huà)場(chǎng)景

我們提出了一種新的基于情境注意的深度神經(jīng)網(wǎng)絡(luò)SDNet,以解決對(duì)話(huà)問(wèn)題的回答任務(wù)。通過(guò)在通過(guò)和對(duì)話(huà)歷史上利用注意力和自我關(guān)注,該模型能夠理解對(duì)話(huà)流并將其與消化段落內(nèi)容融合在一起。

此外,我們?nèi)谌肓俗匀徽Z(yǔ)言處理領(lǐng)域 BERT的最新突破,并以創(chuàng)新的方式利用它。與以前的方法相比,SDNet取得了卓越的成果。在公共數(shù)據(jù)集CoQA上,SDNet在整體F1指標(biāo)得分上的表現(xiàn)比之前最先進(jìn)的模型高1.6%。

縱觀(guān)CoQA Challenge排行榜,從今年8月21日到11月29日,短短3個(gè)月時(shí)間里,機(jī)器問(wèn)答對(duì)話(huà)的總體成績(jī)就從52.6提升到79.3,距離人類(lèi)水平88.8似乎指日可待。

“最后一公里往往是最難的,很難預(yù)測(cè)機(jī)器能否達(dá)到人類(lèi)水平?!闭撐淖髡咧?、微軟全球技術(shù)Fellow、負(fù)責(zé)微軟語(yǔ)音、自然語(yǔ)言和機(jī)器翻譯工作的黃學(xué)東博士告訴新智元。

未來(lái),他們打算將SDNet模型應(yīng)用于具有大型語(yǔ)料庫(kù)或知識(shí)庫(kù)的開(kāi)放域中,解決多循環(huán)問(wèn)答問(wèn)題,這類(lèi)問(wèn)題中,目標(biāo)段落可能是無(wú)法直接獲得的。這和人類(lèi)世界中的問(wèn)答的實(shí)際情況可能更為接近。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀(guān)點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 微軟
    +關(guān)注

    關(guān)注

    4

    文章

    6759

    瀏覽量

    108125
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4844

    瀏覽量

    108289
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1240

    瀏覽量

    26280

原文標(biāo)題:微軟創(chuàng)CoQA挑戰(zhàn)新紀(jì)錄,最接近人類(lèi)水平的NLP系統(tǒng)誕生

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    AI大模型微調(diào)企業(yè)項(xiàng)目實(shí)戰(zhàn)課

    的戰(zhàn)略問(wèn)題浮出水面:過(guò)度依賴(lài)公有云的通用大模型,意味著企業(yè)的核心數(shù)據(jù)、商業(yè)機(jī)密乃至業(yè)務(wù)邏輯,都時(shí)刻暴露在潛在的隱私泄露和“數(shù)據(jù)斷供”風(fēng)險(xiǎn)之中。在這樣的時(shí)代背景下,“自主可控”不再是
    發(fā)表于 04-16 18:48

    【瑞薩AI挑戰(zhàn)賽】手寫(xiě)數(shù)字識(shí)別模型RA8P1 Titan Board的部署

    手寫(xiě)數(shù)字識(shí)別模型RA8P1 Titan Board的部署 手寫(xiě)數(shù)字識(shí)別是計(jì)算機(jī)視覺(jué)領(lǐng)域的經(jīng)典入門(mén)任務(wù),而瑞薩RA8P
    發(fā)表于 03-15 20:42

    微軟攜手梅賽德斯AMG馬石油F1車(chē)隊(duì)構(gòu)建數(shù)字化智慧引擎

    F1賽車(chē)的勝負(fù),往往藏在十分之秒中。微軟與梅賽德斯-AMG馬石油F1車(chē)隊(duì)達(dá)成深度合作伙伴關(guān)系,從工廠(chǎng)的精密模擬,到賽道的實(shí)時(shí)決策,微軟以Microsoft Azure(國(guó)際版)及GitHub開(kāi)發(fā)工具等前沿技術(shù)構(gòu)建數(shù)字化智慧引擎
    的頭像 發(fā)表于 03-12 11:29 ?580次閱讀

    泰凌微:布局端側(cè)AI,產(chǎn)品支持谷歌LiteRT、TVM開(kāi)源模型

    。 ? 公司發(fā)布的基于TL721X系列芯片的TL-EdgeAI平臺(tái),支持谷歌LiteRT、TVM等開(kāi)源模型,是目前世界上功耗最低的智能物聯(lián)網(wǎng)連接協(xié)議平臺(tái)。其芯片已在谷歌(Google)的Pixel Bud Pro 2智能耳機(jī)方案中被采用。公司將繼續(xù)深化與谷歌的合作關(guān)系。
    的頭像 發(fā)表于 12-15 08:21 ?1w次閱讀

    阿斯頓馬丁沙特阿美F1車(chē)隊(duì)進(jìn)站背后的Arm技術(shù)支持

    世界級(jí)方程式(Formula One,以下簡(jiǎn)稱(chēng) F1)錦標(biāo)賽中,兩秒鐘足以決定比賽勝負(fù)。次完美的進(jìn)站需要極其精準(zhǔn)的協(xié)同配合,從更換車(chē)輪到賽車(chē)駛出,每個(gè)動(dòng)作都堪稱(chēng)瞬間完成。但如此高
    的頭像 發(fā)表于 12-04 16:50 ?1189次閱讀

    SimData:基于aiSim的高保真虛擬數(shù)據(jù)生成方案

    01前言自動(dòng)駕駛感知系統(tǒng)的研發(fā)過(guò)程中,模型的性能高度依賴(lài)于大規(guī)模、高質(zhì)量的感知數(shù)據(jù)目前業(yè)界常用的數(shù)
    的頭像 發(fā)表于 11-07 17:35 ?5541次閱讀
    SimData:基于aiSim的高保真虛擬<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>集</b>生成方案

    Arm平臺(tái)助力阿斯頓馬丁沙特阿美F1車(chē)隊(duì)風(fēng)洞中實(shí)現(xiàn)邊緣智能

    世界級(jí)方程式(Formula One,以下簡(jiǎn)稱(chēng) F1)錦標(biāo)賽中,登上領(lǐng)獎(jiǎng)臺(tái)與屈居人后之間的差距,往往僅源于些許細(xì)節(jié)的差別,比如小翼的角度優(yōu)化,或是擴(kuò)散器邊緣的細(xì)節(jié)打磨。但從概念設(shè)
    的頭像 發(fā)表于 11-05 11:17 ?1043次閱讀

    提高RISC-VDrystone測(cè)試中得分的方法

    Drystone 是種常用的計(jì)算機(jī)性能基準(zhǔn)測(cè)試,主要用來(lái)測(cè)量整數(shù)(非浮點(diǎn))計(jì)算性能。 影響 RISC-V Drystone 測(cè)試中得分的因素主要有以下幾個(gè): 處理器核心設(shè)計(jì):處理器核心
    發(fā)表于 10-21 13:58

    世界上最小的傳感器有多小 頭發(fā)絲的十萬(wàn)分之到百萬(wàn)分之

    世界上最小的傳感器有多?。?世界上最小的傳感器可以達(dá)到人類(lèi)頭發(fā)絲的十萬(wàn)分之到百萬(wàn)分之。據(jù)央視報(bào)道,
    的頭像 發(fā)表于 09-22 11:17 ?1552次閱讀

    3Dfindit發(fā)布世嘉智尼的上萬(wàn)個(gè)3D CAD模型,優(yōu)化用戶(hù)設(shè)計(jì)流程

    對(duì)于世嘉智尼公司(Sugatsune)來(lái)說(shuō),這個(gè)決定是明智的:通過(guò)3Dfindit,CADENAS為其提供了個(gè)全球性的平臺(tái),以及與國(guó)際客戶(hù)溝通的可靠橋梁。每個(gè)數(shù)據(jù)都有100多種原始和中性格式,下載
    發(fā)表于 08-27 15:44

    模型時(shí)代,如何推進(jìn)高質(zhì)量數(shù)據(jù)建設(shè)?

    高質(zhì)量數(shù)據(jù),即具備高價(jià)值、高密度、標(biāo)準(zhǔn)化特征的數(shù)據(jù)集合。 AI領(lǐng)域,高質(zhì)量數(shù)據(jù)
    的頭像 發(fā)表于 08-21 13:58 ?1050次閱讀

    上海貝嶺650V80A IGBT光伏逆變器的應(yīng)用

    ,其中最主要的發(fā)電應(yīng)用有光熱發(fā)電、光伏發(fā)電等;太陽(yáng)能的多種應(yīng)用中,光伏發(fā)電是目前世界上最為普遍的種方式。
    的頭像 發(fā)表于 08-11 15:26 ?6016次閱讀
    上海貝嶺650V<b class='flag-5'>80</b>A IGBT<b class='flag-5'>在</b>光伏逆變器<b class='flag-5'>上</b>的應(yīng)用

    k230使用yolov5檢測(cè)圖像卡死,怎么解決?

    0.99以上 模型轉(zhuǎn)換指令 再將該模型放到k230設(shè)備使用yolo大作戰(zhàn)中yolov5檢測(cè)示例,檢測(cè)就會(huì)卡死,打印出的檢測(cè)結(jié)果會(huì)超過(guò)1
    發(fā)表于 08-11 07:41

    F1宣布與聯(lián)想集團(tuán)深化合作

    包括F1在內(nèi)的體育賽事不僅是速度、體能的較量,更是尖端技術(shù)的極限測(cè)試場(chǎng)。置身于F1爭(zhēng)分奪秒的嚴(yán)苛環(huán)境,其背后的設(shè)備能力與澎湃算力也迎來(lái)了另場(chǎng)“競(jìng)速”,而我們,實(shí)戰(zhàn)中經(jīng)受住了這場(chǎng)考驗(yàn)
    的頭像 發(fā)表于 07-07 11:12 ?1262次閱讀

    F1?與亞馬遜云科技聯(lián)合推出全新在線(xiàn)體驗(yàn) 車(chē)迷可親手打造專(zhuān)屬賽道

    北京 ——2025 年 5 月 22 日 世界級(jí)方程式錦標(biāo)賽?(以下簡(jiǎn)稱(chēng):F1?)在其成立75周年之際,與亞馬遜云科技聯(lián)合推出了全新數(shù)字互動(dòng)體驗(yàn),使其車(chē)迷可自主創(chuàng)建、定制并分享其專(zhuān)屬F1
    發(fā)表于 05-22 11:40 ?1571次閱讀
    巴彦淖尔市| 舒城县| 黔西县| 长垣县| 松原市| 莲花县| 普陀区| 台东市| 玛纳斯县| 隆德县| 吉林省| 定日县| 和顺县| 临朐县| 西安市| 封丘县| 禹州市| 田东县| 巴彦县| 洪泽县| 右玉县| 哈尔滨市| 闻喜县| 上饶县| 瑞昌市| 镇远县| 湖北省| 正安县| 荥阳市| 沛县| 陆良县| 巴彦淖尔市| 华安县| 霞浦县| 宝坻区| 博爱县| 佳木斯市| 济宁市| 闸北区| 朝阳县| 延寿县|