日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí):小樣本學(xué)習(xí)下的多標(biāo)簽分類問(wèn)題初探

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:深度學(xué)習(xí)自然語(yǔ)言處理 ? 作者:侯宇泰 ? 2021-01-07 14:51 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

摘要

小樣本學(xué)習(xí)(Few-shot Learning)近年來(lái)吸引了大量的關(guān)注,但是針對(duì)多標(biāo)簽問(wèn)題(Multi-label)的研究還相對(duì)較少。在本文中,我們以用戶意圖檢測(cè)任務(wù)為切入口,研究了的小樣本多標(biāo)簽分類問(wèn)題。對(duì)于多標(biāo)簽分類的SOTA方法往往會(huì)先估計(jì)標(biāo)簽-樣本相關(guān)性得分,然后使用閾值來(lái)選擇多個(gè)關(guān)聯(lián)的標(biāo)簽。

為了在只有幾個(gè)樣本的Few-shot場(chǎng)景下確定合適的閾值,我們首先在數(shù)據(jù)豐富的多個(gè)領(lǐng)域上學(xué)習(xí)通用閾值設(shè)置經(jīng)驗(yàn),然后采用一種基于非參數(shù)學(xué)習(xí)的校準(zhǔn)(Calibration)將閾值適配到Few-shot的領(lǐng)域上。為了更好地計(jì)算標(biāo)簽-樣本相關(guān)性得分,我們將標(biāo)簽名稱嵌入作為表示(Embedding)空間中的錨點(diǎn),以優(yōu)化不同類別的表示,使它們?cè)诒硎究臻g中更好的彼此分離。在兩個(gè)數(shù)據(jù)集上進(jìn)行的實(shí)驗(yàn)表明,所提出的模型在1-shot和5-shot實(shí)驗(yàn)均明顯優(yōu)于最強(qiáng)的基線模型(baseline)。

1.Introduction

1.1 背景一:用戶意圖識(shí)別

用戶意圖識(shí)別是任務(wù)型對(duì)話理解的關(guān)鍵組成部分,它的任務(wù)是識(shí)別用戶輸入的話語(yǔ)屬于哪一個(gè)領(lǐng)域的哪一種意圖 [1]。

當(dāng)下的用戶意圖識(shí)別系統(tǒng)面臨著兩方面的關(guān)鍵挑戰(zhàn):

頻繁變化的領(lǐng)域和任務(wù)需求經(jīng)常導(dǎo)致數(shù)據(jù)不足

用戶在一輪對(duì)話中經(jīng)常會(huì)同時(shí)包含多個(gè)意圖 [2,3]

a1b2d2a6-5036-11eb-8b86-12bb97331649.png

圖1. 示例:意圖理解同時(shí)面領(lǐng)域繁多帶來(lái)數(shù)據(jù)不足和多標(biāo)簽的挑戰(zhàn)

1.2 背景二:多標(biāo)簽分類 & 小樣本學(xué)習(xí)

小樣本學(xué)習(xí)(Few-shot Learning)旨在像人一樣利用少量樣本完成學(xué)習(xí),近年來(lái)吸引了大量的關(guān)注 [4,5]。

但是針對(duì)多標(biāo)簽問(wèn)題的小樣本學(xué)習(xí)研究還相對(duì)較少。

1.3 本文研究?jī)?nèi)容

本文以用戶意圖檢測(cè)任務(wù)為切入口,研究了的小樣本多標(biāo)簽分類問(wèn)題,并提出了Meta Calibrated Threshold (MCT) 和 Anchored Label Reps (ALR) 從兩個(gè)角度系統(tǒng)地為小樣本多標(biāo)簽學(xué)習(xí)提供解決方案。

2. Problem Definition

2.1 多標(biāo)簽意圖識(shí)別

如圖2所示,目前State-of-the-art多標(biāo)簽意圖識(shí)別系統(tǒng)往往使用基于閾值(Threshold)的方法 [3,6,7],其工作流程可以大致分為兩步:

計(jì)算樣本-標(biāo)簽類別相關(guān)性分?jǐn)?shù)

然后用預(yù)設(shè)或從數(shù)據(jù)學(xué)習(xí)的閾值選擇標(biāo)簽

2.2小樣本多標(biāo)簽用戶意圖識(shí)別

觀察一個(gè)給定的有少量樣例的支持集(Support Set)

預(yù)測(cè)未見(jiàn)樣本(Query Instance)的意圖標(biāo)簽

a1e07080-5036-11eb-8b86-12bb97331649.png

圖2. 小樣本多標(biāo)簽意圖識(shí)別框架概覽

3. 方法

a20ccd1a-5036-11eb-8b86-12bb97331649.png

圖3. 我們提出的小樣本多標(biāo)簽識(shí)別模型

3.1 閾值計(jì)算

(1)挑戰(zhàn):

多標(biāo)簽分類任務(wù)在小樣本情景下主要面臨如下挑戰(zhàn):

a. 因?yàn)橐獜臄?shù)據(jù)中學(xué)習(xí)閾值,現(xiàn)有方法只適用于數(shù)據(jù)充足情況。小樣本情景下,模型很難從幾個(gè)樣本中歸納出閾值;

b. 此外,不同領(lǐng)域間閾值無(wú)法直接遷移,難以利用先驗(yàn)知識(shí)。

(2)解決方案:

為了解決上述挑戰(zhàn),我們提出Meta Calibrated Threshold (MCT),具體可以分為兩步(如圖3左邊所示):

a. 首先在富數(shù)據(jù)領(lǐng)域,學(xué)習(xí)通用的thresholding經(jīng)驗(yàn)

a28d7ee2-5036-11eb-8b86-12bb97331649.png

b. 然后在Few-shot領(lǐng)域上,用Kernel Regression 來(lái)用領(lǐng)域內(nèi)的知識(shí)矯正閾值 (Calibration)

a2c75306-5036-11eb-8b86-12bb97331649.png

這樣,我們?cè)诠烙?jì)閾值時(shí),既能遷移先驗(yàn)知識(shí),又能利用領(lǐng)域特有的知識(shí):

a2e9003c-5036-11eb-8b86-12bb97331649.png

3.2 樣本-標(biāo)簽類別相關(guān)度計(jì)算

(1)挑戰(zhàn):

如圖4所示,經(jīng)典的小樣本方法利用相似度計(jì)算樣本-標(biāo)簽類別相關(guān)性,這在多標(biāo)簽場(chǎng)景下會(huì)失效。

a315937c-5036-11eb-8b86-12bb97331649.png

圖4. 經(jīng)典的基于相似度的小樣本學(xué)習(xí)模型:原型網(wǎng)絡(luò)

如圖3所示,例子中,time和location兩個(gè)標(biāo)簽因?yàn)閟upport example相同,導(dǎo)致這兩個(gè)類別由樣本得到的表示相同不可分,進(jìn)而無(wú)法進(jìn)行基于相似度的樣本-類別標(biāo)簽相關(guān)度計(jì)算。

(2)解決方案:

為了解決上述挑戰(zhàn),我們提出了Anchored Label Reps (ALR)。具體的,如圖三右邊所示,我們

a. 利用標(biāo)簽名作為錨點(diǎn)來(lái)優(yōu)化Embedding空間學(xué)習(xí)

b. 利用標(biāo)簽名語(yǔ)義來(lái)分開(kāi)多標(biāo)簽下的類別表示

4. 實(shí)驗(yàn)

4.1 主實(shí)驗(yàn)結(jié)果

實(shí)驗(yàn)結(jié)果顯示,我們的方法在兩個(gè)數(shù)據(jù)集上顯著的優(yōu)于最強(qiáng)baseline。同時(shí)可以看到,我們的方法很多時(shí)候只用小的預(yù)訓(xùn)練模型就超過(guò)了所有使用大預(yù)訓(xùn)練模型的baseline,這在計(jì)算資源受限的情景下格外有意義。

a33248fa-5036-11eb-8b86-12bb97331649.png

表1. 主實(shí)驗(yàn)結(jié)果。+E 代表使用 Electra-small (14M);+B為 BERT-base (110M)

4.2 實(shí)驗(yàn)分析

圖5的消融實(shí)驗(yàn)顯示所提出的ALR和MCT都對(duì)最終的效果產(chǎn)生了較大的貢獻(xiàn)。

a3a1d42c-5036-11eb-8b86-12bb97331649.png

圖5. 消融實(shí)驗(yàn)

在圖6中,我們對(duì)Meta Calibrated Threshold中各步驟對(duì)最終標(biāo)簽個(gè)數(shù)準(zhǔn)確率的影響進(jìn)行了探索。結(jié)果顯示Meta學(xué)習(xí)和基于Kernel Regression的Calibration過(guò)程都會(huì)極大地提升最終模型的準(zhǔn)確率。

a3b775a2-5036-11eb-8b86-12bb97331649.png

圖6. 標(biāo)簽個(gè)數(shù)準(zhǔn)確率結(jié)果

參考文獻(xiàn)

[1] Young, S.; Gasiˇ c, M.; Thomson, B.; and Williams, J. D. ′ 2013. Pomdp-based statistical spoken dialog systems: A review. In Proc. of the IEEE, volume 101, 1160–1179. IEEE.

[2] Xu, P.; and Sarikaya, R. 2013. Exploiting shared information for multi-intent natural language sentence classification. In Proc. of Interspeech, 3785–3789.

[3]Qin, L.; Xu, X.; Che, W.; and Liu, T. 2020. TD-GIN: Token-level Dynamic Graph-Interactive Network for Joint Multiple Intent Detection and Slot Filling. arXiv preprint arXiv:2004.10087 .

[4] Vinyals, O.; Blundell, C.; Lillicrap, T.; Kavukcuoglu, K.; and Wierstra, D. 2016. Matching networks for one shot learning. In Proc. of NeurIPS, 3630–3638.

[5] Bao, Y.; Wu, M.; Chang, S.; and Barzilay, R. 2020. Few-shot Text Classification with Distributional Signatures. In Proc. of the ICLR.

[6] Xu, G.; Lee, H.; Koo, M.-W.; and Seo, J. 2017. Convolutional neural network using a threshold predictor for multilabel speech act classification. In IEEE international conference on big data and smart computing (BigComp), 126–130.

[7]Gangadharaiah, R.; and Narayanaswamy, B. 2019. Joint Multiple Intent Detection and Slot Labeling for GoalOriented Dialog. In Proc. of the ACL, 564–569.

責(zé)任編輯:xj

原文標(biāo)題:【賽爾AAAI2021】小樣本學(xué)習(xí)下的多標(biāo)簽分類問(wèn)題初探

文章出處:【微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    41315

    瀏覽量

    302691
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    67

    文章

    8567

    瀏覽量

    137255
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5610

    瀏覽量

    124652

原文標(biāo)題:【賽爾AAAI2021】小樣本學(xué)習(xí)下的多標(biāo)簽分類問(wèn)題初探

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    深度學(xué)習(xí)為什么還是無(wú)法處理邊緣場(chǎng)景?

    [首發(fā)于智駕最前沿微信公眾號(hào)]雖然自動(dòng)駕駛車(chē)輛已經(jīng)完成了數(shù)百萬(wàn)公里的行駛測(cè)試,深度學(xué)習(xí)也已被普遍應(yīng)用,但依然會(huì)在一些看似簡(jiǎn)單的場(chǎng)景中犯下低級(jí)錯(cuò)誤。比如在遇到一些從未見(jiàn)到過(guò)的邊緣場(chǎng)景時(shí),系統(tǒng)可能會(huì)
    的頭像 發(fā)表于 05-04 10:16 ?65次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>為什么還是無(wú)法處理邊緣場(chǎng)景?

    AI算法核心知識(shí)清單(深度實(shí)戰(zhàn)版3)

    四、深度學(xué)習(xí)核心知識(shí)(進(jìn)階必備)1.模型訓(xùn)練關(guān)鍵技術(shù)(深度學(xué)習(xí)實(shí)戰(zhàn)核心)損失函數(shù)(模型優(yōu)化目標(biāo))分類任務(wù)損失函數(shù)(續(xù)):稀疏多
    的頭像 發(fā)表于 04-29 17:18 ?637次閱讀
    AI算法核心知識(shí)清單(<b class='flag-5'>深度</b>實(shí)戰(zhàn)版3)

    人工智能-Python深度學(xué)習(xí)進(jìn)階與應(yīng)用技術(shù):工程師高培解讀

    深度學(xué)習(xí)進(jìn)階的技術(shù)路線圖,來(lái)分析解讀一從基礎(chǔ)原理到前沿應(yīng)用的多個(gè)關(guān)鍵節(jié)點(diǎn)。一、從基礎(chǔ)到進(jìn)階:構(gòu)建深度學(xué)習(xí)的完整認(rèn)知
    的頭像 發(fā)表于 04-21 11:01 ?381次閱讀
    人工智能-Python<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>進(jìn)階與應(yīng)用技術(shù):工程師高培解讀

    機(jī)器學(xué)習(xí)特征工程:分類變量的數(shù)值化處理方法

    編碼是機(jī)器學(xué)習(xí)流程里最容易被低估的環(huán)節(jié)之一,模型沒(méi)辦法直接處理文本形式的分類數(shù)據(jù),尺寸(Small/Medium/Large)、顏色(Red/Blue/Green)、城市、支付方式等都是典型的分類
    的頭像 發(fā)表于 02-10 15:58 ?473次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>特征工程:<b class='flag-5'>分類</b>變量的數(shù)值化處理方法

    機(jī)器學(xué)習(xí)深度學(xué)習(xí)中需避免的 7 個(gè)常見(jiàn)錯(cuò)誤與局限性

    無(wú)論你是剛?cè)腴T(mén)還是已經(jīng)從事人工智能模型相關(guān)工作一段時(shí)間,機(jī)器學(xué)習(xí)深度學(xué)習(xí)中都存在一些我們需要時(shí)刻關(guān)注并銘記的常見(jiàn)錯(cuò)誤。如果對(duì)這些錯(cuò)誤置之不理,日后可能會(huì)引發(fā)諸多麻煩!只要我們密切關(guān)注數(shù)據(jù)、模型架構(gòu)
    的頭像 發(fā)表于 01-07 15:37 ?365次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個(gè)常見(jiàn)錯(cuò)誤與局限性

    【團(tuán)購(gòu)】獨(dú)家全套珍藏!龍哥LabVIEW視覺(jué)深度學(xué)習(xí)實(shí)戰(zhàn)課(11大系列課程,共5000+分鐘)

    、GPU加速訓(xùn)練(可選) 雙軌教學(xué):傳統(tǒng)視覺(jué)算法+深度學(xué)習(xí)方案全覆蓋 輕量化部署:8.6M超輕OCR模型,適合嵌入式設(shè)備集成 無(wú)監(jiān)督學(xué)習(xí):無(wú)需缺陷樣本即可訓(xùn)練高精度檢測(cè)模型 持續(xù)更新:
    發(fā)表于 12-04 09:28

    【團(tuán)購(gòu)】獨(dú)家全套珍藏!龍哥LabVIEW視覺(jué)深度學(xué)習(xí)實(shí)戰(zhàn)課程(11大系列課程,共5000+分鐘)

    、GPU加速訓(xùn)練(可選) 雙軌教學(xué):傳統(tǒng)視覺(jué)算法+深度學(xué)習(xí)方案全覆蓋 輕量化部署:8.6M超輕OCR模型,適合嵌入式設(shè)備集成 無(wú)監(jiān)督學(xué)習(xí):無(wú)需缺陷樣本即可訓(xùn)練高精度檢測(cè)模型 持續(xù)更新:
    發(fā)表于 12-03 13:50

    如何深度學(xué)習(xí)機(jī)器視覺(jué)的應(yīng)用場(chǎng)景

    深度學(xué)習(xí)視覺(jué)應(yīng)用場(chǎng)景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測(cè):處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)化缺陷模式 非標(biāo)產(chǎn)品分類:對(duì)形狀、顏色、紋理多變的產(chǎn)品進(jìn)行智能分類 外觀質(zhì)量評(píng)估:基于
    的頭像 發(fā)表于 11-27 10:19 ?351次閱讀

    超高頻(UHF)標(biāo)簽RFID讀取器(面向項(xiàng)目落地的深度指南)

    超高頻(UHF)標(biāo)簽RFID讀取器:一次能讀多張,怎么做到?怎么用好?(面向工程與落地的深度指南)這篇文章把“原理、設(shè)備要點(diǎn)、部署細(xì)節(jié)”都說(shuō)清楚了,既有技術(shù)維度,也有落地建議。
    的頭像 發(fā)表于 11-01 11:37 ?931次閱讀
    超高頻(UHF)<b class='flag-5'>多</b><b class='flag-5'>標(biāo)簽</b>RFID讀取器(面向項(xiàng)目落地的<b class='flag-5'>深度</b>指南)

    發(fā)布元服務(wù)配置應(yīng)用分類標(biāo)簽和資質(zhì)信息(僅分發(fā)手表設(shè)備)

    配置應(yīng)用分類標(biāo)簽 登錄AppGallery Connect,點(diǎn)擊“APP與元服務(wù)”。 選擇要發(fā)布的元服務(wù)。 左側(cè)導(dǎo)航選擇“應(yīng)用上架 > 應(yīng)用信息”。 進(jìn)入“應(yīng)用分類標(biāo)簽”區(qū)域
    發(fā)表于 10-30 17:47

    發(fā)布元服務(wù)配置應(yīng)用分類、標(biāo)簽和資質(zhì)信息

    分類標(biāo)簽和資質(zhì)管理”菜單選擇元服務(wù)歸屬的類別和標(biāo)簽,同時(shí)將所需的資質(zhì)文件提交給華為運(yùn)營(yíng)人員審核。資質(zhì)文件審核通過(guò)后,您選擇的標(biāo)簽才能生效,之后才可選擇生效
    發(fā)表于 10-29 16:47

    如何在機(jī)器視覺(jué)中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測(cè)可定位已訓(xùn)練的目標(biāo)類別,并通過(guò)矩形框(邊界框)對(duì)其進(jìn)行標(biāo)識(shí)。 在討論人工智能(AI)或深度學(xué)習(xí)時(shí),經(jīng)常會(huì)出現(xiàn)“神經(jīng)網(wǎng)絡(luò)”、“黑箱”、“標(biāo)注”等術(shù)語(yǔ)。這些概
    的頭像 發(fā)表于 09-10 17:38 ?1072次閱讀
    如何在機(jī)器視覺(jué)中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    模板驅(qū)動(dòng) 無(wú)需訓(xùn)練數(shù)據(jù) SmartDP解決小樣本AI算法模型開(kāi)發(fā)難題

    。但是這個(gè)平臺(tái)不適用于小樣本AI模型開(kāi)發(fā),特別是一些特殊行業(yè),數(shù)據(jù)本來(lái)就不多,但又有著需求,因此陷于兩難。面臨這種市場(chǎng)困境,慧視光電推出了一個(gè)全新的AI平臺(tái)Sma
    的頭像 發(fā)表于 09-09 17:57 ?1574次閱讀
    模板驅(qū)動(dòng)  無(wú)需訓(xùn)練數(shù)據(jù)  SmartDP解決<b class='flag-5'>小樣本</b>AI算法模型開(kāi)發(fā)難題

    深度學(xué)習(xí)對(duì)工業(yè)物聯(lián)網(wǎng)有哪些幫助

    深度學(xué)習(xí)作為人工智能的核心分支,通過(guò)模擬人腦神經(jīng)網(wǎng)絡(luò)的層級(jí)結(jié)構(gòu),能夠自動(dòng)從海量工業(yè)數(shù)據(jù)中提取復(fù)雜特征,為工業(yè)物聯(lián)網(wǎng)(IIoT)提供了從數(shù)據(jù)感知到智能決策的全鏈路升級(jí)能力。以下從技術(shù)賦能、場(chǎng)景突破
    的頭像 發(fā)表于 08-20 14:56 ?1245次閱讀

    自動(dòng)駕駛中Transformer大模型會(huì)取代深度學(xué)習(xí)嗎?

    持續(xù)討論。特別是在自動(dòng)駕駛領(lǐng)域,部分廠商開(kāi)始嘗試將模態(tài)大模型(MLLM)引入到感知、規(guī)劃與決策系統(tǒng),引發(fā)了“傳統(tǒng)深度學(xué)習(xí)是否已過(guò)時(shí)”的激烈爭(zhēng)論。然而,從技術(shù)原理、算力成本、安全需求與實(shí)際落地路徑等維度來(lái)看,Transforme
    的頭像 發(fā)表于 08-13 09:15 ?4392次閱讀
    自動(dòng)駕駛中Transformer大模型會(huì)取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?
    西乌珠穆沁旗| 富平县| 文昌市| 海口市| 观塘区| 赤壁市| 万州区| 邢台县| 高雄县| 互助| 柘城县| 镇江市| 克东县| 三河市| 台北市| 邹城市| 丰台区| 洛隆县| 杂多县| 格尔木市| 临沂市| 周至县| 松滋市| 鄯善县| 五莲县| 上虞市| 阿坝| 天津市| 阜城县| 江津市| 万年县| 丽江市| 宕昌县| 衡东县| 通城县| 土默特左旗| 西充县| 太仓市| 澄江县| 四川省| 江山市|