日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

開放領域問答的基本背景和系統(tǒng)介紹

深度學習自然語言處理 ? 來源:AI部落聯(lián)盟 ? 作者:AI部落聯(lián)盟 ? 2021-03-08 10:33 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

春節(jié)玩耍結(jié)束啦,又開始學習啦!最近筆者學習了一下開放領域問答(open-domain question answering)最近幾年的進展和研究。由于背景知識和相關研究較多,筆者將其作為一個系列進行總結(jié)和記錄,也希望能幫助到相關領域/對相關領域感興趣的同學。這是第一篇,歡迎關注后續(xù)!

開放領域問答背景知識

在學習“開放領域問答(open-domain question answering)”之前,我們先看一個搜索+問答的例子。2021年2月,我在谷歌里搜索問題:“美國現(xiàn)任總統(tǒng)是誰?”,谷歌不僅能給出相關維基百科頁面的推薦,還直接給出問題的答案:“拜登”。筆者記憶里,10年前的搜索是無法給出答案的。那么,搜索引擎從以往的關鍵詞匹配到今天的智能問答(雖然目前還只能回答一些簡單的事實問題),開放領域問答方面的研究有不小的貢獻。

什么是問答(Question Answering,QA;或者也可以叫機器問答/機器閱讀理解/Machine Reading Comprehension)?什么又是開放領域問答(open-domain QA)呢?我們先簡單介紹如下幾個基本概念。

機器問答:讓計算機系統(tǒng)自動回答人類提出的描述性問題(一般來說需要用文字描述出來)。

開放領域:可以詢問任何問題(不對問題的領域,比如科研領域,體育,NBA或者足球領域等做限制,同時問問題時不提供相關文獻),比如可以問:EMNLP2020接收了多少篇文章?也可以問:現(xiàn)任美國總統(tǒng)是誰?。

知識庫:一般來說這些問題的答案可以在一個給定的知識庫中找到:比如純文本無結(jié)構(gòu)化的維基百科,或者是結(jié)構(gòu)化的知識庫(比如ConceptNet),或者是半結(jié)構(gòu)化的表格。當然如果問題在知識庫中沒有答案,我們也希望機器能告訴我們此問題無解。本文涉及的相關研究都先重點關注無結(jié)構(gòu)化的文本知識庫,結(jié)構(gòu)化知識庫的開放領域問答放在后面的文章中進行介紹。

結(jié)合上面3條概念,圖1的例子涉及的流程可以這樣簡要概括成如下二個階段(當然實際流程要復雜得多):

提問者先描述了問題:美國現(xiàn)任總統(tǒng)是誰?谷歌搜索系統(tǒng)根據(jù)問題從谷歌構(gòu)建好的知識庫中(包括了維基百科、以及各種網(wǎng)頁)找到最相關部分知識(比如美國總統(tǒng)選舉的維基百科網(wǎng)頁和相關文字報道)。

從最相關的部分知識(美國總統(tǒng)選舉維基百科網(wǎng)頁)中找到了問題的具體答案:拜登。

由于二階段系統(tǒng)十分直觀且便于結(jié)合檢索工具+機器閱讀理解實現(xiàn),最近幾年的關于開放領域問答的許多研究也都屬于以上這種二階段系統(tǒng),本文作為開放領域問答梳理的第一篇也將優(yōu)先學習這個系統(tǒng):基于信息檢索(information Retrieval, IR)+機器閱讀理解(Machine Reading Comprehension, MRC)(retriever-reader)的開放領域問答系統(tǒng),如圖2所示。

當然除了二階段系統(tǒng)之外,還有單階段的系統(tǒng)(比如Phrase Retrieval期望直接通過檢索IR找出答案,T5、GPT3這種大規(guī)模預訓練模型甚至可以期望直接通過MRC生成答案),還有多階段的系統(tǒng)(比如把二階段系統(tǒng)中的IR細分到文檔檢索+文檔ranking,MRC細分為answer extraction和answer ranking,或者是迭代式(iterative)問答/多輪問答/multi-hop QA),這些系統(tǒng)的相關研究將在后續(xù)文章中逐漸覆蓋。

所以本文涉及的研究都有這么2個特點:1、關注事實性的、無結(jié)構(gòu)化文本的識庫;2、都是兩階段IR+MRC的開放領域問答系統(tǒng)。

第一個兩階段系統(tǒng):DrQA

Reading Wikipedia to Answer Open-Domain Questions,簡稱DrQA,是danqi chen在2017發(fā)表于ACL上的一篇經(jīng)典文章,業(yè)內(nèi)也經(jīng)常稱該論文是深度學習時代關于開放領域問答的第一篇文章。

除開研究方面的貢獻,該文開源代碼十分值得入門的同學學習!包括但不限于:自然語言處理任務的文本預處理、TFIDF的高效實現(xiàn)、訓練LSTM神經(jīng)網(wǎng)絡用于閱讀理解抽取答案、python多線程加速信息檢索、文本中的詞性標注等作為特征幫助文本理解任務。

圖3 DrQA示意圖

如圖3所示,該DrQA根據(jù)給定的問題,使用TF-IDF算法(不可訓練)對相關文檔在知識庫wikipedia中進行檢索,隨后訓練一個基于LSTM(直接替換成BERT也是可以的)的閱讀理解模型抽取答案。知識庫widipedia可以直接換成其他文本知識庫的。

如何訓練?

1、文檔檢索的TF-IDF無法訓練。

2、閱讀理解模型使用LSTM模型,基于(問題Q,文檔P,答案A)三元組進行訓練,三元組來源一個是SQuAD標注的訓練數(shù)據(jù),一個是distant supervision。所謂distant supervision的意思是:根據(jù)問題Q使用TF-IDF找到相關文檔P,只要相關文檔P包含答案A,無論這個相關文檔是什么文檔,都可以構(gòu)建出一個新的訓練三元組(Q,P,A)。

如何預測?

1、使用TF-IDF檢索出最相關的5個文檔;

2、用訓練好的LSTM閱讀理解模型挨個抽取答案,每個文檔抽取的答案都有一個得分。

3、根據(jù)所有文檔抽取的答案,選擇答案得分start位置end位置綜合得分最高的answer span。

論文除了說DrQA效果好之外,還提到:多任務學習和有幫助。

多任務學習的幫助可以見筆者上兩篇公眾號內(nèi)容。

distant supervision有幫助筆者的2點理解為:

1、distant supervision構(gòu)建了更多的訓練樣本,可以看作數(shù)據(jù)增強;

2、distant supervision讓模型在訓練和預測階段更一致。在預測階段,根據(jù)問題抽取的文檔并不一定都是標注的那個唯一文檔,還可能有其他包含答案但并不是標注的唯一文檔,因此預測的時候模型見到這些文檔也能抽取答案;

那么咱們想一下這個最基本的DrQA有哪些地方可以改進呢?比如:

是否可以優(yōu)化一下文檔的粒度?

不按照documet來檢索,而是按照段落paragraph、句子sentence來檢索呢?

TF-IDF抽取的top 5個文檔并不準,是可以再訓練一個ranker模型根據(jù)問題quesiton,document來選更準的模型?

有推薦系統(tǒng)背景的同學其實可以按照召回-粗排-精排這個思路來考慮?

閱讀理解時是否可以一閱讀多個文檔,而不是每次都只看一個文檔?

每次抽取一個文檔的答案,然后再比較不同文檔里的答案得分是否合理呢?

文檔檢索、文檔rank和文檔閱讀理解階段相互獨立,是否可以讓這兩個階段互相幫助一下呢或者一起考慮呢?

更直觀的改進比如:

LSTM換成更牛逼的BERT模型是否可以?

pipeline的系統(tǒng)可否改進為end-to-end呢?

如果一個passage包含多個answer,那么選哪一個作為監(jiān)督信號呢?

DrQA基本系統(tǒng)改進1:BERTserini

圖4 BERTserini

如圖4所示,論文:End-to-End Open-Domain Question Answering with BERTserini 使用Anserini檢索和BERT進行閱讀理解。相對于DrQA,BERTserini論文的主要點有:

對sentence、paragraph、sentence粒度的檢索進行了比較,發(fā)現(xiàn)paragraph級別的效果最好。

筆者的一點理解:

a. SQuAD是基于paragraph標注的,如果是article粒度,一個文檔太長,所以有大量的無關paragraph,不太適合;如果是sentence的話,檢索出來的句子聯(lián)系太少,不利于閱讀理解;

b.由于BERT是512長度限制,平均一個wikipedia的paragraph的長度在100多個token,如果按照paragraph來分的話,一個BERT是可以放入多個檢索的paragraph的,這里其實也是可以幫助提升效果。

將閱讀理解reader的打分和Anserini檢索的打分進行綜合考慮來選擇最佳的答案span。

3. MRC模型升級為更強的BERT可以幫助抽取答案的效果更好。

DrQA基本系統(tǒng)改進2:訓練一個passage ranker

簡單來說就是將TF-IDF檢索回來的文檔用一個深度學習模型進行重新排序。

圖6 通過增加一個Document ranker來改進

論文:Training a Ranking Function for Open-Domain Question Answering十分簡單:直接訓練一個ranker模型,把TF-IDF檢索回來的passage或者document排序一下,讓更準確更相關的文檔送入閱讀理解模型,提升模型。

相關的另一篇論文passage re-ranker with BERT字面意思理解就是:改成BERT跑一下效果更好。

另外論文:Revealing the Importance of Semantic Retrievalfor Machine Reading at Scale對句子sentence、段落paragraph級別的影響做了詳細的分析。

DrQA基本系統(tǒng)改進3: multi-passage一起處理

這里的passage其實可以指一個段落paragraph也可以說是一個文本片段segment,總之就是一段連續(xù)的文字。multi-passage一起處理的意思就是將檢索回來的多個文檔統(tǒng)一處理。


multi-passage最直觀的地方有:1、reading comprehension;2、passage ranking。

multi-psaage最直觀的方式是:想一想softmax是怎么統(tǒng)一歸一化的即可。

reading comprehension的時候考慮multi-passage:

比如論文Simple and Effective Multi-Paragraph Reading Comprehension

和論文Multi-passage BERT: A Globally Normalized BERT Model forOpen-domain Question Answering:都是按照單個段落獨立抽取answer span,但最終對所有答案的得分統(tǒng)一歸一化后選擇最好的答案(屬于answer ranking階段的統(tǒng)一處理),都是在MRC抽取答案的時候歸一化之后比較得分再選最高分。

它帶來的明顯好處是:根據(jù)問題檢索的passage增加雖然會增大answer出現(xiàn)的概率,但同時也會引入更多的噪聲讓reader效果下降,有了這個統(tǒng)一歸一化之后,reader抽取答案時候受到噪聲的影響更小,如圖5所示。

圖5隨著passage數(shù)量增加,multi-passage BERT保持了高的F1得分

ranking passage的時候multi-passage考慮:

圖6multi-passage進行ranking

論文Denoising Distantly Supervised Open-Domain Question Answering便是多個passage一起ranking的一個代表。其主要點是:

對TF-IDF檢索回來的passage訓練一個re-ranking模型(TF-IDF passage檢索可以看作是對passage的第一步rank打分)可以幫助找到更準確的相關passage。

如果我們能多個passage一起re-ranking,則這個re-ranking模型抗噪聲能力會更好。

passage re-ranking模型可以通過distant supervision訓練,也就是說一個question+一個包含了答案的passage可以當作一個正樣本。

DrQA基本系統(tǒng)改進4:Reader-Ranker互相幫助

Reader-ranker互相幫助的核心點在于:如果ranking模型和reader模型并不孤立的話,那reader模型的信息如何被ranking模型利用,ranking模型的信息如何被reader模型利用?

圖7reader-ranker互相幫助

如圖7所示,論文R3: Reinforced Ranker-Reader for Open-Domain Question Answering基于強化學習讓re-ranker-reader模型進行了交互。該文的主要點是:

Ranker模型和Reader模型基于強化學習一起訓練,具體可以如圖8所示,簡單描述為:Retriever根據(jù)question抽取top k的passages,然后passages經(jīng)過ranker打分后,采樣一個passage送入reader,reader抽取得到answer,根據(jù)預測answer和正確答案之間的F1得分作為reward,然后根據(jù)plolicy gradient來更新re-ranker模型,同時也根據(jù)監(jiān)督信號來更新reader模型。

圖8R3: Reinforced Ranker-Reader示意圖

筆者的一點想法:其實筆者更期待這個模型在多輪問答(multi-hop question answering)上的表現(xiàn)。

DrQA基本系統(tǒng)改進5:answer re-ranker

Answer re-ranker的基本思想是:如果檢索到的多個passage,每個passage都會被reader抽取多個answer span的話,那是否可以根據(jù)檢索部分的信息、閱讀理解部分的信息對抽取出來所有可能的answer span再次進行re-rank呢?

圖9Answer re-ranker

如圖9所示,論文Evidence Aggregation for Answer Re-Ranking in Open-Domain Question Answering基于信息檢索部分的特征、閱讀理解部分的特征給出了兩種answer re-ranker方法:

1. 如圖10所示,左邊的例子a就是Strength-based answer re-ranker。意思是,如果reader預測的答案被多段文本所支撐,則該答案更大概率是正確答案。

2. 如圖10所示,右邊的例子b就是Coverage-based answer re-ranker。意思是,如果支撐該答案的多段文本對于問題信息的覆蓋度更好,則該答案更有可能是正確答案。

圖10Strength-based和Coverage-basedre-ranker舉例

DrQA基本系統(tǒng)改進6: 監(jiān)督信號的選擇

在DrQA的研究中顯示,如果訓練的時候只有問題question和answer,通過信息檢索得到相關passage來包含answer作為distant supervision,那么這個監(jiān)督信號有它明顯的問題的:如圖11所示,如果一個段落中包含多個answer,那么選哪個位置的answer作為答案呢?因為訓練的時候是按照answer的start和end位置作為監(jiān)督信號的,以往的論文訓練時一般直接選了第一個answer或者隨機選一個answer的start和end位置作為監(jiān)督信號。

圖11 多個answer位置舉例

如圖12所示,論文A Discrete Hard EM Approach for Weakly Supervised Question Answering提出了一種Hard EM算法幫助模型在訓練的時候選擇最合適的answer作為。

筆者這樣理解:

1、 假設一個passage在多個位置包含了question的答案,那么在訓練初期,先鼓勵模型選擇預測概率最大(最大概率與Question和Document有關)的answer位置作為監(jiān)督信號。

2、訓練一定steps之后,改為Hard EM算法(最大概率與Question、Document一個記一個可學習的參數(shù)C有關)選擇概率最大的answer 位置作為監(jiān)督信號。學習reader模型的時候同時學習了選擇answer位置有關的參數(shù)C。

代碼基于Huggingface的transformers實現(xiàn),還是很好看懂的。

圖12Hard EM學習過程

總結(jié)

本文主要包含了以下內(nèi)容:

開放領域問答的基本背景,開放領域問答系統(tǒng)簡化后的二階段問答系統(tǒng)介紹。

原文標題:【問答】總結(jié)|開放領域問答梳理系列(1)

文章出處:【微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

責任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關注

    關注

    1821

    文章

    50367

    瀏覽量

    267078
  • 深度學習
    +關注

    關注

    73

    文章

    5610

    瀏覽量

    124656

原文標題:【問答】總結(jié)|開放領域問答梳理系列(1)

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    “校源行”共建計劃|開放原子“校源行”(無錫職業(yè)技術大學站)成功舉辦

    高校。 近日,開放原子“校源行”(無錫職業(yè)技術大學站)成功舉辦?;顒用嫦蚵殬I(yè)院校師生普及開源理念與開源鴻蒙價值,搭建系統(tǒng)化技術認知體系,深化產(chǎn)教融合育人成效,為開源鴻蒙生態(tài)儲備高素質(zhì)技術技能人才。本次活動吸引
    發(fā)表于 04-15 16:31

    京東方發(fā)布顯示行業(yè)首款全員開放AI問答系統(tǒng)

    2026年2月24日,BOE(京東方)正式發(fā)布基于京東方藍鯨顯示大模型的BOE AI 問答系統(tǒng),顯示行業(yè)內(nèi)率先面向企業(yè)全員開放應用,以多項技術領先優(yōu)勢,樹立企業(yè)級AI創(chuàng)新應用新標桿,標志著京東方以AI賦能開啟了智能驅(qū)動運營的新范
    的頭像 發(fā)表于 03-02 09:42 ?2590次閱讀

    利用NVIDIA Nemotron開放模型構(gòu)建智能文檔處理系統(tǒng)

    基于 NVIDIA Nemotron 開放模型的 AI 驅(qū)動文檔智能,增強科學研究、金融和法律等領域工作流。
    的頭像 發(fā)表于 02-25 11:21 ?713次閱讀

    小藝開放平臺平臺功能

    選擇插件、工作流,響應用戶需求。LLM模式適用于簡單對話、知識問答、基礎內(nèi)容生成等場景。 工作流模式 工作流模式是一種基于規(guī)則化流程的智能體編排方式。開發(fā)者將復雜任務拆解為有序的規(guī)則化步驟(如數(shù)據(jù)獲取
    發(fā)表于 01-30 15:24

    小藝開放平臺快速創(chuàng)建鴻蒙智能體

    1.登錄小藝開放平臺,進入小藝智能體平臺頁面,點擊立即體驗,進入創(chuàng)建頁面。 2.點擊左上角【+創(chuàng)建智能體】按鈕,即可進入智能體創(chuàng)建流程。 3.擊【+創(chuàng)建】后,會進入到標準創(chuàng)建頁面,在這里你可以直接
    發(fā)表于 01-19 11:00

    Aumovio案例研究 | 軟件即產(chǎn)品(SWaap)背景下的模型系統(tǒng)工程與閉環(huán)系統(tǒng)驗證

    )的應用背景下,本案例需要基于Level1虛擬ECU,實現(xiàn)電動尾門的模型化系統(tǒng)工程和閉環(huán)系統(tǒng)驗證。同時,需要確保虛擬系統(tǒng)行為與真實系統(tǒng)具有足
    的頭像 發(fā)表于 01-07 10:04 ?741次閱讀
    Aumovio案例研究 | 軟件即產(chǎn)品(SWaap)<b class='flag-5'>背景</b>下的模型<b class='flag-5'>系統(tǒng)</b>工程與閉環(huán)<b class='flag-5'>系統(tǒng)</b>驗證

    2025年中科曙光聯(lián)合多家企業(yè)共同推出AI計算開放架構(gòu)

    2025年,人工智能產(chǎn)業(yè)步入規(guī)?;瘧蒙钏畢^(qū),大模型技術迭代加速,對算力規(guī)模與效率提出更高要求。在這一背景下,9月,中科曙光依托國家先進計算產(chǎn)業(yè)創(chuàng)新中心,聯(lián)合產(chǎn)業(yè)鏈上下游20多家企業(yè)共同推出AI計算開放架構(gòu),推動產(chǎn)業(yè)從封閉走向開放
    的頭像 發(fā)表于 12-30 15:43 ?707次閱讀

    嵌入式系統(tǒng)的定義和應用領域

    應用系統(tǒng)在功能、可靠性、成本、體積和功耗等方面的嚴格要求的專用計算機系統(tǒng)。 那么,嵌入式系統(tǒng)具體應用在哪些領域呢?事實上,它們的應用非常廣泛。例如,在辦公自動化方面,我們常見的打印
    發(fā)表于 11-17 06:49

    HarmonyOSAI編程智能問答

    CodeGenie基于生成式搜索能力,通過查詢生成、內(nèi)容優(yōu)選服務高效理解用戶意圖,問答交互式地獲取編碼相關知識。 對話示例 在對話區(qū)域輸入需要查詢的問題,開始問答。示例如下: ArkTS如何實現(xiàn)
    發(fā)表于 09-03 16:17

    東芝硬盤榮獲開放計算最佳創(chuàng)新獎

    日前,由全球最大的開放計算社區(qū)OCP主辦的2025開放計算技術大會在北京舉行,該會議是開放計算領域生態(tài)覆蓋最廣且最具影響力、匯集IT業(yè)界領袖探討最前沿
    的頭像 發(fā)表于 08-19 16:49 ?2372次閱讀

    HarmonyOS AI輔助編程工具(CodeGenie)智能問答

    CodeGenie基于生成式搜索能力,在對話區(qū)域下拉框中選擇所需要的智能體,通過查詢生成、內(nèi)容優(yōu)選服務高效理解用戶意圖,問答交互式地獲取編碼相關知識。 CodeGenie現(xiàn)接入小藝
    發(fā)表于 08-15 11:07

    2025電賽題目問答(已更新)

    2025電賽題目問答(已更新)
    的頭像 發(fā)表于 07-30 12:59 ?5862次閱讀
    2025電賽題目<b class='flag-5'>問答</b>(已更新)

    開放原子電鴻開源社區(qū)正式成立

    在能源革命與數(shù)字技術深度融合的背景下,我國電力行業(yè)開源生態(tài)建設邁出關鍵一步。近日,在2025開放原子開源生態(tài)大會開幕式上,開放原子電鴻開源社區(qū)正式啟動,并同步發(fā)起“社區(qū)十大開源示范案例”征集。
    的頭像 發(fā)表于 07-28 17:00 ?1111次閱讀

    基于CODESYS的自動化控制系統(tǒng)開放架構(gòu) × 高度集成 × 遠程運維

    在全球半導體短缺的背景下,硬件的開放性與靈活性成為了關鍵考量因素。宏集Berghof基于CODESYS的解決方案憑借低許可成本、原生CAN支持及模塊化設計,完全符合MACS Sterilisationsanlagen GmbH對系統(tǒng)
    的頭像 發(fā)表于 07-09 16:50 ?694次閱讀
    基于CODESYS的自動化控制<b class='flag-5'>系統(tǒng)</b>,<b class='flag-5'>開放</b>架構(gòu) × 高度集成 × 遠程運維

    繞組開放型永磁同步電機的建模及應用

    摘 要:本文以傳統(tǒng)永磁電機 abc 坐標系下的動態(tài)數(shù)學模型為基礎,推導出繞組開放型永磁電機的數(shù)學模型。將模型中的電壓方程分為繞組電阻電壓、繞組自感電壓、繞組反電動勢、繞組間的互感電壓,建立繞組開放
    發(fā)表于 06-12 13:52
    赤峰市| 新密市| 获嘉县| 满洲里市| 大宁县| 若羌县| 南木林县| 武定县| 浦江县| 会宁县| 崇义县| 石渠县| 乾安县| 无棣县| 兴城市| 天长市| 确山县| 武邑县| 石门县| 湛江市| 龙门县| 城口县| 萨迦县| 米易县| 海原县| 白河县| 福贡县| 离岛区| 岚皋县| 新丰县| 鸡西市| 周至县| 莒南县| 咸丰县| 武安市| 宁津县| 丰顺县| 洛隆县| 玉屏| 襄垣县| 林西县|