日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

是否可以利用全局語(yǔ)義上下文改進(jìn)QuickType鍵盤的單詞預(yù)測(cè)?

zhKF_jqr_AI ? 來(lái)源:未知 ? 作者:李倩 ? 2018-10-08 09:19 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

編者按:從iOS 8開始,蘋果就在iPhone上采用了一個(gè)全新的預(yù)測(cè)文本功能——QuickType鍵盤。當(dāng)你在打字的時(shí)候,系統(tǒng)會(huì)根據(jù)你的書寫風(fēng)格,提示接下來(lái)可能會(huì)鍵入的字詞或短語(yǔ)供你選擇,類似中文輸入法中的智能建議。

這一功能基于其背后強(qiáng)大的自然語(yǔ)言處理(NLP)模型,而在過(guò)去幾年中,這種詞向量模型也是新聞、搜索和地圖等其他應(yīng)用程序的核心。在這篇文章中,我們將介紹蘋果研究人員近期的一項(xiàng)新探索:是否可以利用全局語(yǔ)義上下文改進(jìn)QuickType鍵盤的單詞預(yù)測(cè)?

簡(jiǎn)介

You shall know a word by the company it keeps.(現(xiàn)代語(yǔ)言學(xué)名句:觀其伴而知其意。即通過(guò)分析大型語(yǔ)言語(yǔ)料庫(kù)中詞匯共現(xiàn)的模式,我們可以得出詞語(yǔ)的語(yǔ)義表征)

現(xiàn)如今,訓(xùn)練詞嵌入模型的大多數(shù)方法都圍繞句子中給定單詞的上下文,以出現(xiàn)在中心詞前后的幾個(gè)單詞(比如5個(gè))為觀察“窗口”,從中挖掘信息。以美國(guó)《獨(dú)立宣言》中出現(xiàn)的代詞“self-evident”為例,它的左側(cè)是“hold these truths to be”,右側(cè)是“that all men are created”。

本文將在這類方法的基礎(chǔ)上做進(jìn)一步擴(kuò)展,探索模型是否能捕獲文檔的整個(gè)語(yǔ)義結(jié)構(gòu),簡(jiǎn)而言之,在新模型中,“self-evident”將可以把整本《獨(dú)立宣言》作為自己的上下文。那么,這種全局語(yǔ)義上下文能否提高語(yǔ)言模型的性能呢?要解決這個(gè)問(wèn)題,我們先看看現(xiàn)在的詞嵌入用法。

詞嵌入

詞嵌入(Word Embeddings)是NLP中的一個(gè)常見操作,現(xiàn)在,以無(wú)監(jiān)督方式訓(xùn)練的連續(xù)空間詞嵌入已經(jīng)被證實(shí)可用于各種NLP任務(wù),比如信息檢索、文本分類、問(wèn)答和序列語(yǔ)言建模等。其中最基礎(chǔ)的一種詞嵌入是1-of-N Encoding,即假設(shè)存在一個(gè)大小為N的基礎(chǔ)單詞集,每個(gè)單詞都由一個(gè)N維系數(shù)向量表示(在單詞索引處為1,在其他地方為0)。

但這種方法有兩個(gè)缺陷,一是它的正交性會(huì)弱化相似單詞之間關(guān)系,二是編碼結(jié)果容易過(guò)長(zhǎng)。因此我們也已經(jīng)有了更復(fù)雜的嵌入——將單詞映射到低維連續(xù)向量空間中的密集向量中,這種映射不僅能降低維度,還有利于捕獲關(guān)于單詞的語(yǔ)義、句法和語(yǔ)用信息。

有了詞向量,我們就能通過(guò)計(jì)算向量之間的距離判斷兩個(gè)單詞的相似程度。

比較常見的降維詞嵌入類型有兩種:

從單詞所在文本的上下文中導(dǎo)出表示(前L個(gè)單詞和后L個(gè)單詞,L一般是個(gè)較小的整數(shù))

利用圍繞單詞的全局上下文的表示(單詞所在的整個(gè)文本)

其中,利用文本上下文的方法包括:

用于預(yù)測(cè)的神經(jīng)網(wǎng)絡(luò)架構(gòu),如連續(xù)詞袋模型和skip-gram模型

序列語(yǔ)言模型中的投影層(projection layer)

編碼器的Bottleneck表示

利用全局上下文的方法包括:

全局矩陣分解方法,如潛在語(yǔ)義映射(LSM),它計(jì)算word-document共現(xiàn)次數(shù)

Log-Liner Model,如GloVe,它計(jì)算word-word共現(xiàn)次數(shù)

從理想的角度看,像LSM這種計(jì)算全局共現(xiàn)的方法其實(shí)是最接近真正的語(yǔ)義嵌入的,因?yàn)樗鼈儾东@的是整個(gè)文本傳達(dá)的語(yǔ)義概念的統(tǒng)計(jì)信息。相比之下,基于預(yù)測(cè)的神經(jīng)網(wǎng)絡(luò)只是把語(yǔ)義關(guān)系封裝到以目標(biāo)單詞為中心的局部文本中,不夠全面。因此,當(dāng)涉及全局語(yǔ)義信息時(shí),由這種方法產(chǎn)生的嵌入往往存在局限。

但是,盡管存在這種局限,現(xiàn)在越來(lái)越多的研究人員還是投向神經(jīng)網(wǎng)絡(luò),尤其是廣受歡迎的連續(xù)詞袋模型和skip-gram模型。因?yàn)樗鼈兡芙鉀Q“國(guó)王對(duì)于女王就像男人對(duì)于女人”這類類比,而LSM經(jīng)常失敗。對(duì)此,一種普遍看法是基于LSM的方法會(huì)使向量空間的各個(gè)維度不夠精確,因此只能產(chǎn)生次優(yōu)的空間結(jié)構(gòu)。

這個(gè)認(rèn)識(shí)引起了蘋果研究人員的極大興趣,因?yàn)楝F(xiàn)用QuickType鍵盤是基于LSM設(shè)計(jì)的,在他們最新的博客中,他們就是否可以通過(guò)使用不同類型的神經(jīng)網(wǎng)絡(luò)架構(gòu)來(lái)實(shí)現(xiàn)更強(qiáng)大的語(yǔ)義嵌入進(jìn)行了探討。

神經(jīng)架構(gòu)

談及生成詞嵌入,最著名的框架之一是word2vec,但研究人員在文章中采用的是一種能提供全局語(yǔ)義嵌入的特殊RNN——bi-LSTM。它允許模型訪問(wèn)先前、當(dāng)前和未來(lái)的輸入信息,把握全局上下文。

為了讓模型能輸入整個(gè)完整文檔,他們重新設(shè)計(jì)了這個(gè)架構(gòu),如下圖所示,模型的輸出能提供與該文檔相關(guān)聯(lián)的語(yǔ)義類別這意味著生成的詞嵌入捕獲的是輸入的整個(gè)語(yǔ)義結(jié)構(gòu),而不僅是局部上下文。

這個(gè)架構(gòu)主要解決了兩個(gè)障礙。其一是對(duì)目標(biāo)單詞上下文的單詞數(shù)限制,它原則上可以容納無(wú)限長(zhǎng)度的上下文,這樣就不僅可以處理句子,還可以處理整個(gè)段落,甚至是完整的文檔。

圖一 能捕獲全局語(yǔ)義結(jié)構(gòu)的RNN

其二涉及預(yù)測(cè)目標(biāo)本身。到目前為止,神經(jīng)網(wǎng)絡(luò)這種解決方案都基于局部上下文信息,無(wú)法充分反映全局語(yǔ)義信息,但是上圖已經(jīng)是一個(gè)能輸入完整文本的神經(jīng)網(wǎng)絡(luò)了。為了簡(jiǎn)化語(yǔ)義標(biāo)簽的生成,研究人員發(fā)現(xiàn)派生合適的聚類類別是有幫助的,例如,他們可以用LSM獲得初始word-document嵌入。

設(shè)當(dāng)前存在一個(gè)文本塊(可以是句子,也可以是段落、文檔),它由T個(gè)單詞x(t)構(gòu)成(1≤t≤T),且存在一個(gè)全局關(guān)聯(lián)的語(yǔ)義類別z。我們把它輸入修改過(guò)的bi-LSTM。

用1-of-N encoding對(duì)輸入文本中的單詞x(t)編碼,把x(t)轉(zhuǎn)成N維稀疏向量。此時(shí),x(t)左側(cè)的上下文向量h(t ? 1)維數(shù)為H,它包含前一個(gè)時(shí)間步的隱藏層中輸出值信息的內(nèi)部表示;x(t)右側(cè)的上下文向量g(t + 1)維數(shù)也是H,它包含下一個(gè)時(shí)間步的隱藏層中的右側(cè)上下文輸出值信息。網(wǎng)絡(luò)在當(dāng)前時(shí)間步計(jì)算隱藏節(jié)點(diǎn)的輸出值,如下所示:

其中,

F{·}表示激活函數(shù),如sigmoid、tanh、ReLU

s(t)表示網(wǎng)絡(luò)狀態(tài),這是左右上下文隱藏節(jié)點(diǎn)的串聯(lián):s(t) = [g(t) h(t)],維數(shù)為2H。我們可以把網(wǎng)絡(luò)狀態(tài)看作是2H向量空間中,單詞x(t)的連續(xù)空間表示

網(wǎng)絡(luò)的輸出是與輸入文本相關(guān)聯(lián)的語(yǔ)義類別。在每個(gè)時(shí)間步,對(duì)應(yīng)于當(dāng)前單詞的輸出標(biāo)簽z再被1-of-K encoding:

其中,G {·}表示softmax激活函數(shù)。

當(dāng)我們訓(xùn)練網(wǎng)絡(luò)時(shí),我們假設(shè)有一組語(yǔ)義類別注釋可用。如前所述,這些注釋可能來(lái)自使用LSM獲得的初始word-document嵌入。為了避免出現(xiàn)梯度消失,這個(gè)架構(gòu)把隱藏節(jié)點(diǎn)設(shè)計(jì)成了LSTM和GRU里的形式,我們可以根據(jù)需要將圖一中的單個(gè)隱藏層擴(kuò)展到任意復(fù)雜、任意深度的網(wǎng)絡(luò)。

神經(jīng)語(yǔ)言建模

在實(shí)驗(yàn)中,研究人員使用的是之前訓(xùn)練QuickType時(shí)所用的語(yǔ)料庫(kù)的子集,如下表所示,他們測(cè)試了三種不同嵌入模型在測(cè)試集上的困惑度表現(xiàn),其中“1-of-N”表示標(biāo)準(zhǔn)稀疏嵌入,“word2vec”是標(biāo)準(zhǔn)word2vec嵌入,“bi-LSTM”是他們改進(jìn)后的方法。

可以發(fā)現(xiàn),“bi-LSTM”使用的訓(xùn)練數(shù)據(jù)是最少的,但它的性能卻和比他多用了6倍訓(xùn)練數(shù)據(jù)的“word2vec”差不多,而“1-of-N”模型如果要達(dá)到同樣的困惑度,它使用的訓(xùn)練數(shù)據(jù)得是“bi-LSTM”的5000倍以上。

因此,這種能捕獲全局語(yǔ)義結(jié)構(gòu)的方法非常適合數(shù)據(jù)量有限的公司、實(shí)驗(yàn)室。

結(jié)論

相比現(xiàn)有方法,將全局語(yǔ)義信息納入神經(jīng)語(yǔ)言模型具有明顯的潛在優(yōu)勢(shì),它也是NLP研究的一個(gè)趨勢(shì)。但是,在實(shí)驗(yàn)過(guò)程中,研究人員也發(fā)現(xiàn)這種方法確實(shí)還存在限制,在段落數(shù)據(jù)上訓(xùn)練詞嵌入和在句子數(shù)據(jù)上訓(xùn)練語(yǔ)言模型時(shí),其中還存在一個(gè)長(zhǎng)度不匹配的問(wèn)題。

對(duì)此,研究人員提出的方案是修改語(yǔ)言模型訓(xùn)練中使用的客觀標(biāo)準(zhǔn),以便人們能在同一段落數(shù)據(jù)上同時(shí)訓(xùn)練嵌入和語(yǔ)言模型??傊?,使用bi-LSTM RNN訓(xùn)練全局語(yǔ)義詞嵌入確實(shí)可以提高神經(jīng)語(yǔ)言建模的準(zhǔn)確性,它還可以大大降低對(duì)訓(xùn)練所需的數(shù)據(jù)量的要求。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:Apple:全局語(yǔ)義上下文可以改善神經(jīng)語(yǔ)言模型嗎?

文章出處:【微信號(hào):jqr_AI,微信公眾號(hào):論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    安信可AI語(yǔ)音模組支持MCP模型上下文協(xié)議

    安信可 PalChat 系列(V1/V2)支持 MCP(模型上下文協(xié)議),工程師只需寫幾十行 C 代碼,就能讓 AI 模型直接控制硬件設(shè)備。V1 基于 Ai-WB2-12F,適合快速驗(yàn)證;V2
    的頭像 發(fā)表于 04-15 09:54 ?555次閱讀

    Linux內(nèi)核參數(shù)調(diào)優(yōu)避坑指南

    線上問(wèn)題一來(lái),很多人第一反應(yīng)是改 sysctl。連接慢改 somaxconn,內(nèi)存緊張改 swappiness,磁盤抖動(dòng)改 dirty_ratio,網(wǎng)卡丟包改各種 net.core.*。參數(shù)不是不能改,問(wèn)題是很多改法只在某個(gè)場(chǎng)景下成立,一旦脫離上下文,最容易把局部最優(yōu)改成全局
    的頭像 發(fā)表于 03-11 09:50 ?415次閱讀

    NVIDIA BlueField-4為推理上下文記憶存儲(chǔ)平臺(tái)提供強(qiáng)大支持

    隨著代理式 AI 工作流將上下文窗口擴(kuò)展到數(shù)百萬(wàn)個(gè) token,并將模型規(guī)模擴(kuò)展到數(shù)百萬(wàn)億個(gè)參數(shù),AI 原生企業(yè)正面臨著越來(lái)越多的擴(kuò)展挑戰(zhàn)。這些系統(tǒng)目前依賴于智能體長(zhǎng)期記憶來(lái)存儲(chǔ)跨多輪、工具和會(huì)話持續(xù)保存的上下文,以便智能體能夠基于先前的推理進(jìn)行構(gòu)建,而不是每次請(qǐng)求都從頭
    的頭像 發(fā)表于 02-02 10:29 ?1375次閱讀
    NVIDIA BlueField-4為推理<b class='flag-5'>上下文</b>記憶存儲(chǔ)平臺(tái)提供強(qiáng)大支持

    大語(yǔ)言模型如何處理上下文窗口中的輸入

    本博客介紹了五個(gè)基本概念,闡述了大語(yǔ)言模型如何處理上下文窗口中的輸入。通過(guò)明確的例子和實(shí)踐中獲得的見解,本文介紹了多個(gè)與上下文窗口有關(guān)的基本概念,如詞元化、序列長(zhǎng)度和注意力等。
    的頭像 發(fā)表于 12-03 13:48 ?815次閱讀
    大語(yǔ)言模型如何處理<b class='flag-5'>上下文</b>窗口中的輸入

    執(zhí)行脫離上下文的威脅分析與風(fēng)險(xiǎn)評(píng)估

    作為WITTENSTEIN high integrity system(WHIS)公司的核心產(chǎn)品,SAFERTOS專為安全關(guān)鍵型嵌入式系統(tǒng)設(shè)計(jì),使其成為確保聯(lián)網(wǎng)車輛環(huán)境可靠防護(hù)的理想選擇。在本文中,我們將討論如何開展SAFERTOS安全分析,結(jié)合威脅評(píng)估與風(fēng)險(xiǎn)評(píng)估(TARA)結(jié)果,以及這些實(shí)踐方法的具體實(shí)施,最終推動(dòng)SAFERTOS增強(qiáng)型安全模塊的開發(fā)。遵循行業(yè)標(biāo)準(zhǔn),該方法為管理風(fēng)險(xiǎn)并保護(hù)互聯(lián)車輛組件免受不斷演變的威脅提供了一個(gè)結(jié)構(gòu)化的框架。
    的頭像 發(fā)表于 11-28 09:11 ?678次閱讀
    執(zhí)行脫離<b class='flag-5'>上下文</b>的威脅分析與風(fēng)險(xiǎn)評(píng)估

    蜂鳥E203簡(jiǎn)單分支預(yù)測(cè)改進(jìn)

    當(dāng)前指令的類型是普通指令還是分支跳轉(zhuǎn)指令。當(dāng)譯碼信息指示當(dāng)前指令為分支跳轉(zhuǎn)指令時(shí),則在一個(gè)周期內(nèi)進(jìn)行分支預(yù)測(cè)。 蜂鳥E203的分支預(yù)測(cè)十分簡(jiǎn)單,是常見的靜態(tài)分支預(yù)測(cè),通過(guò)簡(jiǎn)單譯碼得到的立即數(shù)的信息進(jìn)行判斷
    發(fā)表于 10-24 07:45

    提高條件分支指令預(yù)測(cè)正確率的方法

    基于全局分支歷史的ghare分支預(yù)測(cè)器 主要構(gòu)成 分支目標(biāo)緩沖器BTB 分支歷史寄存器BHR 方式歷史寄存器PHT 對(duì)于某個(gè)條件分支指令而言,其全局歷史是相對(duì)恒定的,讓PHT同時(shí)保存全局
    發(fā)表于 10-22 08:22

    基于全局預(yù)測(cè)歷史的gshare分支預(yù)測(cè)器的實(shí)現(xiàn)細(xì)節(jié)

    是否被執(zhí)行以及它們的起跳地址。分支地址是指該條件分支指令的PC值。 下圖為GShare分支預(yù)測(cè)機(jī)制的原理流程圖。 當(dāng)處理器執(zhí)行到分支指令時(shí),GShare預(yù)測(cè)模塊可以將分支歷史和分支地
    發(fā)表于 10-22 06:50

    請(qǐng)問(wèn)riscv中斷還需要軟件保存上下文和恢復(fù)嗎?

    以下是我拷貝的文檔里的說(shuō)明,這個(gè)中斷處理還需要軟件來(lái)寫上下文保存和恢復(fù),在使用ARM核的單片機(jī)都不需要考慮這些的,使用過(guò)的小伙伴能解答嗎? 3.8. 進(jìn)出中斷的上下文保存和恢復(fù) RISC-V架構(gòu)
    發(fā)表于 10-20 09:56

    HarmonyOSAI編程編輯區(qū)代碼續(xù)寫

    利用AI大模型分析并理解開發(fā)者在代碼編輯區(qū)的上下文信息或自然語(yǔ)言描述信息,智能生成符合上下文的ArkTS或C++代碼片段。 使用約束 建議在編輯區(qū)內(nèi)已有較豐富上下文,能夠使模型對(duì)編程場(chǎng)
    發(fā)表于 08-21 15:43

    HarmonyOS AI輔助編程工具(CodeGenie)代碼續(xù)寫

    利用AI大模型分析并理解開發(fā)者在代碼編輯區(qū)的上下文信息或自然語(yǔ)言描述信息,智能生成符合上下文的ArkTS或C++代碼片段。 一、使用約束 建議在編輯區(qū)內(nèi)已有較豐富上下文,能夠使模型對(duì)編
    發(fā)表于 07-15 16:15

    鴻蒙NEXT-API19獲取上下文,在class中和ability中獲取上下文,API遷移示例-解決無(wú)法在EntryAbility中無(wú)法使用最新版

    摘要:隨著鴻蒙系統(tǒng)API升級(jí)至16版本(modelVersion5.1.1),多項(xiàng)API已廢棄。獲取上下文需使用UIContext,具體方法包括:在組件中使用getUIContext(),在類中使
    的頭像 發(fā)表于 07-01 10:57 ?934次閱讀
    鴻蒙NEXT-API19獲取<b class='flag-5'>上下文</b>,在class中和ability中獲取<b class='flag-5'>上下文</b>,API遷移示例-解決無(wú)法在EntryAbility中無(wú)法使用最新版

    英語(yǔ)單詞學(xué)習(xí)頁(yè)面+單詞朗讀實(shí)現(xiàn) -- 【1】頁(yè)面實(shí)現(xiàn) ##HarmonyOS SDK AI##

    ?先看一下頁(yè)面效果 ? 整體頁(yè)面是一個(gè)比較簡(jiǎn)潔的頁(yè)面,其中有兩個(gè)特色功能 對(duì)于例句中,能夠?qū)崿F(xiàn)將當(dāng)前的單詞從句子中進(jìn)行識(shí)別并突出顯示 對(duì)于單詞和句子,可以進(jìn)行朗讀,這個(gè)朗讀使用的是Core
    發(fā)表于 06-29 23:24

    Transformer架構(gòu)中編碼器的工作流程

    編碼器是Transformer體系結(jié)構(gòu)的基本組件。編碼器的主要功能是將輸入標(biāo)記轉(zhuǎn)換為上下文表示。與早期獨(dú)立處理token的模型不同,Transformer編碼器根據(jù)整個(gè)序列捕獲每個(gè)token的上下文。
    的頭像 發(fā)表于 06-10 14:27 ?1247次閱讀
    Transformer架構(gòu)中編碼器的工作流程

    UIAbility組件基本用法說(shuō)明

    用getContext接口獲取當(dāng)前頁(yè)面關(guān)聯(lián)的UIAbilityContext或ExtensionContext。 在UIAbility中可以通過(guò)this.context獲取UIAbility實(shí)例的上下文信息
    發(fā)表于 05-16 06:32
    盈江县| 曲沃县| 大安市| 澄迈县| 安吉县| 二连浩特市| 石城县| 乐清市| 吴旗县| 大悟县| 井陉县| 黄陵县| 襄城县| 桃园县| 莱州市| 宣武区| 长海县| 常熟市| 昭平县| 务川| 乌兰察布市| 措勤县| 紫阳县| 江孜县| 张家界市| 佛坪县| 琼海市| 马鞍山市| 文安县| 贵定县| 溧水县| 新巴尔虎左旗| 北碚区| 黄山市| 温宿县| 嘉善县| 杭州市| 乌拉特前旗| 灌阳县| 永德县| 高要市|