日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

預(yù)先訓(xùn)練的語言模型能像人類一樣聰明地解釋明喻嗎?

深度學(xué)習(xí)自然語言處理 ? 來源:知識工場 ? 作者:知識工場 ? 2022-09-23 15:03 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

前言

明喻是人們?nèi)粘I钪幸活惓R姷谋硎鲂问?,解釋明喻可以幫助機器更好地理解自然語言。因此,明喻解釋(SimileInterpretation)是自然語言處理領(lǐng)域中一個重要的研究問題。如今,大規(guī)模預(yù)訓(xùn)練語言模型(Pre-trainedLanguage Models , PLMs)在各類自然語言處理任務(wù)上得到突出的表現(xiàn)效果。那預(yù)訓(xùn)練語言模型是否能像人一樣解釋明喻呢?

本文介紹了復(fù)旦大學(xué)知識工場實驗室的最新工作《Can Pre-trained Language Models Interpret Similes as Smart as Human?》,該工作已經(jīng)被ACL 2022錄用。此工作創(chuàng)新性地提出了明喻屬性探測任務(wù)(Simile Property Probing),也即讓預(yù)訓(xùn)練語言模型推斷明喻中的共同屬性。此工作從通用語料文本、人工構(gòu)造題目兩個數(shù)據(jù)源構(gòu)建明喻屬性探測數(shù)據(jù)集,規(guī)模為1,633個題目,涵蓋七個主要類別。基于構(gòu)建的數(shù)據(jù)集,實驗證明預(yù)訓(xùn)練語言模型具有一定推斷明喻屬性的能力,但是仍然不及人類的表現(xiàn)。為了進一步增強預(yù)訓(xùn)練語言模型的明喻解釋能力,此工作借鑒知識表示方法設(shè)計優(yōu)化目標,將明喻知識注入模型。實驗證明,該優(yōu)化目標在探測任務(wù)帶來8.58%的提升、在情感分析下游任務(wù)上帶來1.37%的提升。

24bc8ff2-3aff-11ed-9e49-dac502259ad0.png

paper: https://arxiv.org/abs/2203.08452

Datasets and Code:https://github.com/Abbey4799/PLMs-Interpret-Simile

研究背景

通過捕捉概念之間的共同屬性,明喻將看似無關(guān)的兩個概念聯(lián)系起來,形成一段生動的表述。例如圖1中雖然“老婦人”與“蝸牛”看似毫無關(guān)系,前者是人類,后者是動物。但是,由于二者的共同屬性——“行走速度較慢”,明喻便在二者之間建立了聯(lián)系,拓展了語言的表達能力,豐富了讀者的想象力。

24fb994a-3aff-11ed-9e49-dac502259ad0.png

圖1:明喻通過共同屬性將兩個概念聯(lián)系起來的示例。

明喻主要分為兩類:封閉式明喻(ClosedSimile),以及開放式明喻(OpenSimile)。如圖2所示,二者區(qū)別在于是否顯式地指明本體、喻體的共同屬性,例如上例中的“速度慢”。

若屬性顯式出現(xiàn)(例如,The old lady walks as slow as a snail.),則是封閉式明喻;

若沒有顯式指出屬性(例如,The old lady walks like a snail.),則是開放式明喻。

252b9320-3aff-11ed-9e49-dac502259ad0.png

圖2:兩類明喻的示例。二者區(qū)別在于是否顯式地指明共同屬性。

明喻解釋是自然語言處理領(lǐng)域中的一個重要研究問題,可以幫助許多下游任務(wù),例如:理解更復(fù)雜的修辭手法、情感分析任務(wù)等。以明喻“這個律師像一條鯊魚”為例,此句雖然用詞中性,但當(dāng)機器推斷出“律師”和“鯊魚”共同具有的“氣勢洶洶”這一屬性后,便可判斷這一句所表達的是消極情緒。

近年來,大規(guī)模預(yù)訓(xùn)練語言模型,例如BERT、RoBERTa,成為解決自然語言處理任務(wù)的新趨勢。許多研究證明,大規(guī)模預(yù)訓(xùn)練語言模型在預(yù)訓(xùn)練過程中存儲了一定知識在模型豐富的參數(shù)、精巧的結(jié)構(gòu)中。然而,預(yù)訓(xùn)練語言模型解釋明喻的能力卻并未被關(guān)注。

因此,我們創(chuàng)新性地提出了明喻屬性探測任務(wù)(SimileProperty Probing)。通過讓預(yù)訓(xùn)練語言模型推斷明喻中的共同屬性,從而研究了預(yù)訓(xùn)練語言模型解釋明喻的能力。

明喻屬性探測任務(wù)

01

問題建模

為了研究預(yù)訓(xùn)練語言模型解釋明喻的能力,我們遮蓋(Mask)了封閉式明喻(ClosedSimile)中的屬性,讓語言模型根據(jù)上下文信息推斷屬性。由于本體和喻體可能同時擁有多個屬性,因此,我們將任務(wù)設(shè)計為選擇題(只有一個正確答案)而非填空題。

給定一個單詞序列S={w1w2,,...,wi-1,[MASK],wi+1,...,wn},將本體和喻體共有屬性wi遮蓋為[MASK]符號。PLMs需要從四個選項中選擇正確屬性,剩余三個選項為錯誤干擾選項。

02

數(shù)據(jù)集構(gòu)建

針對明喻屬性探測任務(wù),我們構(gòu)建了評估數(shù)據(jù)集。我們首先從兩個數(shù)據(jù)來源搜集封閉式明喻,并基于明喻組件設(shè)計干擾選項候選集合,接著我們利用余弦相似度篩選最具有挑戰(zhàn)性的干擾選項得到最終選項,最后我們通過人工標注確保數(shù)據(jù)集的質(zhì)量。整體數(shù)據(jù)集構(gòu)建流程展示如圖3。

25529164-3aff-11ed-9e49-dac502259ad0.png

圖3:構(gòu)建明喻屬性探測數(shù)據(jù)集流程圖。

數(shù)據(jù)來源

我們選擇兩個數(shù)據(jù)來源以構(gòu)建數(shù)據(jù)集:通用語料文本、人工構(gòu)造題目。由于開放式明喻的屬性沒有被顯式指出,若要用以構(gòu)建明喻屬性探測數(shù)據(jù)集,需要人工根據(jù)上下文標注正確屬性。為了減少標注的成本,在構(gòu)建數(shù)據(jù)集的過程中,我們選擇顯式指出屬性的封閉式明喻作為數(shù)據(jù)來源。

通用語料文本。首先選取兩個通用語料庫:BNC以及iWeb,隨后利用模版as ADJ as (a, an, the) NOUN匹配句子。

人工構(gòu)造題目。老師為檢驗學(xué)生是否掌握明喻知識所制定的題目是合適的數(shù)據(jù)來源。因此,我們將在線測驗的趣味學(xué)習(xí)平臺Quizizz作為數(shù)據(jù)來源。選取一系列標題與明喻相關(guān)的測驗,并基于測驗中的問題和答案解析出封閉式明喻。

為了保證數(shù)據(jù)集的質(zhì)量,三個標注者對句子是否為明喻進行判斷,并標注每個句子的明喻組件。數(shù)據(jù)集中所有屬性均為單符號的(single-token),原句中的多符號(multi-token)屬性均被替換為它們在知識庫WordNet和ConceptNet中的單符號同義詞。

干擾選項構(gòu)建

為了保證題目的質(zhì)量,我們以兩個原則設(shè)計了剩余的三個干擾選項:錯誤(true-negative)、具有挑戰(zhàn)性(challenging)。也即,高質(zhì)量的干擾選項應(yīng)該違背上下文的邏輯(true-negative ),同時與正確答案語義相關(guān)(challenging)。

生成干擾選項。為了實現(xiàn)“具有挑戰(zhàn)性(challenging)”的要求,我們基于明喻中四個語義相關(guān)的組件(本體topic、喻體vehicle、謂詞event、屬性property)設(shè)計干擾選項候選集合。

給定原有屬性,我們首先從知識庫WordNet和ConceptNet中獲取反義詞;

對于剩下的三個組件,我們首先利用ConceptNet的HasProperty和COMET分別獲得每個組件相關(guān)屬性。接著,通過統(tǒng)計頻次,獲得每個組件在Wikipedia和BookCorpus中共現(xiàn)次數(shù)最多的副詞/形容詞,選取共現(xiàn)頻次排名前十的修飾詞(并且頻次大于1)作為候選選項。

通過以上策略,得到干擾選項候選集。

篩選干擾選項。我們利用句子的相似度,進一步從干擾選項候選集中獲得最具有挑戰(zhàn)性的干擾選項。整體流程如圖4。給定原句以及將正確屬性替換為的干擾選項的新句子,我們利用RoBERTaLARGE提取兩類特征,從而衡量二者的相似度。

一個是上下文特征(Context Embedding),由[CLS]的嵌入向量表示;

一個是單詞特征(Word Embedding),由正確選項或干擾選項的嵌入向量表示。

最后,拼接兩個特征,利用余弦相似度(consinesimilarity)衡量正確答案和干擾選項之間在給定上下文中的關(guān)聯(lián)性。最終,選取關(guān)聯(lián)性最高的三個干擾選項與正確答案組成最終選項。

人工確認選項。為了確保干擾選項為“錯誤(true-negative)”的,由三個標注者對干擾選項進行清洗。

25a0d748-3aff-11ed-9e49-dac502259ad0.png

圖4:篩選最具有挑戰(zhàn)性的干擾選項的示意圖。

數(shù)據(jù)集統(tǒng)計指標

最終,我們從通用語料文本、人工構(gòu)造題目兩個數(shù)據(jù)源構(gòu)建明喻屬性探測數(shù)據(jù)集,規(guī)模為1,633個題目,涵蓋七個類別。題目示例如表1。

表1:明喻屬性探測數(shù)據(jù)集中各類題目的示例和占比。其中,“__”標示的選項是正確答案。每句中的斜體詞分別代表本體、遮蓋后的屬性和喻體。

25b4a8d6-3aff-11ed-9e49-dac502259ad0.png

數(shù)據(jù)集統(tǒng)計指標如表2。整體而言,Quizzes數(shù)據(jù)集中的明喻更常見,GeneralCorpus數(shù)據(jù)集中的明喻上下文更豐富。

表2:明喻屬性探測數(shù)據(jù)集統(tǒng)計指標。

25ec1a5a-3aff-11ed-9e49-dac502259ad0.png

03

有監(jiān)督微調(diào)

除了評估預(yù)訓(xùn)練語言模型在零樣本場景下直接表現(xiàn)的預(yù)測明喻屬性能力,我們利用遮蓋屬性后的Masked Language Modeling (MLM)訓(xùn)練目標微調(diào)模型,探索微調(diào)是否能提升模型理解明喻的能力。我們利用來自StandardizedProject Gutenberg Corpus(SPGC)語料庫4510條(Noun... as ADJ as ... NOUN)的句子作為微調(diào)數(shù)據(jù)。

主要實驗結(jié)果

我們對比了模型在零樣本、微調(diào)后的結(jié)果,并與前人工作、人類表現(xiàn)進行對比。實驗結(jié)果如表3。

表3:各模型在明喻屬性探測任務(wù)中的準確率。

26086660-3aff-11ed-9e49-dac502259ad0.png

我們觀察到:

模型在預(yù)訓(xùn)練階段存儲的知識可以幫助推斷明喻屬性;

利用MLM目標微調(diào)可以進一步提升模型預(yù)測明喻屬性的能力;

微調(diào)后的模型仍然不及人類的表現(xiàn)。

總體而言,模型在Quizzes數(shù)據(jù)集上的表現(xiàn)好于在GeneralCorpus數(shù)據(jù)集上的表現(xiàn)效果,更豐富的上下文會增加推斷明喻屬性的難度。同時,RoBERTa的表現(xiàn)持續(xù)好于BERT,證明更大規(guī)模的預(yù)訓(xùn)練語料可以讓模型建模更多的明喻文本。

我們還對明喻各個組件對解釋明喻的貢獻程度進行探究,從而進一步揭示模型解釋明喻的機制。我們分別將明喻組件(本體、喻體、比較詞)替換為[UNK]符號,將謂詞替換為be動詞從而在抹除語義的同時不影響語法。我們同時隨機替換任一符號為[UNK]作為對照。實驗結(jié)果如表4。

表4:未經(jīng)微調(diào)的預(yù)訓(xùn)練語言模型在分別遮蓋各組件的情況下預(yù)測明喻屬性的結(jié)果。

26214194-3aff-11ed-9e49-dac502259ad0.png

我們觀察到:

喻體、本體和比較詞較上下文能提供更關(guān)鍵的信息;

喻體能提供最豐富的語義信息,本體次之。

因此,我們認為有效利用喻體和本體的信息可以進一步提高模型的表現(xiàn)效果。

增強PLMs中的明喻知識

01

設(shè)計目標函數(shù)進行知識增強

根據(jù)實驗分析,我們已知本體和喻體是推測明喻屬性最重要的兩個組件。因此,由知識表示相關(guān)方法(Knowledge Embedding, KE)啟發(fā),我們認為屬性(property)可以看作本體(topic)和喻體(vehicle)的關(guān)系。受事實三元組的啟發(fā),我們將明喻看作三元組(本體topic,屬性property,喻體vehicle)。如圖5所示,在表示空間中,將屬性看作從本體到喻體的平移向量。用知識表示方法的打分函數(shù)對屬性予以評估和約束。

264b0092-3aff-11ed-9e49-dac502259ad0.png

圖5:我們設(shè)計的目標函數(shù)示意圖

受經(jīng)典的知識表示方法TransE啟發(fā),我們利用均方誤差(MeanSquare Error, MSE)損失函數(shù)作為我們的知識表示損失函數(shù)(KE Loss)。

LKE= MSE(Et+ Ep, Ev)

其中,Et,Ep, Ev為本體、屬性、喻體由語言模型編碼的表示向量。我們也嘗試了改進后的知識表示方法(例如TransH,TransD),我們將結(jié)果展示在附錄中。

最終,我們的損失函數(shù)由MLMLoss和KE Loss共同組成:

LOurs =αLKE + LMLM

其中,α是平衡兩個目標函數(shù)的超參數(shù)。

02

實驗結(jié)果

我們分別基于MLM目標函數(shù)以及我們設(shè)計的目標函數(shù)進行微調(diào),對比模型在明喻屬性探測任務(wù)上的表現(xiàn)效果。實驗結(jié)果如表5。

表5:利用MLM以及我們設(shè)計的目標函數(shù)在明喻屬性探測任務(wù)上的準確率。

266aefc4-3aff-11ed-9e49-dac502259ad0.png

我們觀察到我們設(shè)計的目標函數(shù)可以提高模型推測共同屬性的能力,在明喻屬性探測任務(wù)上驗證了我們設(shè)計的目標函數(shù)的有效性。

研究表明,明喻往往帶有情感極性。為了進一步揭示改進后目標函數(shù)的應(yīng)用潛力,我們在情感分析下游任務(wù)上進行實驗。我們選取Amazon評論情感分析數(shù)據(jù)集進行二分類任務(wù),訓(xùn)練過程中僅更新MLP層的參數(shù),預(yù)訓(xùn)練語言模型的參數(shù)保持不變。預(yù)訓(xùn)練語言模型的參數(shù)來自于明喻屬性探測任務(wù)中的三個場景:零樣本(Original)、基于MLM目標函數(shù)微調(diào)后(LMLM)、基于知識增強后的模板函數(shù)微調(diào)后(LOurs)。實驗結(jié)果如表6。

表6:三個場景下的預(yù)訓(xùn)練語言模型在情感分析下游任務(wù)上的準確率。

2683d53e-3aff-11ed-9e49-dac502259ad0.png

我們觀察到,增強預(yù)訓(xùn)練語言模型推斷明喻屬性的能力可以提升模型分析文本情感極性的能力。同時在下游任務(wù)上也驗證了我們設(shè)計的目標函數(shù)的有效性。并且,我們在論文中也通過實驗分析了目標函數(shù)帶來表現(xiàn)提升的原因。

總結(jié)

我們是第一篇通過設(shè)計明喻屬性探測任務(wù)研究預(yù)訓(xùn)練語言模型解釋明喻能力的文章?;趦蓚€數(shù)據(jù)來源構(gòu)建了兩個明喻屬性探測數(shù)據(jù)集,并進行了一系列實驗。我們證明了預(yù)訓(xùn)練語言模型在預(yù)訓(xùn)練階段已經(jīng)掌握一定推斷明喻屬性的能力,同時該能力可以進一步在精調(diào)階段提升,但是仍然與人的表現(xiàn)有所差距。特別地,我們提出的目標函數(shù)將明喻知識注入模型,進一步縮短了這一差距。我們的目標函數(shù)在明喻屬性探測任務(wù)以及情感分析下游任務(wù)上都表現(xiàn)出有效性。在未來,我們將考慮探索如何讓機器解釋更復(fù)雜的修辭手法,例如隱喻和類比。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3834

    瀏覽量

    52289
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    575

    瀏覽量

    11345
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1240

    瀏覽量

    26264

原文標題:ACL'22丨預(yù)訓(xùn)練語言模型能否像人一樣解釋明喻

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    零基礎(chǔ)手寫大模型資料2026

    Transformer核心結(jié)構(gòu)的大模型,揭示大模型從理論到落地的技術(shù)本質(zhì)。 、數(shù)學(xué)基礎(chǔ):大模型的三大基石 1. 矩陣運算:神經(jīng)網(wǎng)絡(luò)的語言
    發(fā)表于 05-01 17:44

    800V超充技術(shù):讓電動汽車補加油一樣

    2024年以來,800V高壓平臺成為新能源車企競逐焦點。小米SU7Ultra、極氪007、智己LS6等車型相繼量產(chǎn),“讓補加油一樣快捷”從實驗室走進現(xiàn)實生活。2026年3月,比亞
    的頭像 發(fā)表于 03-20 11:40 ?434次閱讀
    800V超充技術(shù):讓電動汽車補<b class='flag-5'>能</b><b class='flag-5'>像</b>加油<b class='flag-5'>一樣</b>快

    云邊協(xié)同+手機APP運維:安科瑞液冷儲柜讓管理刷朋友圈一樣簡單

    安科瑞 AESB系列液冷儲戶外柜, 這不僅是臺儲設(shè)備,更是企業(yè)應(yīng)對高電價時代的“智能能量管家”。 、 核心邏輯:不止是儲電,更是“聰明
    的頭像 發(fā)表于 03-18 13:26 ?117次閱讀
    云邊協(xié)同+手機APP運維:安科瑞液冷儲<b class='flag-5'>能</b>柜讓管理<b class='flag-5'>像</b>刷朋友圈<b class='flag-5'>一樣</b>簡單

    什么是大模型,智能體...?大模型100問,快速全面了解!

    ,LLM)是大模型中最主要的類,專門用于處理和生成人類語言。大語言模型通過“閱讀”海量的文本數(shù)
    的頭像 發(fā)表于 02-02 16:36 ?1157次閱讀
    什么是大<b class='flag-5'>模型</b>,智能體...?大<b class='flag-5'>模型</b>100問,快速全面了解!

    不只是工具,更是平臺,易工(TQKIT)讓系統(tǒng)功能調(diào)用寫應(yīng)用邏輯一樣簡單

    易工(TQKIT)展示了天嵌在 Android系統(tǒng)級能力封裝上的深厚積累。通過自研系統(tǒng)封裝庫,易工(TQKIT)將復(fù)雜的系統(tǒng)控制能力以接口形式開放給開發(fā)者,讓系統(tǒng)功能調(diào)用寫應(yīng)用邏輯一樣簡單。
    的頭像 發(fā)表于 12-05 16:53 ?395次閱讀
    不只是工具,更是平臺,易工(TQKIT)讓系統(tǒng)功能調(diào)用<b class='flag-5'>像</b>寫應(yīng)用邏輯<b class='flag-5'>一樣</b>簡單

    連載|開發(fā)工具,易安卓讓系統(tǒng)功能調(diào)用寫應(yīng)用邏輯一樣簡單

    通過自研系統(tǒng)封裝庫,易安卓將復(fù)雜的系統(tǒng)控制能力以接口形式開放給開發(fā)者,讓系統(tǒng)功能調(diào)用寫應(yīng)用邏輯一樣簡單。
    的頭像 發(fā)表于 11-27 11:40 ?87次閱讀
    連載|開發(fā)工具,易安卓讓系統(tǒng)功能調(diào)用<b class='flag-5'>像</b>寫應(yīng)用邏輯<b class='flag-5'>一樣</b>簡單

    摩爾線程新代大語言模型對齊框架URPO入選AAAI 2026

    近日,摩爾線程在人工智能前沿領(lǐng)域取得重要突破,其提出的新代大語言模型對齊框架——URPO統(tǒng)獎勵與策略優(yōu)化,相關(guān)研究論文已被人工智能領(lǐng)域的國際頂級學(xué)術(shù)會議AAAI 2026收錄。這
    的頭像 發(fā)表于 11-17 16:03 ?620次閱讀
    摩爾線程新<b class='flag-5'>一</b>代大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>對齊框架URPO入選AAAI 2026

    一樣的展會,不一樣的精彩 2025灣芯展圓滿收官

    10月17日,2025灣區(qū)半導(dǎo)體產(chǎn)業(yè)生態(tài)博覽會(2025灣芯展)在深圳會展中心(福田)圓滿收官。全球600多家展商、超30場論壇,在6萬平方米的展區(qū)內(nèi),打造場“不一樣的展會”,呈現(xiàn)出“不一樣的精彩
    的頭像 發(fā)表于 10-29 16:56 ?1546次閱讀
    不<b class='flag-5'>一樣</b>的展會,不<b class='flag-5'>一樣</b>的精彩 2025灣芯展圓滿收官

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型些經(jīng)驗

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型些經(jīng)驗。我們采用jupyter notebook作為開發(fā)IDE,以TensorFlow2為訓(xùn)練框架,目標是
    發(fā)表于 10-22 07:03

    一樣的展會,不一樣的精彩:2025灣芯展順利收官

    內(nèi),打造場"不一樣的展會",呈現(xiàn)出"不一樣的精彩"。本屆展會人氣火爆,展期三天累計接待總量達到11.23萬人次。參展企業(yè)集中發(fā)布年度新品數(shù)約2500件,新品發(fā)布與商業(yè)合作收獲頗豐。 ? 不
    的頭像 發(fā)表于 10-19 20:27 ?947次閱讀
    不<b class='flag-5'>一樣</b>的展會,不<b class='flag-5'>一樣</b>的精彩:2025灣芯展順利收官

    怎么kell一樣設(shè)置rom下載起始地址?

    如題,怎么kell一樣設(shè)置rom下載起始地址?
    發(fā)表于 10-10 07:21

    現(xiàn)場解決EMC電磁輻射干擾:“望聞問切”,中醫(yī)一樣

    南柯電子|現(xiàn)場解決EMC電磁輻射干擾:“望聞問切”,中醫(yī)一樣
    的頭像 發(fā)表于 09-04 09:47 ?1082次閱讀

    基于大規(guī)模人類操作數(shù)據(jù)預(yù)訓(xùn)練的VLA模型H-RDT

    近年來,機器人操作領(lǐng)域的VLA模型普遍基于跨本體機器人數(shù)據(jù)集預(yù)訓(xùn)練,這類方法存在兩大局限:不同機器人本體和動作空間的差異導(dǎo)致統(tǒng)訓(xùn)練困難;現(xiàn)有大規(guī)模機器人演示數(shù)據(jù)稀缺且質(zhì)量參差不齊。得
    的頭像 發(fā)表于 08-21 09:56 ?1252次閱讀
    基于大規(guī)模<b class='flag-5'>人類</b>操作數(shù)據(jù)預(yù)<b class='flag-5'>訓(xùn)練</b>的VLA<b class='flag-5'>模型</b>H-RDT

    STM32一樣輕松玩轉(zhuǎn)MPU】睿擎SDK V1.1.0重磅升級:內(nèi)核性能與開發(fā)能力雙重突破

    睿擎工業(yè)平臺是為工業(yè)場景設(shè)計的軟硬件體化開發(fā)方案,全棧自主可控,賦客戶聚焦核心業(yè)務(wù)創(chuàng)新,開發(fā)效率提升70%,STM32一樣玩轉(zhuǎn)MPU。平臺整合了數(shù)據(jù)采集、通信、控制、工業(yè)協(xié)議、A
    的頭像 發(fā)表于 08-06 18:45 ?5165次閱讀
    【<b class='flag-5'>像</b>STM32<b class='flag-5'>一樣</b>輕松玩轉(zhuǎn)MPU】睿擎SDK V1.1.0重磅升級:內(nèi)核性能與開發(fā)能力雙重突破

    運行kmodel模型驗證直報錯怎么解決?

    我這運行kmodel模型驗證直報錯,所以沒法做kmodel模型好壞驗證,不知道怎么解決這個問題,重新訓(xùn)練個kmodel
    發(fā)表于 06-10 08:02
    台安县| 湘潭市| 渝北区| 沅陵县| 乐清市| 榕江县| 嘉鱼县| 蒲江县| 浦江县| 兖州市| 蓬安县| 绥棱县| 淮北市| 建阳市| 亳州市| 治多县| 始兴县| 五原县| 兴文县| 文山县| 连云港市| 皮山县| 蕲春县| 泰兴市| 扶绥县| 霸州市| 洛阳市| 高要市| 宽甸| 海原县| 阿城市| 铜山县| 韶关市| 和田市| 来安县| 陕西省| 龙江县| 镇巴县| 宁晋县| 普兰店市| 遂川县|