日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于預(yù)訓(xùn)練視覺-語言模型的跨模態(tài)Prompt-Tuning

深度學(xué)習(xí)自然語言處理 ? 來源:zenRRan ? 作者:zenRRan ? 2021-10-09 15:10 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

論文:CPT:Colorful Prompt Tuning for Pre-Training Vision-Language Models

狀態(tài):Work in Progress

單位:清華大學(xué)、新加坡國立大學(xué)

鏈接:https://arxiv.org/pdf/2109.11797.pdf

提取摘要

預(yù)訓(xùn)練的視覺語言模型 (VL-PTMs) 在將自然語言融入圖像數(shù)據(jù)中顯示出有前景的能力,促進(jìn)了各種跨模態(tài)任務(wù)。

然而,作者注意到模型pre-training和finetune的客觀形式之間存在顯著差距,導(dǎo)致需要大量標(biāo)記數(shù)據(jù)來刺激 VL-PTMs 對下游任務(wù)的視覺基礎(chǔ)能力。

為了應(yīng)對這一挑戰(zhàn),本文提出了跨模態(tài)提示調(diào)優(yōu)Cross-modal Prompt Tuning(CPT,或者,彩色-Color提示調(diào)優(yōu)),這是一種用于finetune VL-PTMs 的新范式,它在圖像和文本中使用基于顏色的共同參照標(biāo)記重新構(gòu)建了視覺定位問題,使之成為一個填空問題,最大限度地縮小差距。

通過這種方式,本文的Prompt-Tuning方法可以讓 VL-PTMs 在少樣本甚至零樣本的強(qiáng)大的視覺預(yù)測能力。

綜合實(shí)驗(yàn)結(jié)果表明,Prompt-Tuning的 VL-PTMs 大大優(yōu)于 finetune 的方法(例如,在 RefCOCO 評估中,一次平均提高 17.3% 準(zhǔn)確度,one shot下平均相對標(biāo)準(zhǔn)偏差降低73.8%)。

數(shù)據(jù)和代碼會在之后公開,小伙伴們不要急~

方法介紹

背景:該任務(wù)為Visual Grounding視覺定位問題,通過一個給定的expression來定位在圖像中的位置。

Pre-training和fine-tuning

比如有一張識別好的圖片和下面的文字:

4ce01cce-2246-11ec-82a8-dac502259ad0.png

普通使用MLM(masked language modeling)的預(yù)訓(xùn)練模型的到VL-PTMs方法為:

4d581986-2246-11ec-82a8-dac502259ad0.png

就是使用[mask]機(jī)制來預(yù)測被被掩蓋的token。

而finetune的話,就是使用傳統(tǒng)的[CLS]來遷就下游的任務(wù),比如做二分類:

4dde4a06-2246-11ec-82a8-dac502259ad0.png

而使用被大規(guī)模數(shù)據(jù)預(yù)訓(xùn)練的模型通過[CLS]來遷就下游任務(wù),其實(shí)并不可解釋,而反過來讓下游帶著任務(wù)來到預(yù)訓(xùn)練模型的[mask]戰(zhàn)場上,才能更能發(fā)揮其作用呀。

CPT: Cross-model Prompt Tuning

CPT方法首先將圖片用不同顏色來區(qū)分不同的實(shí)體模塊:

4e6a3e12-2246-11ec-82a8-dac502259ad0.png

其次將Query Text插入到color-based的模板(eg. is in [mask] color)里:

4f1e1770-2246-11ec-82a8-dac502259ad0.png

最后在[mask]上預(yù)測對應(yīng)的該是哪個顏色即可,語義上非常行得通。

模型公式

普通Finetune for VL-PLMs

首先從圖片 I 中通過目標(biāo)檢測工具,檢測出一系列的region:

4f97a306-2246-11ec-82a8-dac502259ad0.png

最終這些被選出來的region和Query Text(w)將被放入:

4ffcb052-2246-11ec-82a8-dac502259ad0.png

其中[IMG]、[CLS]和[SEP]為特殊token。

其中圖片regions的representation通過視覺的encoder獲得,而文本的就是lookup即可,最后通過預(yù)訓(xùn)練模型VL-PLMs會得到:

50520d36-2246-11ec-82a8-dac502259ad0.png

最終使用隱層finetune做分類即可。

但是,finetuned VL-PLMs需要大量的標(biāo)注數(shù)據(jù)來提高視覺定位的效果,這個也是一個弊端吧。

Cross-Modal Prompt Tuning - CPT

上面說過了,CPT需要兩個部分:

視覺子prompt

文本子prompt

視覺子prompt,目的是為了區(qū)分每一個region通過可分辨的標(biāo)記,比如顏色,比如RGB (255, 0, 0)表示red,RGB和text要對應(yīng)起來。

這里要注意的是,這個子prompt是直接加在原圖片上的,所以既沒有改變模型結(jié)果,又沒有改變參數(shù)。

文本子prompt,目的就是在圖片和Query Text之間建立一個鏈接,這里使用的模板為:

50afb7a6-2246-11ec-82a8-dac502259ad0.png

然后,VL-PTMs模型通過這樣的提示(prompt)來決定哪個顏色的region填在這個空里最恰當(dāng):

51029b1a-2246-11ec-82a8-dac502259ad0.png

實(shí)驗(yàn)

和finetune相比,CPT在zero-shot和few-shot下,性能可以說是爆表,巨額提升。在全量數(shù)據(jù)下,也能達(dá)到最佳值或者接近最佳值:

5175c4d2-2246-11ec-82a8-dac502259ad0.png

CPT在其他視覺任務(wù)上的應(yīng)用

實(shí)體檢測

52040c92-2246-11ec-82a8-dac502259ad0.png

謂元分類

52a17086-2246-11ec-82a8-dac502259ad0.png

場景圖分類

53448974-2246-11ec-82a8-dac502259ad0.png

總之,Prompt方法就是通過模板重新定義了任務(wù),讓模型更具有解釋性,本篇文章第一次將Prompt用在了Vision-Language上,未來還會有很大的研究動向,感興趣的小伙伴可以細(xì)讀原文。

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7349

    瀏覽量

    95053
  • RGB
    RGB
    +關(guān)注

    關(guān)注

    4

    文章

    836

    瀏覽量

    62251
  • CLS
    CLS
    +關(guān)注

    關(guān)注

    0

    文章

    9

    瀏覽量

    9900
  • prompt
    +關(guān)注

    關(guān)注

    0

    文章

    16

    瀏覽量

    2887

原文標(biāo)題:清華劉知遠(yuǎn)提出CPT:基于預(yù)訓(xùn)練視覺-語言模型的跨模態(tài)Prompt-Tuning

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    《多模態(tài)模型 前沿算法與實(shí)戰(zhàn)應(yīng)用 第一季》精品課程簡介

    為512維向量。 語言模態(tài) :BERT、GPT等預(yù)訓(xùn)練模型將文本轉(zhuǎn)換為上下文相關(guān)的詞嵌入。例如\"蘋果\"在\"水果\"語境和\"科技公司\
    發(fā)表于 05-01 17:46

    HM博學(xué)谷狂野AI大模型第四期

    在生成式 AI 浪潮席卷全球的今天,大語言模型(LLM)已成為技術(shù)圈的顯學(xué)。然而,絕大多數(shù)開發(fā)者仍停留在“調(diào)用者”的層面——通過 API 發(fā)送 Prompt,接收文本回復(fù)。這種“黑盒”式的應(yīng)用開發(fā)
    發(fā)表于 05-01 17:30

    人工智能多模態(tài)視覺模型開發(fā)實(shí)戰(zhàn) - 2026必會

    訓(xùn)練模型可以逐漸提升對圖像的理解能力,實(shí)現(xiàn)對各種視覺任務(wù)的精準(zhǔn)處理。 此外,視覺模型的發(fā)展還得益于大規(guī)模數(shù)據(jù)集和強(qiáng)大計算資源的支持。海
    發(fā)表于 04-15 16:06

    眾智FlagOS適配面壁智能開源全模態(tài)模型MiniCPM-o 4.5

    2月3日,面壁智能正式發(fā)布并開源了集語言視覺、語音于一體的全模態(tài)模型 MiniCPM-o 4.5。作為首個全雙工全模態(tài)
    的頭像 發(fā)表于 02-09 14:45 ?1023次閱讀
    眾智FlagOS適配面壁智能開源全<b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>MiniCPM-o 4.5

    什么是大模型,智能體...?大模型100問,快速全面了解!

    ,LLM)是大模型中最主要的一類,專門用于處理和生成人類語言。大語言模型通過“閱讀”海量的文本數(shù)據(jù)(如書籍、網(wǎng)頁、文章等)進(jìn)行預(yù)
    的頭像 發(fā)表于 02-02 16:36 ?1152次閱讀
    什么是大<b class='flag-5'>模型</b>,智能體...?大<b class='flag-5'>模型</b>100問,快速全面了解!

    商湯科技日日新V6.5榮獲2025年多模態(tài)模型全國第一

    近日,權(quán)威大模型評測基準(zhǔn) SuperCLUE 發(fā)布《中文多模態(tài)視覺語言模型測評基準(zhǔn)12月報告》,商湯日日新V6.5(SenseNova V6
    的頭像 發(fā)表于 01-06 14:44 ?960次閱讀
    商湯科技日日新V6.5榮獲2025年多<b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>全國第一

    格靈深瞳多模態(tài)模型Glint-ME讓圖文互搜更精準(zhǔn)

    在電商、安防等場景下,圖文互搜應(yīng)用廣泛。隨著以CLIP為代表的多模態(tài)表征方法相繼提出,過去單一模態(tài)搜索(文搜文、圖搜圖)被突破,模型可以同時理解文本、圖像、音頻乃至視頻,實(shí)現(xiàn)
    的頭像 發(fā)表于 11-02 15:56 ?1881次閱讀
    格靈深瞳多<b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>Glint-ME讓圖文互搜更精準(zhǔn)

    亞馬遜云科技上線Amazon Nova多模態(tài)嵌入模型

    的統(tǒng)一嵌入模型,能以行業(yè)頂尖的準(zhǔn)確率實(shí)現(xiàn)模態(tài)檢索。 當(dāng)今,企業(yè)正不斷尋求解決方案,以期從文本、圖像、文檔、視頻、音頻等海
    的頭像 發(fā)表于 10-29 17:15 ?386次閱讀
    亞馬遜云科技上線Amazon Nova多<b class='flag-5'>模態(tài)</b>嵌入<b class='flag-5'>模型</b>

    格靈深瞳三項成果獲得國際頂級學(xué)術(shù)會議認(rèn)可

    以O(shè)penAI CLIP為代表的多模態(tài)預(yù)訓(xùn)練模型,為安防、電商等應(yīng)用場景提供了強(qiáng)大的模態(tài)理解基
    的頭像 發(fā)表于 09-15 14:43 ?1505次閱讀

    我如何用Prompt工程將大模型調(diào)教成風(fēng)控專家

    作為一個交易風(fēng)控的算法工程師,在日常工作中,我常常與海量的數(shù)據(jù)和復(fù)雜的模型打交道,試圖在看似平靜的水面下,捕捉那些隱藏的風(fēng)險暗流。最近,我嘗試將大語言模型(LLM)引入到我的工作流中,這段經(jīng)歷充滿了
    的頭像 發(fā)表于 09-08 14:22 ?563次閱讀
    我如何用<b class='flag-5'>Prompt</b>工程將大<b class='flag-5'>模型</b>調(diào)教成風(fēng)控專家

    米爾RK3576部署端側(cè)多模態(tài)多輪對話,6TOPS算力驅(qū)動30億參數(shù)LLM

    細(xì)化需求,系統(tǒng)需實(shí)時調(diào)整響應(yīng)策略 1.2 多輪對話系統(tǒng)鳥瞰:三顆“核心”協(xié)同驅(qū)動RK3576 多模態(tài)交互對話方案基于 RKLLM 的核心運(yùn)作,依賴于圖像視覺編碼器、大語言模型與對話管
    發(fā)表于 09-05 17:25

    淺析多模態(tài)標(biāo)注對大模型應(yīng)用落地的重要性與標(biāo)注實(shí)例

    ”的關(guān)鍵工序——多模態(tài)標(biāo)注重要性日益凸顯。 一、什么是多模態(tài)標(biāo)注? 多模態(tài)標(biāo)注是指對文本、圖像、語音、視頻、點(diǎn)云等異構(gòu)數(shù)據(jù)進(jìn)行模態(tài)語義關(guān)聯(lián)
    的頭像 發(fā)表于 09-05 13:49 ?2822次閱讀

    基于大規(guī)模人類操作數(shù)據(jù)預(yù)訓(xùn)練的VLA模型H-RDT

    近年來,機(jī)器人操作領(lǐng)域的VLA模型普遍基于本體機(jī)器人數(shù)據(jù)集預(yù)訓(xùn)練,這類方法存在兩大局限:不同機(jī)器人本體和動作空間的差異導(dǎo)致統(tǒng)一訓(xùn)練困難;現(xiàn)
    的頭像 發(fā)表于 08-21 09:56 ?1246次閱讀
    基于大規(guī)模人類操作數(shù)據(jù)<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>的VLA<b class='flag-5'>模型</b>H-RDT

    飛凌嵌入式RK3576多模態(tài)模型圖像理解助手,讓嵌入式設(shè)備“看懂”世界

    (LLM)+視覺語言模型(VLM)多模態(tài)架構(gòu),推出多模態(tài)模型圖像理解助手,為嵌入式設(shè)備打造 “
    的頭像 發(fā)表于 07-25 11:09 ?1843次閱讀
    飛凌嵌入式RK3576多<b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>圖像理解助手,讓嵌入式設(shè)備“看懂”世界

    龍芯中科與文心系列模型開展深度技術(shù)合作

    ”解決方案。 強(qiáng)強(qiáng)聯(lián)合!自主架構(gòu)賦能大模型訓(xùn)練 文心大模型 文心4.5系列模型均使用飛槳深度學(xué)習(xí)框架進(jìn)行高效訓(xùn)練、推理和部署。在大
    的頭像 發(fā)表于 07-02 16:53 ?1491次閱讀
    营口市| 石家庄市| 扎兰屯市| 高邑县| 通化市| 同德县| 开封县| 清丰县| 新竹县| 额敏县| 孝感市| 山东| 通城县| 唐山市| 镇远县| 柳林县| 镇赉县| 抚松县| 阳西县| 观塘区| 保亭| 彭阳县| 台前县| 锦州市| 彰化市| 龙门县| 绥棱县| 应城市| 封开县| 论坛| 台南县| 金溪县| 丹凤县| 双城市| 额尔古纳市| 左权县| 吴堡县| 安岳县| 吉木萨尔县| 手机| 那坡县|