日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

通用視覺GPT時刻來臨?智源推出通用分割模型SegGPT

3D視覺工坊 ? 來源:機器之心 ? 2023-04-09 09:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

ChatGPT 引發(fā)了語言大模型狂潮,AI 另一個重大領域 —— 視覺 —— 的 GPT 時刻何時到來?

前兩天,機器之心介紹了Meta 最新研究成果Segment Anything Model (SAM)。該研究引起了AI社區(qū)廣泛討論。

而據(jù)我們所知,幾乎同一時間,智源研究院視覺團隊也推出通用分割模型 SegGPT(Segment Everything In Context)—— 利用視覺提示(prompt)完成任意分割任務的通用視覺模型。

a611a0e8-d63a-11ed-bfe3-dac502259ad0.png

論文地址:https://arxiv.org/abs/2304.03284

代碼地址:https://github.com/baaivision/Painter

Demo:https://huggingface.co/spaces/BAAI/SegGPT

SegGPT 與 Meta AI 圖像分割基礎模型 SAM 同時發(fā)布,兩者的差異在于 :

SegGPT “一通百通”:給出一個或幾個示例圖像和意圖掩碼,模型就能 get 用戶意圖,“有樣學樣” 地完成類似分割任務。用戶在畫面上標注識別一類物體,即可批量化識別分割同類物體,無論是在當前畫面還是其他畫面或視頻環(huán)境中。

SAM “一觸即通”:通過一個點或邊界框,在待預測圖片上給出交互提示,識別分割畫面上的指定物體。

無論是 “一觸即通” 還是 “一通百通”,都意味著視覺模型已經(jīng) “理解” 了圖像結(jié)構。SAM 精細標注能力與 SegGPT 的通用分割標注能力相結(jié)合,能把任意圖像從像素陣列解析為視覺結(jié)構單元,像生物視覺那樣理解任意場景,通用視覺 GPT 曙光乍現(xiàn)。

SegGPT 是智源通用視覺模型 Painter(CVPR 2023)的衍生模型,針對分割一切物體的目標做出優(yōu)化。SegGPT 訓練完成后無需微調(diào),只需提供示例即可自動推理并完成對應分割任務,包括圖像和視頻中的實例、類別、零部件、輪廓、文本、人臉等等。

該模型具有以下優(yōu)勢能力:

1. 通用能力:SegGPT 具有上下文推理能力,模型能夠根據(jù)提供的分割示例(prompt),對預測進行自適應的調(diào)整,實現(xiàn)對 “everything” 的分割,包括實例、類別、零部件、輪廓、文本、人臉、醫(yī)學圖像、遙感圖像等。

2. 靈活推理能力:支持任意數(shù)量的 prompt;支持針對特定場景的 tuned prompt;可以用不同顏色的 mask 表示不同目標,實現(xiàn)并行分割推理。

3. 自動視頻分割和追蹤能力:以第一幀圖像和對應的物體掩碼作為上下文示例,SegGPT 能夠自動對后續(xù)視頻幀進行分割,并且可以用掩碼的顏色作為物體的 ID,實現(xiàn)自動追蹤。

案例展示

1. 作者在廣泛的任務上對 SegGPT 進行了評估,包括少樣本語義分割、視頻對象分割、語義分割和全景分割。下圖中具體展示了 SegGPT 在實例、類別、零部件、輪廓、文本和任意形狀物體上的分割結(jié)果。

a633f49a-d63a-11ed-bfe3-dac502259ad0.png

a699ce8c-d63a-11ed-bfe3-dac502259ad0.png

2. 標注出一個畫面中的彩虹(上圖),可批量化分割其他畫面中的彩虹(下圖)

a6c4b84a-d63a-11ed-bfe3-dac502259ad0.gif

3. 用畫筆大致圈出行星環(huán)帶(上圖),在預測圖中準確輸出目標圖像中的行星環(huán)帶(下圖)。

a70d0168-d63a-11ed-bfe3-dac502259ad0.png

a74d39f4-d63a-11ed-bfe3-dac502259ad0.png

4. SegGPT 能夠根據(jù)用戶提供的宇航員頭盔掩碼這一上下文(左圖),在新的圖片中預測出對應的宇航員頭盔區(qū)域(右圖)。

a774d70c-d63a-11ed-bfe3-dac502259ad0.png

訓練方法

SegGPT 將不同的分割任務統(tǒng)一到一個通用的上下文學習框架中,通過將各類分割數(shù)據(jù)轉(zhuǎn)換為相同格式的圖像來統(tǒng)一各式各樣的數(shù)據(jù)形式。

具體來說,SegGPT 的訓練被定義為一個上下文著色問題,對于每個數(shù)據(jù)樣本都有隨機的顏色映射。目標是根據(jù)上下文完成各種任務,而不是依賴于特定的顏色。訓練后,SegGPT 可以通過上下文推理在圖像或視頻中執(zhí)行任意分割任務,例如實例、類別、零部件、輪廓、文本等。

a7ad7cce-d63a-11ed-bfe3-dac502259ad0.png

Test-time techniques

如何通過 test-time techniques 解鎖各種能力是通用模型的一大亮點。SegGPT 論文中提出了多個技術來解鎖和增強各類分割能力,比如下圖所示的不同的 context ensemble 方法。所提出的 Feature Ensemble 方法可以支持任意數(shù)量的 prompt 示例,實現(xiàn)豐儉由人的推理效果。

a7c3990a-d63a-11ed-bfe3-dac502259ad0.png

此外,SegGPT 還支持對特定場景優(yōu)化專用 prompt 提示。對于針對性的使用場景,SegGPT 可以通過 prompt tuning 得到對應 prompt,無需更新模型參數(shù)來適用于特定場景。比如,針對某一數(shù)據(jù)集自動構建一個對應的 prompt,或者針對一個房間來構建專用 prompt。如下圖所示:

a7e70282-d63a-11ed-bfe3-dac502259ad0.png

結(jié)果展示

模型只需少數(shù) prompt 示例,在 COCO 和 PASCAL 數(shù)據(jù)集上取得最優(yōu)性能。SegGPT 顯示出強大的零樣本場景遷移能力,比如在少樣本語義分割測試集 FSS-1000 上,在無需訓練的情況下取得 state-of-the-art 性能。

a813d762-d63a-11ed-bfe3-dac502259ad0.png

a82daffc-d63a-11ed-bfe3-dac502259ad0.png

無需視頻訓練數(shù)據(jù),SegGPT 可直接進行視頻物體分割,并取得和針對視頻物體分割專門優(yōu)化的模型相當?shù)男阅堋?/p>

a8585856-d63a-11ed-bfe3-dac502259ad0.png

以下是基于 tuned prompt 在語義分割和實例分割任務上的效果展示:

a8836b54-d63a-11ed-bfe3-dac502259ad0.png

a8b520a4-d63a-11ed-bfe3-dac502259ad0.png

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    91

    文章

    41315

    瀏覽量

    302694
  • GPT
    GPT
    +關注

    關注

    0

    文章

    374

    瀏覽量

    16988

原文標題:通用視覺GPT時刻來臨?智源推出通用分割模型SegGPT

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    GPT-5震撼發(fā)布:AI領域的重大飛躍

    躍升重新定義了人工智能的能力邊界。OpenAI首席執(zhí)行官山姆·奧特曼在發(fā)布會上直言:“這不僅是模型的升級,更是通往通用人工智能(AGI)的關鍵里程碑?!?? ? GPT-5:集成模型,
    的頭像 發(fā)表于 08-09 07:44 ?1w次閱讀
    <b class='flag-5'>GPT</b>-5震撼發(fā)布:AI領域的重大飛躍

    《多模態(tài)大模型 前沿算法與實戰(zhàn)應用 第一季》精品課程簡介

    ;模態(tài)拼接\"向\"模態(tài)共生\"演進: 統(tǒng)一架構 :如GPT-4V、Flamingo等模型通過單一Transformer處理任意模態(tài)輸入,實現(xiàn)真正的多模態(tài)通用能力。 動態(tài)
    發(fā)表于 05-01 17:46

    IMX8M Plus 板上部署立體視覺模型 CPU 回退錯誤 IMX8M Plus問題

    您好,我想在 IMX8M Plus 板上部署立體視覺模型。我已經(jīng)量化了模型并將其轉(zhuǎn)換為 TFlite 架構,但是當模型部署在模型上時,當存在
    發(fā)表于 04-29 07:23

    一種可跨不同領域的異常檢測通用模型UniOD介紹

    本研究提出了一種可跨不同領域、適用于特征維度各異且特征空間異構的數(shù)據(jù)集的異常檢測通用模型。
    的頭像 發(fā)表于 03-18 09:09 ?578次閱讀
    一種可跨不同領域的異常檢測<b class='flag-5'>通用</b><b class='flag-5'>模型</b>UniOD介紹

    NVIDIA Jetson模型賦能AI在邊緣端落地

    和 Isaac GR00T 等模型以及千問大模型、Gemma、Mistral AI、GPT-OSS、PI 等社區(qū)模型通用平臺。
    的頭像 發(fā)表于 03-16 16:27 ?679次閱讀
    NVIDIA Jetson<b class='flag-5'>模型</b>賦能AI在邊緣端落地

    大曉機器人開源空間智能通用模型ACE-Brain-0

    近日,大曉機器人聯(lián)合上海交通大學、南洋理工大學、香港中文大學、香港大學等研究機構共同推出以空間智能為底層框架、跨不同具身本體的通用基礎模型“ACE-Brain-0”,正式面向全行業(yè)開源。
    的頭像 發(fā)表于 03-11 13:45 ?378次閱讀
    大曉機器人開源空間智能<b class='flag-5'>通用</b><b class='flag-5'>模型</b>ACE-Brain-0

    上海交大發(fā)布國產(chǎn)光學大模型Optics GPT

    電子發(fā)燒友網(wǎng)綜合報道 1月25日,上海交通大學正式推出光學領域垂直大語言模型——Optics GPT(光學大模型),這是一款完全自主研發(fā)的國產(chǎn)模型
    的頭像 發(fā)表于 01-26 09:59 ?2249次閱讀
    上海交大發(fā)布國產(chǎn)光學大<b class='flag-5'>模型</b>Optics <b class='flag-5'>GPT</b>

    SAM(通用圖像分割基礎模型)丨基于BM1684X模型部署指南

    前言SAM是Meta提出的一個分割一切的提示型模型,其在1100萬張圖像上訓練了超過10億個掩碼,實現(xiàn)了強大的零樣本泛化,突破了分割界限。本例程對SAM官方開源倉庫的模型和算法進行移植
    的頭像 發(fā)表于 01-12 16:17 ?514次閱讀
    SAM(<b class='flag-5'>通用</b>圖像<b class='flag-5'>分割</b>基礎<b class='flag-5'>模型</b>)丨基于BM1684X<b class='flag-5'>模型</b>部署指南

    GPT-5.1發(fā)布 OpenAI開始拼情商

    OpenAI正式上線了 GPT-5.1 Instant 以及 GPT-5.1 Thinking 模型;有網(wǎng)友實測發(fā)現(xiàn)OpenAI新發(fā)布的GPT-5.1大
    的頭像 發(fā)表于 11-13 15:49 ?840次閱讀

    成都匯陽投資關于大模型白熱化,應用加速分化

    ? ? ? ?大模型: 加速多模態(tài)研發(fā) ,閉模型逐步逆襲開源 多模態(tài)技術路線尚未收斂 , 國內(nèi)外大模型廠商持續(xù)刷新 SOAT。 圖片領域 ,GPT
    的頭像 發(fā)表于 09-09 09:30 ?1111次閱讀

    【RA4M2-SENSOR】3、使用GPT定時器-PWM輸出

    GPT介紹 通用 PWM 定時器(GPT,General PWM Timer)是 RA MCU 的其中一種 32/16 位的定時器外設。 在 GPT 當中,可分為
    發(fā)表于 09-01 15:20

    商湯科技多模態(tài)通用智能戰(zhàn)略思考

    時間是最好的試金石,AI領域尤其如此。當行業(yè)熱議大模型走向時,商湯早已錨定“多模態(tài)通用智能”——這是我們以深厚研究積累和實踐反復驗證的可行路徑。
    的頭像 發(fā)表于 08-14 09:33 ?1324次閱讀

    晶振8m和24m通用

    晶振8MHz和24MHz一般情況下不通用,這是由它們在電路中的作用以及電路對頻率的要求決定的
    的頭像 發(fā)表于 07-22 15:57 ?1613次閱讀
    無<b class='flag-5'>源</b>晶振8m和24m<b class='flag-5'>通用</b>嗎

    【正點原子STM32MP257開發(fā)板試用】基于 DeepLab 模型的圖像分割

    【正點原子STM32MP257開發(fā)板試用】圖像分割 本文介紹了正點原子 STM32MP257 開發(fā)板基于 DeepLab 模型實現(xiàn)圖像分割的項目設計。 DeepLab 模型 DeepL
    發(fā)表于 06-21 21:11

    基于FMC接口的XCZU7EV?通用PCIe卡

    基于通用PCIe ,實現(xiàn)FMC的數(shù)據(jù)接口和主控計算,廣泛應用于工業(yè)控制,檢測,視覺處理。支持工業(yè)級溫度工作。
    的頭像 發(fā)表于 05-07 09:10 ?1055次閱讀
    基于FMC接口的XCZU7EV?<b class='flag-5'>通用</b>PCIe卡
    乌海市| 广西| 会同县| 东丰县| 库尔勒市| 安义县| 永新县| 徐汇区| 定西市| 五常市| 道孚县| 论坛| 余庆县| 衡山县| 库车县| 遂溪县| 贺兰县| 博罗县| 曲阜市| 蕉岭县| 巴中市| 承德市| 铅山县| 桐梓县| 苏尼特右旗| 墨玉县| 永登县| 化州市| 义乌市| 特克斯县| 福贡县| 巩留县| 界首市| 龙海市| 内江市| 新巴尔虎左旗| 饶河县| 库尔勒市| 武穴市| 无为县| 乌兰浩特市|