日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

MaX-DeepLab:雙路徑Transformer架構(gòu)概覽

Tensorflowers ? 來源:TensorFlow ? 作者:TensorFlow ? 2021-05-31 11:07 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

全景分割是一個計算機視覺任務(wù),會將語義分割(為每個像素分配類標(biāo)簽)和實例分割(檢測和分割每個對象實例)合并。作為實際應(yīng)用中的核心任務(wù),全景分割通常使用多個代理 (Surrogate) 子任務(wù)(如使用邊界框檢測方法)粗略估計全景分割目標(biāo),來實現(xiàn)預(yù)測一組不相重疊的遮罩 (mask) 及其相對應(yīng)的類別標(biāo)簽(例如對象所屬的類別,如“汽車”、“交通指示燈”、“道路”等)。

在此代理樹中,每個子任務(wù)都會產(chǎn)生額外的手動設(shè)計模塊,如錨點設(shè)計規(guī)則、邊界框分配規(guī)則、非極大值抑制 (NMS)、thing-stuff(thing 類物體和 stuff 類物體)合并,等等。雖然對于單個子任務(wù)和模塊,不乏一些出色的解決方案,但當(dāng)我們將這些子任務(wù)整合到一個流水線中進(jìn)行全景分割時,就會產(chǎn)生不需要的構(gòu)件,在一些比較棘手的情況下更是如此(例如,兩個具有相似邊界框的人都觸發(fā) NMS,從而導(dǎo)致其中一個遮罩缺失)。

以往提出的 DETR 方法簡化邊界框檢測子任務(wù)成端到端操作來解決其中一些問題,事實證明,這種做法的計算效率更高,產(chǎn)生的無關(guān)構(gòu)件也更少。然而,訓(xùn)練過程在很大程度上仍然依賴邊界框檢測,這顯然與基于遮罩的全景分割定義不相符。另一種做法是將邊界框從管線中徹底移除,這樣做的好處是消除了整個子任務(wù)及其相關(guān)模塊和構(gòu)件。例如,Axial-DeepLab預(yù)測預(yù)定義實例中心的像素偏移量時,如果圖像平面中有各種各樣的形狀,或相鄰對象的中心點較為接近,例如下面這張狗狗坐在椅子上的圖像,那它所使用的子任務(wù)則會遇到對象嚴(yán)重變形的挑戰(zhàn)。

當(dāng)狗狗的中心和椅子的中心接近重合時,Axial-DeepLab 就會將它們合并成一個對象

在《MaX-DeepLab:利用遮罩 Transformer 實現(xiàn)端到端全景分割 (MaX-DeepLab: End-to-End Panoptic Segmentation with Mask Transformers)》(將提交給 CVPR 2021 大會)一文中,我們首次為全景分割管線提出了完全的端到端方法——將 Transformer架構(gòu)擴(kuò)展到此計算機視覺任務(wù)中,直接預(yù)測具有類標(biāo)簽的遮罩。這種方法叫做 MaX-DeepLab,利用 Mask Xformer 對 Axial-DeepLab 進(jìn)行擴(kuò)展。該方法采用雙路徑架構(gòu),引入了全局內(nèi)存路徑,允許與任何卷積層直接通信。MaX-DeepLab 最終在極具挑戰(zhàn)的COCO數(shù)據(jù)集上以及無邊界框的狀態(tài)下實現(xiàn)了 7.1% 的顯著全景質(zhì)量 (PQ) 增益,首次消除了有邊界框方法和無邊界框方法之間的差距。在不增加測試時長的情況下,就 PQ 方面而言,MaX-DeepLab 在 COCO 測試開發(fā)集上達(dá)到了 51.3% 的水平,這已是目前的最高水準(zhǔn)。

MaX-DeepLab 是完全端到端的:直接從圖像中預(yù)測全景分割遮罩

端到端全景分割

受 DETR 啟發(fā),我們的模型使用經(jīng)過 PQ 類目標(biāo)優(yōu)化的輸出遮罩和類,直接預(yù)測一組不相重疊的遮罩及其相應(yīng)的語義標(biāo)簽。具體來說,我們受到評估指標(biāo) PQ 的定義:識別質(zhì)量(預(yù)測的類是否正確)乘以分割質(zhì)量(預(yù)測的遮罩是否正確)的啟發(fā),以一模一樣的方式在兩個具有類標(biāo)簽的遮罩之間定義了一個相似度指標(biāo)。直接通過一對一匹配,最大化實際遮罩和預(yù)測遮罩之間的這種相似度,直接對模型進(jìn)行訓(xùn)練。這種對全景分割的直接建模使端到端訓(xùn)練和推理成為可能,消除了現(xiàn)有的有邊界框方法和無邊界框方法必須手工設(shè)計先驗的弊端。

與卷積神經(jīng)網(wǎng)絡(luò) (CNN) 上堆疊傳統(tǒng) Transformer 的方案不同,我們提出了一種結(jié)合 CNN 與 Transformer 的雙路徑框架。具體而言,我們通過一個雙路徑 Transformer 元件,使 CNN 層能夠從全局內(nèi)存中讀寫數(shù)據(jù)。這里所說的這個元件采用了 CNN 路徑和內(nèi)存路徑之間的所有四種注意力 (Attention) 類型,可以插入到 CNN 中的任意位置,從而允許在任何層與全局內(nèi)存通信。MaX-DeepLab 還利用堆疊的沙漏式解碼器,可將多種尺度特征聚合成高分辨率輸出。然后系統(tǒng)會將該輸出與全局內(nèi)存特征相乘,形成遮罩組預(yù)測。至于遮罩類別,則使用另一種 Transformer 進(jìn)行預(yù)測。

雙路徑 Transformer 架構(gòu)概覽

結(jié)果

我們在極具挑戰(zhàn)性的 COCO 全景分割數(shù)據(jù)集上,分別使用先進(jìn)的無邊界框方法 (Axial-DeepLab) 和有邊界框方法 (DetectoRS) 對 MaX-DeepLab 進(jìn)行了評估。在不增加測試時長的情況下,就 PQ 方面而言,MaX-DeepLab 在 COCO 測試開發(fā)集上達(dá)到了 51.3% 的水平,這已是目前的最高水準(zhǔn)。

在無邊界框狀態(tài)下,就 PQ 方面而言,這一結(jié)果比 Axial-DeepLab 高出 7.1%,比 DetectoRS 高出 1.7%,第一次消除了有邊界框方法和無邊界框方法之間的差距。為了與 DETR 進(jìn)行一致的比較,我們還評估了與 DETR 參數(shù)數(shù)量和算力均一致的輕量級 MaX-DeepLab 版本。就 PQ 方面而言,此輕量級 MaX-DeepLab 在 val 集上的表現(xiàn)優(yōu)于 DETR 3.3%,在測試開發(fā)集上的表現(xiàn)優(yōu)于 DETR 3.0%。此外,我們還對端到端表達(dá)式、模型伸縮、雙路徑架構(gòu)和損失函數(shù)進(jìn)行了廣泛的消融研究和分析。此外,MaX-DeepLab 也不像 DETR 一樣需要超長訓(xùn)練計劃。

MaX-DeepLab 正確地分割了一只坐在椅子上的狗。Axial-DeepLab依賴于回歸對象中心偏移量的代理任務(wù)。它之所以失敗,是因為狗和椅子的中心太過于接近。作為代理任務(wù),DetectoRS 會將對象的邊界框而非遮罩進(jìn)行分類。由于椅子的邊界框置信度較低,所以就被濾除了。

關(guān)于 MaX-DeepLab 和先進(jìn)的無邊界框及有邊界框方法的案例研究

還有一個例子可以證明 MaX-DeepLab 可以在充滿挑戰(zhàn)的條件下正確分割圖像。

MaX-DeepLab 正確分割了相互重疊的斑馬。此例對于其他方法也非常具有挑戰(zhàn)性,因為這兩只斑馬的邊界框很相似,對象的中心也很接近

結(jié)論

我們首次證明了全景分割可以進(jìn)行端到端訓(xùn)練。MaX-DeepLab 使用遮罩 Transformer 直接預(yù)測遮罩和類,消除了手工設(shè)計對于經(jīng)驗的依賴,如對象邊界框、thing-stuff(thing 類物體和 stuff 類物體)合并等。借助 PQ 式損失函數(shù)和雙路徑 Transformer,MaX-DeepLab 在極具挑戰(zhàn)性的 COCO 數(shù)據(jù)集上取得了最高水準(zhǔn)的結(jié)果,消除了有邊界框方法和無邊界框方法之間的差距。

原文標(biāo)題:MaX-DeepLab:用于端到端全景分割的雙路徑 Transformer

文章出處:【微信公眾號:TensorFlow】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 計算機視覺
    +關(guān)注

    關(guān)注

    9

    文章

    1716

    瀏覽量

    47737
  • tensorflow
    +關(guān)注

    關(guān)注

    13

    文章

    336

    瀏覽量

    62400

原文標(biāo)題:MaX-DeepLab:用于端到端全景分割的雙路徑 Transformer

文章出處:【微信號:tensorflowers,微信公眾號:Tensorflowers】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    MAX20320:智能緊湊型 6A 電源路徑選擇器

    MAX14740 - MAX14742/MAX20320:智能緊湊型 6A 電源路徑選擇器 在電子設(shè)備的電源管理設(shè)計中,選擇合適的電源路徑
    的頭像 發(fā)表于 02-09 10:50 ?322次閱讀

    探索MAX14742智能電源路徑選擇器

    探索 MAX14740 - MAX14742/MAX20320 智能電源路徑選擇器 在電子設(shè)備的設(shè)計領(lǐng)域,電源管理一直是至關(guān)重要的環(huán)節(jié)。今天,我們就來深入了解一款功能強大的電源管理芯片
    的頭像 發(fā)表于 02-09 10:40 ?218次閱讀

    MAX14741:智能緊湊型 6A 電源路徑選擇器的卓越之選

    MAX14740 - MAX14742/MAX20320:智能緊湊型 6A 電源路徑選擇器的卓越之選 在電子設(shè)備的電源管理領(lǐng)域,一款性能出色的電源
    的頭像 發(fā)表于 02-09 10:35 ?237次閱讀

    探索MAX14740:智能緊湊型6A電源路徑選擇器

    探索MAX14740 - MAX14742/MAX20320:智能緊湊型6A電源路徑選擇器 在電子設(shè)備的設(shè)計中,電源管理是一項至關(guān)重要的任務(wù)。一款性能卓越的電源
    的頭像 發(fā)表于 02-09 10:35 ?322次閱讀

    探索MAX14713:緊湊型6A智能電源路徑選擇器的卓越性能

    ——MAX14713,看看它能為我們的設(shè)計帶來哪些驚喜。 文件下載: MAX14713.pdf 一、器件概述 MAX14713是一款緊湊型6A智能電源路徑選擇器,它具有低至11mΩ(典
    的頭像 發(fā)表于 02-06 15:00 ?222次閱讀

    探索MAX4811:路單/極性高壓數(shù)字脈沖發(fā)生器

    探索MAX4810/MAX4811/MAX4812:路單/極性高壓數(shù)字脈沖發(fā)生器 在電子設(shè)計領(lǐng)域,高壓、高頻脈沖發(fā)生器的性能對于許多應(yīng)用
    的頭像 發(fā)表于 02-04 13:55 ?473次閱讀

    Transformer如何讓自動駕駛大模型獲得思考能力?

    在談及自動駕駛時,Transformer一直是非常關(guān)鍵的技術(shù),為何Transformer在自動駕駛行業(yè)一直被提及?
    的頭像 發(fā)表于 02-01 09:15 ?4428次閱讀

    【「龍芯之光 自主可控處理器設(shè)計解析」閱讀體驗】--全書概覽與概述

    感謝論壇與出版社提供此書以及作者編著此書。下面是書籍實物,不是很厚但很通俗易懂、簡明概要。 首先對全書章節(jié)進(jìn)行概覽,然后對第一章概述進(jìn)行閱讀學(xué)習(xí)。 全書分6章,在架構(gòu)、工具鏈、案例方面進(jìn)行了介紹
    發(fā)表于 01-18 12:58

    深入剖析MAX232:EIA - 232驅(qū)動器與接收器

    就來深入探討一款經(jīng)典的芯片——MAX232,它是一款驅(qū)動器/接收器,能夠很好地滿足相關(guān)設(shè)計需求。 文件下載: max232.pdf 1. MAX232特性
    的頭像 發(fā)表于 01-04 18:10 ?1829次閱讀

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+第二章 實現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法與架構(gòu)

    乘法的新型架構(gòu) 基于Transformer模型的高性能FPGA加速器。 4.2基于常微分方程的加速 5、基于ASIC的大模型計算 5.1 Sanger 5.2 Energon 6
    發(fā)表于 09-12 17:30

    自動駕駛中Transformer大模型會取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號]近年來,隨著ChatGPT、Claude、文心一言等大語言模型在生成文本、對話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?4396次閱讀
    自動駕駛中<b class='flag-5'>Transformer</b>大模型會取代深度學(xué)習(xí)嗎?

    Transformer在端到端自動駕駛架構(gòu)中是何定位?

    典型的Transformer架構(gòu)已被用于構(gòu)建“感知-規(guī)劃-控制統(tǒng)一建?!钡姆桨?。如Waymo和小馬智行正在研發(fā)的多模態(tài)大模型(MultimodalLargeModels,MLLMs),將來自攝像頭
    的頭像 發(fā)表于 08-03 11:03 ?1561次閱讀

    【正點原子STM32MP257開發(fā)板試用】基于 DeepLab 模型的圖像分割

    等目標(biāo)的分割。 Demo 測試 介紹了正點原子官方 AI 例程實現(xiàn)圖像分割的主要流程。 Demo 例程下載,路徑01、程序源碼/05、AI例程源碼/02、deeplab
    發(fā)表于 06-21 21:11

    Transformer架構(gòu)中編碼器的工作流程

    編碼器是Transformer體系結(jié)構(gòu)的基本組件。編碼器的主要功能是將輸入標(biāo)記轉(zhuǎn)換為上下文表示。與早期獨立處理token的模型不同,Transformer編碼器根據(jù)整個序列捕獲每個token的上下文。
    的頭像 發(fā)表于 06-10 14:27 ?1237次閱讀
    <b class='flag-5'>Transformer</b><b class='flag-5'>架構(gòu)</b>中編碼器的工作流程

    Transformer架構(gòu)概述

    由于Transformer模型的出現(xiàn)和快速發(fā)展,深度學(xué)習(xí)領(lǐng)域正在經(jīng)歷一場翻天覆地的變化。這些突破性的架構(gòu)不僅重新定義了自然語言處理(NLP)的標(biāo)準(zhǔn),而且拓寬了視野,徹底改變了AI的許多方面。
    的頭像 發(fā)表于 06-10 14:24 ?1468次閱讀
    <b class='flag-5'>Transformer</b><b class='flag-5'>架構(gòu)</b>概述
    永春县| 安阳县| 通辽市| 台东县| 阳西县| 潮州市| 罗定市| 滨海县| 辽源市| 府谷县| 陆川县| 调兵山市| 开化县| 高安市| 拜泉县| 三都| 长汀县| 齐河县| 虎林市| 藁城市| 汝南县| 南华县| 广饶县| 仪征市| 西峡县| 甘洛县| 绥棱县| 安徽省| 乌恰县| 辽中县| 都安| 东乡县| 吴江市| 榆树市| 玉龙| 措美县| 涞水县| 怀化市| 乌兰察布市| 长垣县| 尉犁县|