日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

場景流論文速記—RGBD圖像場景流

電子設(shè)計(jì) ? 來源:電子設(shè)計(jì) ? 作者:電子設(shè)計(jì) ? 2020-12-10 19:28 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

簡單記一下最近看的六篇場景流論文~其中3篇是關(guān)于RGBD圖像的場景流,另外3篇是關(guān)于點(diǎn)云的場景流。
來源:https://zhuanlan.zhihu.com/p/85663856
作者:林小北

所謂場景流,就是光流的三維版本,表述了圖像/點(diǎn)云中每個(gè)點(diǎn)在前后兩幀的變化情況。目前對場景流的研究還局限在實(shí)驗(yàn)室階段,由于缺乏實(shí)際數(shù)據(jù)(打標(biāo)成本太高)以及客觀的評價(jià)指標(biāo),離工程應(yīng)用還有不小的距離。此外,巨大的計(jì)算量也是一個(gè)瓶頸。以下論文可以在文末直接下載。

《Deep Rigid Instance Scene Flow》 CVPR 2019

輸入:雙目攝像頭的前后幀左右圖像

核心思想:把場景流分割成多個(gè)actor的運(yùn)動(dòng),利用MaskRCNN進(jìn)行Instance Segmentation,每個(gè)Instance的Motion都應(yīng)該與深度和光流一致。

首先,利用三個(gè)預(yù)先訓(xùn)練好的子網(wǎng)絡(luò)提取視覺線索:

a. 利用MaskRCNN進(jìn)行Instance Segmentation
b. 利用PSM-Net計(jì)算深度圖(disparity map)
c. 利用PWC-Net計(jì)算光流

之后,采用高斯牛頓法最小化下面三個(gè)能量函數(shù)之和得到3D motion:

a. Photometric Error:前一幀左邊圖像的inlier像素點(diǎn),與第二幀的投影位置的像素點(diǎn)必須盡量一致
b. Rigid Fitting:估計(jì)出的剛體運(yùn)動(dòng)必須與觀察到的深度和光流信息一致
c. Flow Consistency:估計(jì)出的剛體運(yùn)動(dòng)在2d上的投影必須和光流一致

《Learning Rigidity in Dynamic Scenes with a Moving Camera for 3D Motion Field Estimation》 ECCV 2018

輸入:前后幀圖像的RGBD信息

核心思想:把圖像分割為rigid/no-rigid區(qū)域,計(jì)算rigid區(qū)域的ego motion后再結(jié)合光流即可得到scene flow。

先利用兩個(gè)預(yù)先訓(xùn)練好的子網(wǎng)絡(luò)提取特征:

a. 利用PWCNet提取前后兩幀的光流
b. 利用 rigidity-transform network (RTN)預(yù)測ego-motion以及rigidity mask

之后,結(jié)合光流、rigidity mask對ego motioon進(jìn)行refine,保證rigity里面的像素點(diǎn)的光流與ego-motion一致。

最后,綜合利用光流、rigidity mask、ego motioon信息即可得到scene flow。

備注:本文的另一個(gè)貢獻(xiàn)是提出了一個(gè)用于場景流的數(shù)據(jù)庫REFRESH。在kitti的inference結(jié)果如下,不是很好。

《Every Pixel Counts ++: Joint Learning of Geometry and Motion with 3D Holistic Understanding》TPAMI

輸入:單目/雙目攝像頭的前后幀圖像

核心思想:先用三個(gè)子網(wǎng)絡(luò)估計(jì)光流、深度、camera motion,送入holistic 3D motion parser (HMP) 按照幾何關(guān)系即可計(jì)算出rigid background的motion和moving objects的motion。

三個(gè)子網(wǎng)絡(luò)先分別進(jìn)行預(yù)訓(xùn)練,再結(jié)合HMP考慮如下loss優(yōu)化三個(gè)子網(wǎng)絡(luò):

a. Rigid-aware structural matching:按照3D motion投影后rigid部分的結(jié)構(gòu)特點(diǎn)應(yīng)該match
b. Edge-aware local smoothness:投影后的深度和光流的應(yīng)該保持smoothness
c. Rigid-aware 3D motion consistency:rigid background的moving object motion值應(yīng)該盡量小
d. Flow motion consistency in occluded regions:occluded regions的光流前后映射應(yīng)該一致
e. Multi-scale penalization:累加4個(gè)尺度的loss

備注:在雙目攝像頭的表現(xiàn)優(yōu)于單目。通過joint learning,光流、深度、camera motion的表現(xiàn)均有提升。

在Kitti上的表現(xiàn)如下,算是差強(qiáng)人意吧。

本文作者還有一篇工作《Every Pixel Counts: Unsupervised Geometry Learning with Holistic 3D Motion Understanding》,是關(guān)于估計(jì)ego motion的。

《FlowNet3D: Learning Scene Flow in 3D Point Clouds》 CVPR 2018

輸入:僅使用點(diǎn)云數(shù)據(jù)

核心思想:采用pointnet++作為基本模塊,提取前后兩幀點(diǎn)云特征并進(jìn)行融合、上采樣,直接擬合出scene flow

網(wǎng)絡(luò)結(jié)構(gòu)如下:

a. 4組set conv layer:pointnet++ 提取點(diǎn)云特征
b. 1組flow embedding layer: 把前后兩幀的點(diǎn)云特征mix,第一幀的取中心點(diǎn),其臨近點(diǎn)從第二幀取,再提取特征
c. 4組set upconv layer:上采樣,新增點(diǎn)從鄰近點(diǎn)獲取特征

loss為smooth L1 loss

備注:在合成數(shù)據(jù)集上訓(xùn)練的模型可以直接在kitti上work,但與圖像場景流的論文不同,沒有把background和moving object做區(qū)分,沒有考慮ego motion。

《HPLFlowNet: Hierarchical Permutohedral Lattice FlowNet for Scene Flow Estimation on Large-scale Point Clouds》 CVPR 2019

輸入:僅使用點(diǎn)云數(shù)據(jù)

核心思想:采用Bilateral Convolutional Layers作為基本模塊,提取前后兩幀點(diǎn)云特征并進(jìn)行融合、上采樣,直接擬合出scene flow。

備注:與FlowNet3D的整體結(jié)構(gòu)一樣,都是下采樣-融合-上采樣。Bilateral Convolutional Layers能夠快速處理高維稀疏數(shù)據(jù),是不同于PointNet的一種濾波操作。

《PointFlowNet: Learning Representations for Rigid Motion Estimation from Point Clouds》 CVPR 2019

輸入:僅使用點(diǎn)云數(shù)據(jù)

核心思想:利用點(diǎn)云數(shù)據(jù)提取特征后,分別生成ego motion、scene flow、rigid motion、objection location,再整合結(jié)果輸出

細(xì)節(jié)如下:

a. 采用VolexNet作為feature encoder
b. 把前后兩幀的特征進(jìn)行concate,接入context encoder
c. 之后,接入三個(gè)分支:

i. ego-miotion regressor
ii. sceneflow decoder -> rigid motion decoder(證明了rigid motion decoder 無法使用卷積層,故此處采用了fc)
iii. objection location decoder

d. 把檢測出的object和motion融合得到結(jié)果

loss為 Scene Flow Loss + Rigid Motion Loss + Ego-motion Loss + Detection Loss

備注:本文思路與圖像類方法很像,也是考慮各個(gè)instance的motion。

總結(jié)

  • Deep Rigid Instance Scene Flow:

輸入為雙目圖像,用MaskRCNN把動(dòng)靜態(tài)障礙物分開。三個(gè)子網(wǎng)絡(luò)分別獨(dú)立訓(xùn)練并計(jì)算出Instance Segmentation、深度圖、光流,利用三個(gè)子網(wǎng)絡(luò)的結(jié)果計(jì)算motion,進(jìn)而得到scene flow。

  • Learning Rigidity in Dynamic Scenes with a Moving Camera for 3D Motion Field Estimation:

輸入為RGBD圖像,兩個(gè)子網(wǎng)絡(luò)分別獨(dú)立訓(xùn)練并算出光流、ego-motion&rigid mask,refine ego motion后算出scene flow。

  • Every Pixel Counts ++:

輸入為單目/雙目攝像頭,先用三個(gè)子網(wǎng)絡(luò)估計(jì)光流、深度、camera motion,再按照幾何關(guān)系計(jì)算出rigid background的motion和moving objects的motion,之后根據(jù)一致性對三個(gè)子網(wǎng)絡(luò)進(jìn)行優(yōu)化。

  • FlowNet3D 以及 HPLFlowNet:

分別對前后兩幀點(diǎn)云下采樣提取特征并進(jìn)行融合、上采樣,直接擬合出scene flow。

  • PointFlowNet(思路類似Deep Rigid Instance Scene Flow):

采用volexnet提取前后兩幀點(diǎn)云特征并融合,先檢測出object、計(jì)算出ego motion、scene flow,再去回歸各個(gè)object的motion。

審核編輯:符乾江
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    41315

    瀏覽量

    302696
  • 人工智能
    +關(guān)注

    關(guān)注

    1821

    文章

    50366

    瀏覽量

    267056
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    工作節(jié)點(diǎn)說明結(jié)束節(jié)點(diǎn)

    卡片、作為子工作、由大模型進(jìn)行融合答復(fù)的場景。 注意:工作模式的智能體,如果其添加的工作結(jié)束節(jié)點(diǎn)配置了返回變量,因?yàn)闆]有大模型做融合答復(fù),所以智能體會(huì)沒有響應(yīng)內(nèi)容;可以為結(jié)束節(jié)點(diǎn)
    發(fā)表于 03-16 16:43

    Neway電機(jī)方案在電機(jī)控制的應(yīng)用場景

    Neway電機(jī)方案在電機(jī)控制的應(yīng)用場景Neway電機(jī)方案在電機(jī)控制領(lǐng)域的應(yīng)用場景廣泛且效果顯著,其核心優(yōu)勢在步進(jìn)電機(jī)、伺服電機(jī)控制及CNC機(jī)床主軸驅(qū)動(dòng)等場景中得到了充分驗(yàn)證。一、步進(jìn)電機(jī)與伺服電機(jī)
    發(fā)表于 01-04 10:10

    Termux手機(jī)攝像頭采集圖像/視頻 部署 YOLO 模型推理

    Termux手機(jī)攝像頭采集圖像/視頻 部署 YOLO 模型推理
    的頭像 發(fā)表于 12-14 07:26 ?3364次閱讀

    Switch的應(yīng)用場景

    Switch的應(yīng)用場景如下: 調(diào)用一到多個(gè)函數(shù) 設(shè)置變量值或者返回一個(gè)值 執(zhí)行一到多個(gè)代碼片段 如果case標(biāo)簽很多,在switch的前兩個(gè)使用場景中,使用查找表可以更高效的完成。例如下面的兩種
    發(fā)表于 12-12 07:28

    CPU的幾種復(fù)位方式適合哪些場景?

    1、上電復(fù)位 適用場景:系統(tǒng)首次上電或電源以外斷電后重新上電時(shí); 2、看門狗復(fù)位 適用場景:虛脫程序運(yùn)行異常,如陷入死循環(huán)或長時(shí)間無響應(yīng)時(shí); 3、軟件復(fù)位 適用場景:軟件程序需重啟或重新初始化
    發(fā)表于 11-27 07:56

    原廠 FZH13 高精度的單通道LED恒驅(qū)動(dòng)芯片

    )?!?調(diào)光需求場景:情景照明、智能調(diào)光系統(tǒng)。總結(jié)FZH13的核心優(yōu)勢在于 高精度恒、超低壓降 及 深度調(diào)光能力,特別適合以下場景:1. 需寬范圍電流調(diào)節(jié)(5–350mA)的中功率LED驅(qū)動(dòng);2. 輸入電壓波動(dòng)大或低壓差環(huán)境;
    發(fā)表于 11-14 09:20

    哪些場景適合使用DMA?

    DMA(直接內(nèi)存訪問)控制器允許外設(shè)和內(nèi)存之間或內(nèi)存和內(nèi)存之間直接傳輸數(shù)據(jù),而無需CPU的參與。這可以大大減輕CPU的負(fù)擔(dān),讓CPU去處理其他任務(wù),從而提高系統(tǒng)效率。以下是一些常見的使用DMA的場景
    發(fā)表于 11-12 07:13

    廣州郵科可調(diào)穩(wěn)壓恒開關(guān)電源:實(shí)驗(yàn)室與工業(yè)場景的“電力管家”

    在實(shí)驗(yàn)室調(diào)試設(shè)備時(shí)電壓突然跳變?工業(yè)產(chǎn)線上的傳感器因供電不穩(wěn)頻繁報(bào)錯(cuò)?這些場景背后,都藏著對“穩(wěn)壓+恒”雙保障的硬核需求。而扎根廣州黃埔區(qū)22年的老牌企業(yè)——廣州郵科網(wǎng)絡(luò)設(shè)備有限公司,正用一系列可調(diào)穩(wěn)壓恒開關(guān)電源,為科研與生
    的頭像 發(fā)表于 10-21 12:01 ?518次閱讀
    廣州郵科可調(diào)穩(wěn)壓恒<b class='flag-5'>流</b>開關(guān)電源:實(shí)驗(yàn)室與工業(yè)<b class='flag-5'>場景</b>的“電力管家”

    12 路低延遲推!米爾 RK3576 賦能智能安防 360° 環(huán)視

    + 低延遲傳輸” 為核心優(yōu)勢,成功實(shí)現(xiàn) 12 路 1080P@30fps 高清視頻的穩(wěn)定處理,端到端推延遲控制在 120~150ms,為各類大場景智能安防 360° 環(huán)視需求提供高性價(jià)比硬件底座
    發(fā)表于 09-18 17:51

    花椒直播首次開源推器組件 為鴻蒙開發(fā)者提供高性能推解決方案

    器。該工具基于花椒直播自主通用多媒體框架HJMedia打造而來,采用創(chuàng)新的通用多媒體框架設(shè)計(jì),以高度模塊化、可擴(kuò)展的插件化架構(gòu),極大提升了音視頻功能開發(fā)效率與整體的資源利用率,為開發(fā)者提供高性能、低耦合的推解決方案。 在直播、短視頻等高頻多媒體場景
    的頭像 發(fā)表于 09-04 09:52 ?837次閱讀
    花椒直播首次開源推<b class='flag-5'>流</b>器組件 為鴻蒙開發(fā)者提供高性能推<b class='flag-5'>流</b>解決方案

    LED植物燈24V30V升壓恒調(diào)光芯片H6912

    H6912 是一款外圍電路簡潔的寬調(diào)光比升壓調(diào)光 LED 恒驅(qū)動(dòng)器,適用于 2.6-40V 輸入電壓的 LED 恒照明領(lǐng)域。 高精度恒:輸出電流精度≤±3%,2.6-40V 寬電壓范圍適配
    發(fā)表于 07-25 16:44

    調(diào)光電源選芯難?3款恒芯片參數(shù)全解析,一鍵匹配場景需求

    降壓恒架構(gòu),支持模擬調(diào)光(深度19%)+PWM調(diào)光(深度0.01%),過熱保護(hù)均為“關(guān)斷”,能穩(wěn)定控、適配調(diào)光場景基礎(chǔ)需求。核心差異:精準(zhǔn)匹配調(diào)光電源場景1.
    的頭像 發(fā)表于 07-18 16:11 ?1041次閱讀
    調(diào)光電源選芯難?3款恒<b class='flag-5'>流</b>芯片參數(shù)全解析,一鍵匹配<b class='flag-5'>場景</b>需求

    什么是反時(shí)限過保護(hù)?深入解析反時(shí)限過保護(hù)的應(yīng)用場景與優(yōu)勢

    在電力系統(tǒng)中,過保護(hù)是保障設(shè)備安全運(yùn)行和電網(wǎng)穩(wěn)定性的重要環(huán)節(jié)。其中,反時(shí)限過保護(hù)以其獨(dú)特的動(dòng)作特性,在特定應(yīng)用場景下發(fā)揮著不可替代的作用。本文將深入探討反時(shí)限過保護(hù)的原理、優(yōu)勢,
    的頭像 發(fā)表于 07-17 13:53 ?3986次閱讀
    什么是反時(shí)限過<b class='flag-5'>流</b>保護(hù)?深入解析反時(shí)限過<b class='flag-5'>流</b>保護(hù)的應(yīng)用<b class='flag-5'>場景</b>與優(yōu)勢

    使用FX3測試程序中的數(shù)據(jù)時(shí),遇到了每8個(gè)字節(jié)重復(fù)的場景,是什么原因?qū)е碌模?/a>

    我在使用 FX3 測試程序中的數(shù)據(jù)時(shí),遇到了每 8 個(gè)字節(jié)重復(fù)的場景。
    發(fā)表于 05-21 06:59

    弧光保護(hù)裝置與傳統(tǒng)過保護(hù)的差異

    弧光保護(hù)裝置與傳統(tǒng)過保護(hù)的差異: 對比項(xiàng)弧光保護(hù)裝置傳統(tǒng)過保護(hù) 檢測對象電弧光+電流突變僅電流幅值 動(dòng)作時(shí)間5-15ms 1100ms-2s 適用場景開關(guān)柜內(nèi)部短路線路過載/遠(yuǎn)端短路 抗干擾能力多判據(jù)融合,誤動(dòng)率低易受電機(jī)啟
    發(fā)表于 05-07 09:59
    中超| 巴东县| 城步| 湘乡市| 河北省| 长岭县| 靖西县| 三原县| 峨边| 三原县| 灯塔市| 简阳市| 九龙县| 高碑店市| 大同县| 普安县| 葫芦岛市| 资兴市| 民乐县| 庄河市| 凤冈县| 郧西县| 兴海县| 金华市| 江山市| 新源县| 特克斯县| 东丽区| 资源县| 思南县| 京山县| 定日县| 北碚区| 湘乡市| 横山县| 砀山县| 松潘县| 玉环县| 贺兰县| 明溪县| 故城县|