日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

激光SLAM和視覺SLAM各擅勝場,融合使用、取長補短潛力巨大

ml8z_IV_Technol ? 來源:YXQ ? 2019-05-24 09:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

一般來講,SLAM系統(tǒng)通常都包含多種傳感器和多種功能模塊。而按照核心的功能模塊來區(qū)分,目前常見的機器人SLAM系統(tǒng)一般具有兩種形式:基于激光雷達的SLAM(激光SLAM)和基于視覺的SLAM(Visual SLAM或VSLAM)。

同時定位與地圖構(gòu)建(Simultaneous Localization And Mapping,簡稱SLAM),通常是指在機器人或者其他載體上,通過對各種傳感器數(shù)據(jù)進行采集和計算,生成對其自身位置姿態(tài)的定位和場景地圖信息的系統(tǒng)。SLAM技術(shù)對于機器人或其他智能體的行動和交互能力至為關(guān)鍵,因為它代表了這種能力的基礎(chǔ):知道自己在哪里,知道周圍環(huán)境如何,進而知道下一步該如何自主行動。它在自動駕駛、服務(wù)型機器人、無人機、AR/VR等領(lǐng)域有著廣泛的應(yīng)用,可以說凡是擁有一定行動能力的智能體都擁有某種形式的SLAM系統(tǒng)。

一般來講,SLAM系統(tǒng)通常都包含多種傳感器和多種功能模塊。而按照核心的功能模塊來區(qū)分,目前常見的機器人SLAM系統(tǒng)一般具有兩種形式:基于激光雷達的SLAM(激光SLAM)和基于視覺的SLAM(Visual SLAM或VSLAM)。

激光SLAM簡介

激光SLAM脫胎于早期的基于測距的定位方法(如超聲和紅外單點測距)。激光雷達(Light Detection And Ranging)的出現(xiàn)和普及使得測量更快更準(zhǔn),信息更豐富。激光雷達采集到的物體信息呈現(xiàn)出一系列分散的、具有準(zhǔn)確角度和距離信息的點,被稱為點云。通常,激光SLAM系統(tǒng)通過對不同時刻兩片點云的匹配與比對,計算激光雷達相對運動的距離和姿態(tài)的改變,也就完成了對機器人自身的定位。

激光雷達距離測量比較準(zhǔn)確,誤差模型簡單,在強光直射以外的環(huán)境中運行穩(wěn)定,點云的處理也比較容易。同時,點云信息本身包含直接的幾何關(guān)系,使得機器人的路徑規(guī)劃和導(dǎo)航變得直觀。激光SLAM理論研究也相對成熟,落地產(chǎn)品更豐富。

圖1,激光SLAM的地圖構(gòu)建(谷歌Cartographer[1])

VSLAM簡介

眼睛是人類獲取外界信息的主要來源。視覺SLAM也具有類似特點,它可以從環(huán)境中獲取海量的、富于冗余的紋理信息,擁有超強的場景辨識能力。早期的視覺SLAM基于濾波理論,其非線性的誤差模型和巨大的計算量成為了它實用落地的障礙。近年來,隨著具有稀疏性的非線性優(yōu)化理論(Bundle Adjustment)以及相機技術(shù)、計算性能的進步,實時運行的視覺SLAM已經(jīng)不再是夢想。

通常,一個VSLAM系統(tǒng)由前端和后端組成(圖2)。前端負責(zé)通過視覺增量式計算機器人的位姿,速度較快。后端,主要負責(zé)兩個功能:

一是在出現(xiàn)回環(huán)(即判定機器人回到了之前訪問過的地點附近)時,發(fā)現(xiàn)回環(huán)并修正兩次訪問中間各處的位置與姿態(tài);

二是當(dāng)前端跟蹤丟失時,根據(jù)視覺的紋理信息對機器人進行重新定位。簡單說,前端負責(zé)快速定位,后端負責(zé)較慢的地圖維護。

VSLAM的優(yōu)點是它所利用的豐富紋理信息。例如兩塊尺寸相同內(nèi)容卻不同的廣告牌,基于點云的激光SLAM算法無法區(qū)別他們,而視覺則可以輕易分辨。這帶來了重定位、場景分類上無可比擬的巨大優(yōu)勢。同時,視覺信息可以較為容易的被用來跟蹤和預(yù)測場景中的動態(tài)目標(biāo),如行人、車輛等,對于在復(fù)雜動態(tài)場景中的應(yīng)用這是至關(guān)重要的。第三,視覺的投影模型理論上可以讓無限遠處的物體都進入視覺畫面中,在合理的配置下(如長基線的雙目相機)可以進行很大尺度場景的定位與地圖構(gòu)建。

圖2,視覺SLAM的前端定位與后端地圖維護(ORB-SLAM2[2])

接下來我們將在細分項目上比較激光SLAM和VSLAM。

應(yīng)用場景

在應(yīng)用場景上,激光SLAM依據(jù)所使用的激光雷達的檔次基本被分為涇渭分明的室內(nèi)應(yīng)用和室外應(yīng)用,而VSLAM在室內(nèi)外都有豐富的應(yīng)用環(huán)境。VSLAM的主要挑戰(zhàn)是光照變化,例如在室外正午和夜間的跨時間定位與地圖構(gòu)建,其工作穩(wěn)定性不如高端室外多線激光雷達。近年來,光照模型修正和基于深度學(xué)習(xí)的高魯棒性特征點被廣泛應(yīng)用于視覺SLAM的研究中,體現(xiàn)出良好的效果,應(yīng)當(dāng)說VSLAM隨著這些技術(shù)的進步將會在光照變化的環(huán)境中擁有更穩(wěn)定的表現(xiàn)。

影響穩(wěn)定工作的因素

激光SLAM不擅長動態(tài)環(huán)境中的定位,比如有大量人員遮擋其測量的環(huán)境,也不擅長在類似的幾何環(huán)境中工作,比如在一個又長又直、兩側(cè)是墻壁的環(huán)境。由于重定位能力較差,激光SLAM在追蹤丟失后很難重新回到工作狀態(tài)。而視覺SLAM在無紋理環(huán)境(比如面對整潔的白墻面),以及光照特別弱的環(huán)境中,表現(xiàn)較差。

定位和地圖構(gòu)建精度

在靜態(tài)且簡單的環(huán)境中,激光SLAM定位總體來講優(yōu)于視覺SLAM;但在較大尺度且動態(tài)的環(huán)境中,視覺SLAM因為其具有的紋理信息,表現(xiàn)出更好的效果。在地圖構(gòu)建上,激光SLAM的特點是單點和單次測量都更精確,但地圖信息量更??;視覺SLAM特別是通過三角測距計算距離的方法,在單點和單次測量精度上表現(xiàn)總體來講不如激光雷達,但可以通過重復(fù)觀測反復(fù)提高精度,同時擁有更豐富的地圖信息。

累計誤差問題

激光SLAM總體來講較為缺乏回環(huán)檢測的能力,累計誤差的消除較為困難。而視覺SLAM使用了大量冗余的紋理信息,回環(huán)檢測較為容易,即使在前端累計一定誤差的情況下仍能通過回環(huán)修正將誤差消除。

傳感器成本

激光雷達事實上有許多檔次,成本都高于視覺傳感器。最昂貴如Velodyne的室外遠距離多線雷達動輒數(shù)十萬元人民幣,而室外使用的高端中遠距離平面雷達如SICK和Hokuyo大約在數(shù)萬元人民幣的等級。室內(nèi)應(yīng)用較廣的中低端近距離平面激光雷達也需要千元級—,其價格相當(dāng)于比較高端的工業(yè)級攝像頭和感光芯片。激光雷達量產(chǎn)后成本可能會大幅下降,但能否降到同檔次攝像頭的水平仍有一個大大的問號。

傳感器安裝和穩(wěn)定性

目前常見的激光雷達都是旋轉(zhuǎn)掃描式的,內(nèi)部長期處于旋轉(zhuǎn)中的機械結(jié)構(gòu)會給系統(tǒng)帶來不穩(wěn)定性,在顛簸震動時影響尤其明顯。而攝像頭不包含運動機械結(jié)構(gòu),對空間要求更低,可以在更多的場景下安裝使用(圖3)。不過,固態(tài)激光雷達的逐步成熟可能會為激光SLAM扳回這項劣勢。

圖3 激光雷達和視覺系統(tǒng)的安裝應(yīng)用。谷歌無人車上的多線激光雷達

DJI精靈4上的視覺系統(tǒng)

算法難度

激光SLAM由于其研究的成熟以及誤差模型的相對簡單,在算法上門檻更低,部分開源算法甚至已經(jīng)被納入了ROS系統(tǒng)成為了標(biāo)配。而反觀視覺SLAM,首先圖像處理本身就是一門很深的學(xué)問,而基于非線性優(yōu)化的地圖構(gòu)建上也是非常復(fù)雜和耗時的計算問題?,F(xiàn)在已經(jīng)有許多優(yōu)秀的開源算法(如ORB-SLAM[2]、LSD-SLAM[3]),但在實際環(huán)境中優(yōu)化和改進現(xiàn)有的視覺SLAM框架,比如加入光照模型、使用深度學(xué)習(xí)提取的特征點、以及使用單雙目及多目融合視角等技術(shù),將是視覺SLAM進一步提升性能和實用性的必由之路。這些技術(shù)的算法門檻也遠遠高于激光SLAM。

計算需求

毫無疑問,激光SLAM的計算性能需求大大低于視覺SLAM。主流的激光SLAM可以在普通ARM CPU上實時運行,而視覺SLAM基本都需要較為強勁的準(zhǔn)桌面級CPU或者GPU支持。但業(yè)界也看到了這其中蘊藏的巨大機會,為視覺處理定制的ASICS市場已經(jīng)蠢蠢欲動。一個很好的例子是Intel旗下的Movidius,他們設(shè)計了一種特殊的架構(gòu)來進行圖像、視頻與深度神經(jīng)網(wǎng)絡(luò)的處理,在瓦級的超低功耗下達到桌面級GPU才擁有的吞吐量。DJI的精靈4系列產(chǎn)品就是使用這類專用芯片,實現(xiàn)了高速低功耗的視覺計算,為無人機避障和近地面場景導(dǎo)航提供根據(jù)。

多機協(xié)作

視覺主要是被動探測,不存在多機器人干擾問題。而激光雷達主動發(fā)射,在較多機器人時可能產(chǎn)生干擾。尤其是固態(tài)激光雷達的大量使用,可能使得場景中充滿了信號污染,從而影響激光SLAM的效果。

未來趨勢

激光SLAM和視覺SLAM各擅勝場,單獨使用都有其局限性,而融合使用則可能具有巨大的取長補短的潛力。例如,視覺在紋理豐富的動態(tài)環(huán)境中穩(wěn)定工作,并能為激光SLAM提供非常準(zhǔn)確的點云匹配,而激光雷達提供的精確方向和距離信息在正確匹配的點云上會發(fā)揮更大的威力(圖4)。而在光照嚴(yán)重不足或紋理缺失的環(huán)境中,激光SLAM的定位工作使得視覺可以借助不多的信息進行場景記錄。

圖4,KITTI數(shù)據(jù)集視覺里程計。ORB-SLAM[2],雙目視覺

V-LOAM[4],視覺引導(dǎo)激光修正

現(xiàn)實中的激光與視覺SLAM系統(tǒng)幾乎都會配備慣性元件、輪機里程計、衛(wèi)星定位系統(tǒng)、室內(nèi)基站定位系統(tǒng)等輔助定位工具,而近年來SLAM系統(tǒng)與其他傳感器的融合成為了一大熱點。不同于以往基于卡爾曼濾波的松耦合融合方法,現(xiàn)在學(xué)界的熱點是基于非線性優(yōu)化的緊耦合融合。例如與IMU的融合和實時相互標(biāo)定,使得激光或視覺模塊在機動 (猛烈加減速和旋轉(zhuǎn)) 時可以保持一定的定位精度,防止跟蹤丟失,極大的提高定位與地圖構(gòu)建的穩(wěn)定性。

激光點云信息本身也仍有潛力可挖。在高端的遠距離多線激光雷達上,返回的點云除了包含方向和距離信息,還可以加入目標(biāo)點的反射率信息。當(dāng)線數(shù)較多較密時,由反射率信息構(gòu)成的數(shù)據(jù)可以視為一種紋理信息,因此可以在一定程度上享受視覺算法和紋理信息帶來的重定位等方面的優(yōu)勢。這些信息一旦融入到高精度地圖中,高精度地圖就可以在點云紋理兩種形式間無縫切換,使得利用高精度地圖的定位可以被只擁有廉價攝像頭的自動駕駛汽車分享。這也是目前國外一些團隊的研究方向([5])。

同時,視覺所依賴的投影模型,蘊含著非常豐富的“混搭”玩法。長、短基線的單雙目結(jié)合,可以在保證大尺度定位水平的同時提高中近距離的障礙探測和地圖構(gòu)建精度;廣角魚眼和360度全向攝像頭與標(biāo)準(zhǔn)單雙目的結(jié)合,使得VSLAM的覆蓋范圍可以進一步提升,特別適合對場景按照距離的遠近進行不同精度不同速度的定位。被動視覺與深度相機的結(jié)合,催生了RGB-D SLAM,而深度相機量程的逐步擴大,將給這種特殊VSLAM帶來更大的應(yīng)用空間。

VSLAM的另一個也許更宏大的擴展在AI端。端到端的深度學(xué)習(xí)所帶來的圖像特征,已經(jīng)在識別和分類領(lǐng)域大大超越了人類手工選擇的SIFT/SURF/ORB等特征。我們可以很安全的說,未來在低紋理、低光照等環(huán)境下,深度學(xué)習(xí)所訓(xùn)練出的提取、匹配和定位估算等方法,也一定會超越目前VSLAM領(lǐng)域最先進的手工方法。更不用說,圖像本身所大量攜帶的信息,可以廣泛用于場景理解、場景分類、物體識別、行為預(yù)測等重要方面。一個很可能的情況是,未來視覺處理系統(tǒng)將直接包含定位、地圖構(gòu)建、運動規(guī)劃、場景理解以及交互等多個功能模塊,更緊密的聯(lián)合帶來更加智能的機器人行動能力。

如果想深入了解SLAM技術(shù)的過去、現(xiàn)在和未來趨勢,我們推薦文獻[6]。

結(jié)語

SLAM技術(shù)將賦予為機器人和智能體前所未有的行動能力。作為當(dāng)前SLAM框架的主要類型,激光SLAM與視覺SLAM必將在相互競爭和融合中發(fā)展,必將帶來機器人技術(shù)和人工智能技術(shù)的真正革命,也將使得機器人從實驗室和展示廳中走出來,真正服務(wù)和解放人類。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 激光
    +關(guān)注

    關(guān)注

    21

    文章

    3711

    瀏覽量

    69844
  • SLAM
    +關(guān)注

    關(guān)注

    24

    文章

    460

    瀏覽量

    33426

原文標(biāo)題:激光SLAM與視覺SLAM的現(xiàn)狀與趨勢

文章出處:【微信號:IV_Technology,微信公眾號:智車科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    為什么無圖智駕不使用SLAM建立局部語義地圖?

    個過程中,BEV、Occupancy(占用網(wǎng)絡(luò))和Transformer的組合成了主流,而曾經(jīng)在機器人領(lǐng)域立下汗馬功勞的SLAM方案,卻沒有在智駕領(lǐng)域大放異彩。為什么無圖智駕不使用SLAM建立局部語義地圖? ? 為什么傳統(tǒng)的幾何建圖跟不上變化? 傳統(tǒng)的SLA
    的頭像 發(fā)表于 04-29 08:55 ?254次閱讀
    為什么無圖智駕不使用<b class='flag-5'>SLAM</b>建立局部語義地圖?

    ROS2 SLAM建圖與導(dǎo)航實戰(zhàn)--基于米爾RK3576開發(fā)板

    第六章:實體機器人部署指南 6.1 硬件抽象與驅(qū)動層 激光雷達驅(qū)動:例如ros2 launch sllidar_ros2 view_sllidar_a1_launch.py 里程計融合
    發(fā)表于 03-12 17:55

    從倉儲到無人駕駛:一文讀懂激光SLAM如何顛覆自主導(dǎo)航

    隨著人工智能和機器人技術(shù)的飛速發(fā)展, 智能復(fù)合機器人 正在各行各業(yè)掀起技術(shù)革命,尤其在制造業(yè)、醫(yī)療、物流等領(lǐng)域展現(xiàn)了極大的潛力。特別是基于視覺反饋的智能復(fù)合機器人,它通過高效的視覺傳感器,能實現(xiàn)環(huán)境
    的頭像 發(fā)表于 02-09 16:46 ?170次閱讀

    SLAM如何為自動駕駛提供空間感知能力?

    ,并精準(zhǔn)地判斷自己與障礙物的距離。這種看似本能的空間感知能力,在工程學(xué)領(lǐng)域被具象化為同步定位與地圖構(gòu)建技術(shù),即我們常說的SLAM。在自動駕駛的發(fā)展進程中,SLAM不僅是車輛在未知環(huán)境中“生存”的技能,更是其實現(xiàn)厘米級高
    的頭像 發(fā)表于 02-09 09:12 ?579次閱讀
    <b class='flag-5'>SLAM</b>如何為自動駕駛提供空間感知能力?

    什么是激光雷達 3D SLAM技術(shù)?

    在智能移動設(shè)備自主運行的賽道上,激光雷達3DSLAM技術(shù)正成為破局關(guān)鍵,但多數(shù)人對其認知仍停留在表層。要讀懂這一核心技術(shù),不妨先回溯“SLAM”的本質(zhì)——SLAM
    的頭像 發(fā)表于 12-02 19:23 ?815次閱讀
    什么是<b class='flag-5'>激光</b>雷達 3D <b class='flag-5'>SLAM</b>技術(shù)?

    華為Limera,激光+視覺融合的新嘗試

    電子發(fā)燒友網(wǎng)綜合報道 激光雷達和視覺融合的傳感器,近年來似乎成為了一個趨勢。這種融合的趨勢有幾種方向,一是將攝像頭和激光雷達集成在一個模塊中
    的頭像 發(fā)表于 11-21 08:50 ?5382次閱讀
    華為Limera,<b class='flag-5'>激光</b>+<b class='flag-5'>視覺</b><b class='flag-5'>融合</b>的新嘗試

    FPGA和GPU加速的視覺SLAM系統(tǒng)中特征檢測器研究

    特征檢測是SLAM系統(tǒng)中常見但耗時的模塊,隨著SLAM技術(shù)日益廣泛應(yīng)用于無人機等功耗受限平臺,其效率優(yōu)化尤為重要。本文首次針對視覺SLAM流程開展硬件加速特征檢測器的對比研究,通過對比
    的頭像 發(fā)表于 10-31 09:30 ?892次閱讀
    FPGA和GPU加速的<b class='flag-5'>視覺</b><b class='flag-5'>SLAM</b>系統(tǒng)中特征檢測器研究

    自動駕駛中如何將稀疏地圖與視覺SLAM相結(jié)合?

    [首發(fā)于智駕最前沿微信公眾號]在自動駕駛場景中,稀疏地圖通常是由一系列關(guān)鍵幀和若干三維稀疏特征點構(gòu)成的地圖,每個特征點包含三維坐標(biāo)和描述外觀的描述子;而視覺SLAM是運行在車輛上的實時算法,它一邊
    的頭像 發(fā)表于 10-28 09:07 ?824次閱讀
    自動駕駛中如何將稀疏地圖與<b class='flag-5'>視覺</b><b class='flag-5'>SLAM</b>相結(jié)合?

    全新輕量級ViSTA-SLAM系統(tǒng)介紹

    無需相機內(nèi)參、極致輕量的前端(前端模型大小僅為同類35%),實時單目視覺SLAM,ViSTA-SLAM。與現(xiàn)有方法相比,ViSTA-SLAM不僅更輕、更快,在相機跟蹤和密集3D重建質(zhì)量
    的頭像 發(fā)表于 09-22 15:53 ?1229次閱讀
    全新輕量級ViSTA-<b class='flag-5'>SLAM</b>系統(tǒng)介紹

    一種適用于動態(tài)環(huán)境的自適應(yīng)先驗場景-對象SLAM框架

    由于傳統(tǒng)視覺SLAM在動態(tài)場景中容易會出現(xiàn)嚴(yán)重的定位漂移,本文提出了一種新穎的基于場景-對象的可靠性評估框架,該框架通過當(dāng)前幀質(zhì)量指標(biāo)以及相對于可靠參考幀的場景變化,全面評估SLAM的穩(wěn)定性。
    的頭像 發(fā)表于 08-19 14:17 ?1022次閱讀
    一種適用于動態(tài)環(huán)境的自適應(yīng)先驗場景-對象<b class='flag-5'>SLAM</b>框架

    解析尋跡智行3D SLAM無人叉車的&quot;智慧&quot;從何而來?(本文純干貨)

    尋跡智行率先研發(fā)成功3D SLAM激光導(dǎo)航技術(shù)在無人叉車領(lǐng)域應(yīng)用并實現(xiàn)規(guī)?;慨a(chǎn),成功突破高精度環(huán)境感知與自主決策的技術(shù)瓶頸,重新定義倉儲物流的智能化標(biāo)準(zhǔn)。
    的頭像 發(fā)表于 07-22 11:53 ?679次閱讀
    解析尋跡智行3D <b class='flag-5'>SLAM</b>無人叉車的&quot;智慧&quot;從何而來?(本文純干貨)

    基于深度學(xué)習(xí)的增強版ORB-SLAM3詳解

    ORB-SLAM3雖是當(dāng)前最先進的SLAM之一,但由于使用傳統(tǒng)的ORB(定向FAST和旋轉(zhuǎn)BRIEF)特征,在尺度、旋轉(zhuǎn)和光照發(fā)生顯著變化時可能會表現(xiàn)出局限性。
    的頭像 發(fā)表于 07-14 17:21 ?2042次閱讀
    基于深度學(xué)習(xí)的增強版ORB-<b class='flag-5'>SLAM</b>3詳解

    一種適用于動態(tài)環(huán)境的實時RGB-D SLAM系統(tǒng)

    近期用于視覺SLAM的3D高斯?jié)姙R(3DGS)技術(shù)在跟蹤和高保真建圖方面取得了顯著進展。然而,其順序優(yōu)化框架以及對動態(tài)物體的敏感性限制了其在現(xiàn)實場景中的實時性能和魯棒性。為此,我們提出
    的頭像 發(fā)表于 07-04 15:14 ?1484次閱讀
    一種適用于動態(tài)環(huán)境的實時RGB-D <b class='flag-5'>SLAM</b>系統(tǒng)

    三維高斯?jié)姙R大規(guī)模視覺SLAM系統(tǒng)解析

    近期興起的神經(jīng)輻射場(NeRF)與三維高斯?jié)姙R(3DGS)技術(shù)在視覺SLAM中展現(xiàn)出令人鼓舞的突破性成果。然而,當(dāng)前主流方法多依賴RGBD傳感器,并且僅適用于室內(nèi)環(huán)境。在大規(guī)模室外場景中的重建魯棒性
    的頭像 發(fā)表于 05-27 14:13 ?1858次閱讀
    三維高斯?jié)姙R大規(guī)模<b class='flag-5'>視覺</b><b class='flag-5'>SLAM</b>系統(tǒng)解析

    基于高斯的稠密視覺SLAM研究

    基于高斯的場景表示在新視角下會出現(xiàn)幾何失真,這大大降低了基于高斯的跟蹤方法的準(zhǔn)確性。這些幾何不一致主要源于高斯基元的深度建模以及在深度融合過程中表面之間的相互干擾。為了解決這些問題,我們提出了一種
    的頭像 發(fā)表于 05-15 10:36 ?1283次閱讀
    基于高斯的稠密<b class='flag-5'>視覺</b><b class='flag-5'>SLAM</b>研究
    新兴县| 淮阳县| 长治县| 广宁县| 平舆县| 河南省| 遂宁市| 壤塘县| 松桃| 文安县| 商城县| 儋州市| 盐津县| 巩留县| 富民县| 琼海市| 河南省| 义乌市| 台安县| 资兴市| 顺义区| 青铜峡市| 奎屯市| 开鲁县| 桃江县| 芦山县| 札达县| 合作市| 历史| 正安县| 大冶市| 揭阳市| 文化| 金秀| 湟源县| 宁化县| 明溪县| 如皋市| 来安县| 噶尔县| 三门峡市|