日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

幾個經(jīng)典的立體匹配算法的評價指標和數(shù)據(jù)集

倩倩 ? 來源:3D視覺工坊 ? 作者:Penny ? 2022-09-07 15:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

一. ADCensus背景介紹

到目前為止,我通過解讀Stefano Mattoccia教授的經(jīng)典講義,介紹了立體匹配算法的全貌。然后介紹了幾個經(jīng)典的立體匹配算法的評價指標和數(shù)據(jù)集。下一步我將介紹經(jīng)典的立體匹配算法,并展示它們在實際中的應(yīng)用。 先來看看你現(xiàn)在讀到哪里了吧:

e61434f2-2e39-11ed-ba43-dac502259ad0.jpg

經(jīng)典立體匹配算法局部法和全局法的總體流程,如下圖所示:

e6319ef2-2e39-11ed-ba43-dac502259ad0.jpg

事實上,有一些算法的流程比較混合——比如今天我將介紹的一個經(jīng)典立體匹配算法,它總體來說是局部法的流程,但其中也有少量模塊在進行視差優(yōu)化的過程。 這個方法很多人簡稱為ADCensus,是三星先進技術(shù)研究院中國實驗室以及中科院自動化所的一群學(xué)者的成果,文章發(fā)表于2011年:

e651da1e-2e39-11ed-ba43-dac502259ad0.jpg

我用下圖總結(jié)這篇文章的完整流程,我們可以利用Stefano Mattoccia教授給出的流程來對比理解ADCensus。

e66889a8-2e39-11ed-ba43-dac502259ad0.jpg

這個算法我個人非常喜歡,因為它的流程非常規(guī)范,而且易于理解。簡直就像學(xué)習(xí)了Stefano Mattoccia教授的講義后,將各個標準組件用當時各種優(yōu)秀的算法實現(xiàn)并串聯(lián)起來的作品,可以說上面圖中每一個組件都有當時已經(jīng)發(fā)表的論文做基礎(chǔ)。但作者也并非簡單的搞了一個縫合怪出來, 而是把許多組件都做了創(chuàng)造性的優(yōu)化。比如把AD和Census兩種特征融合在一起計算代價,并優(yōu)化了基于十字架的代價聚合算法,同時組合使用了一系列的視差優(yōu)化的后處理算法。而且,作者還在文章中描述了算法的CUDA實現(xiàn),使得這個算法可以高效的在硬件上運行。 每一年計算機視覺領(lǐng)域都有大量的研究成果,但其中能夠?qū)嵱没恼娴牟欢?,而ADCensus就是其中之一。據(jù)我了解,很多硬件實現(xiàn)的立體匹配算法受到了ADCensus的啟發(fā)。比如OAK相機,這是一個由OpenCV基金會發(fā)起的成功的眾籌產(chǎn)品,可以實時計算深度圖,完成一系列復(fù)雜的功能。

e67e2394-2e39-11ed-ba43-dac502259ad0.jpg

它們推出了多款產(chǎn)品,我手上有下面這一款:

e6922a92-2e39-11ed-ba43-dac502259ad0.jpg

這個相機內(nèi)部集成的立體匹配算法,就是基于ADCensus的思想實現(xiàn)的,我們可以在這里查到相應(yīng)的介紹,如下圖所示,當然這里為了效率在原始的算法上做了必要的裁剪和調(diào)整。

e6a253fe-2e39-11ed-ba43-dac502259ad0.jpg

另外,Intel公司的著名產(chǎn)品Intel Realsense D400后的系列RGBD相機也借鑒了本文作者提出的立體匹配算法,特別是其中代價計算部分,在Census特征基礎(chǔ)上疊加AD這樣的特征,就是從ADCensus方法中借鑒的方法。 如果你查看2017年CVPR的下面這篇關(guān)于Intel RealSense的論文,你會看到對此的清晰描述

e6ccd192-2e39-11ed-ba43-dac502259ad0.jpg

總之,一群中國學(xué)者,在2011年左右搞出了一種非常實用化的立體匹配算法,在很多領(lǐng)域都得到了應(yīng)用,非常值得欽佩!

二. 效果展示

我在github上找到了一個比較原汁原味的算法實現(xiàn):https://github.com/DLuensch/StereoVision-ADCensus,我們來看看效果吧。 先來看兩對MiddleBurry中的經(jīng)典圖像,左上和左下是校正后的圖像,右邊是算法默認參數(shù)生成的視差圖,看起來還不錯:

e6f21984-2e39-11ed-ba43-dac502259ad0.jpg

再看看這把椅子吧,看起來對這種復(fù)雜的場景稍微差點意思,需要仔細的調(diào)優(yōu)參數(shù)才行(我?guī)缀跤玫氖悄J參數(shù)):

e705fcb0-2e39-11ed-ba43-dac502259ad0.jpg

來試試摩托車,盡管還遺留了一些空洞,整個畫面的深度圖還是被正確恢復(fù)出來了,總的來說,效果還是令人滿意的

e7142ace-2e39-11ed-ba43-dac502259ad0.jpg

再看看在MPI Sintel數(shù)據(jù)集上的效果,這個數(shù)據(jù)集的具體介紹請見76. 三維重建11-立體匹配7,解析合成數(shù)據(jù)集和工具,可以看到前景效果總體來說不錯,背景似乎都為0,看起來是因為太遠了的原因?

e7263c50-2e39-11ed-ba43-dac502259ad0.jpg

然后我們請出我的御用模特Sunny妹來試試,看起來默認參數(shù)在這種場景下有很多錯誤,需要仔細調(diào)參才能得到更好的結(jié)果。我們待會會仔細分析下ADCensu算法的各個步驟和相關(guān)參數(shù):

e7471736-2e39-11ed-ba43-dac502259ad0.jpg

三. 原理簡介

3.1 代價計算

立體匹配算法總體理解中說過代價計算的過程類似于連連看的過程:

e7679e20-2e39-11ed-ba43-dac502259ad0.jpg

最簡單的代價就是左右圖中相應(yīng)像素的亮度絕對差,這種代價被稱為AD:

e775e944-2e39-11ed-ba43-dac502259ad0.jpg

然而,這種代價在圖像中的平坦區(qū)域(亮度值都差不多)很顯然會得到錯誤的結(jié)果。此時顯然應(yīng)該使用別的特征來計算代價。Cencus就是一種很好的特征,它衡量了局部區(qū)域中像素亮度的排序,這是一種結(jié)構(gòu)信息。這就使得它很好的避免了左右圖像素亮度差異、噪聲、重復(fù)紋理等因素帶來的錯誤。 不過,僅使用Census特征的話,在圖像中重復(fù)結(jié)構(gòu)的區(qū)域,也會得到錯誤的結(jié)果。這時候顏色或亮度特征則可以加以輔助。所以ADCensus的作者創(chuàng)造了一種很不錯的融合亮度差異和結(jié)構(gòu)差異的方法,如下面公式所述。這里前一部分是基于Census的代價,后一部分是AD代價,所以這個算法才被很多人稱為ADCensus:

e784cfae-2e39-11ed-ba43-dac502259ad0.jpg

這里面,為了讓兩部分代價歸一化到[0,1]之間,作者采用了下面這個歸一化函數(shù),它能很方便的將輸入的原始代價轉(zhuǎn)換為[0,1]之間的值,而這里的λ則用于設(shè)置代價的權(quán)重:

e7942990-2e39-11ed-ba43-dac502259ad0.jpg

我們通過作者給出的下圖可以很容易的看到混合兩種代價帶來的好處:

e7a26e9c-2e39-11ed-ba43-dac502259ad0.jpg

這時候,直接利用AD-Census計算固定窗口的代價,然后用WTA得到視差圖,如下圖所示。我們可以看到這里有大量的噪聲和空洞區(qū)域。這是很容易理解的,所以才需要下一節(jié)所述的代價聚合過程:

e7b749c0-2e39-11ed-ba43-dac502259ad0.jpg

3.2 代價聚合

ADCensus所用的代價聚合方法很有意思。在我的文章71. 三維重建6-立體匹配2,立體匹配中的代價聚合中,我提到了代價聚合的假設(shè):

空間上接近的像素,其視差值也是接近的,于是代價值也是接近的

像素值接近的像素,其視差值也是接近的,于是代價值也是接近的

左右兩張圖的相鄰像素,在關(guān)鍵信息上具有局部相似性

我們還看到了各種各樣的聚合方式,有一類方式就是用可變形狀的支持窗來進行聚合的——ADCensus的方法就屬于這種。當要確定某個像素點p的支持窗時,它是通過尋找上下左右四個"臂",在這四個臂的包裹下構(gòu)成了其支持窗。確切說,首先找到p的上下臂,也就是在空間和像素值兩個維度上都盡可能接近p的兩端像素。這樣就構(gòu)成了一個包含在p內(nèi)的垂直的像素線段。在這條線段上的任何一個點q,我們都確定其左右臂,得到水平的遠端像素。這樣,所有q點的左右臂的遠端像素就形成了一個包絡(luò),其中就是p點的支持窗。

e7c55f4c-2e39-11ed-ba43-dac502259ad0.jpg

有了支持窗后,就比較容易聚合了,先在水平方向聚合,將水平方向的代價值加到一起。然后在垂直方向聚合,得到總的代價:

e7d9b4b0-2e39-11ed-ba43-dac502259ad0.jpg

事實上,ADCensus中為了讓結(jié)果更好,進行了4次交替方向的聚合。即先水平再垂直,這是第1次。第二次相反,先垂直,再水平。然后再進行2次交替的聚合。最終四次的代價整合到一起,成為最后聚合后的代價值。 那么,如何得到上面所說的p點的四個臂呢?這似乎是得到支持窗的關(guān)鍵。我們以獲得p的左臂為例來說明:

e7e9a7da-2e39-11ed-ba43-dac502259ad0.jpg

所以很顯然,這里面的幾個參數(shù)L1, L2等參數(shù)τ2 都很重要??傊?,通過這一步代價聚合后,我們能夠得到更加平滑的視差圖,如下圖所示:

e807d476-2e39-11ed-ba43-dac502259ad0.jpg

3.3 掃描線優(yōu)化

在文章72. 三維重建7-立體匹配3,立體匹配算法中的視差優(yōu)化中,我們看到了一種掃描線優(yōu)化的方法。ADCensus也采用了這種方法,通過聚合后的代價優(yōu)化得到視差圖。在這篇文章中我已經(jīng)詳細闡述了方法,這里只說說不同之處。在原始的掃描線優(yōu)化方法中,一共是8個方向。而ADCensus為了提高計算速度,只采用了其中的0、1、2、3這幾個水平和垂直的掃描線:

e82c4310-2e39-11ed-ba43-dac502259ad0.jpg

通過這一步,能得到更加準確的視差圖,如下圖所示。相比上面代價聚合后的結(jié)果,這里明顯噪聲小了很多:

e840a742-2e39-11ed-ba43-dac502259ad0.jpg

3.4 視差后處理

接下來就是視差后處理了,這里是我覺得這個算法的可圈可點之處。作者幾乎把我在73. 三維重建8-立體匹配4,利用視差后處理完善結(jié)果中提到的視差后處理方法都用上了,形成了一個復(fù)雜的管線,如下圖所示。我會在后面對這種方式進行評價,但讓我們先跟著作者的脈絡(luò)往下學(xué)習(xí)吧。

e85424ac-2e39-11ed-ba43-dac502259ad0.png

3.4.1 錯誤檢測和區(qū)分

首先需要通過左右一致性檢查判斷哪些像素是錯誤的:

e86a8b66-2e39-11ed-ba43-dac502259ad0.jpg

然后,通過一個簡單的法則來區(qū)分到底是因為遮擋導(dǎo)致的錯誤,還是因為錯誤匹配導(dǎo)致的錯誤。遮擋像素?zé)o論調(diào)整d為多少,都無法通過左右一致性檢測。而錯誤匹配則可以通過調(diào)整d,得到滿足左右一致性檢查的新視差值。

e87dcf6e-2e39-11ed-ba43-dac502259ad0.jpg

e88c7c4e-2e39-11ed-ba43-dac502259ad0.jpg

接下來,就可以分別對遮擋和錯誤匹配進行處理了。

3.4.2 區(qū)域投票

首先進行區(qū)域投票。在錯誤像素點p的支持窗內(nèi),對所有正確計算視差的像素(即通過了左右一致性檢測)的視差值建立一個直方圖。如果這個支持窗中穩(wěn)定視差值足夠多,并且直方圖中占比最大的視差值的占比大于某個閾值,我們就把p點的視差值更新為最大占比的視差值:

e8a94202-2e39-11ed-ba43-dac502259ad0.jpg

這里面,Sp代表支持窗中正確視差值的個數(shù),Hp(d*p)代表直方圖中占比最大的視差值的數(shù)量

e8c61e72-2e39-11ed-ba43-dac502259ad0.jpg

3.4.3 分情況插值

前面我們區(qū)分了遮擋像素和錯誤匹配的像素,現(xiàn)在分情況進行插值。

首先對于錯誤像素,我們尋找16個方向上的最相似的正確匹配的像素。

接下來,如果當前像素在3.4.1節(jié)中被劃分為了遮擋像素,那么就從這些正確像素中挑選最小的視差,用于填充當前像素的視差值,也就是說假設(shè)遮擋像素屬于背景。

而如果當前像素是錯誤匹配的像素,那么就從這些正確點中挑選與當前像素顏色維度最相似的那一個,用其視差填充當前像素。

現(xiàn)在再來看看結(jié)果,很明顯大量的錯誤像素被成功插值了。不過也可以看到,部分遮擋像素還是未填充視差值,這是因為在其16個方向都找不到滿足條件的正確像素,這里主要是因為用1個參數(shù)限制了在一個方向上的最大搜索像素。如果增加這個參數(shù)的值,應(yīng)該可以使得更多的像素得到填充。

e8e4d952-2e39-11ed-ba43-dac502259ad0.jpg

3.4.4 修正邊緣處的視差值

考慮到物體邊緣的視差值不穩(wěn)定,容易出錯,因此作者還加入了一個步驟,對邊緣處的視差值進行微調(diào)。具體來說,先檢測到所有的邊緣,接著對邊緣上的像素p,我們判斷其在邊緣兩側(cè)的兩個相鄰像素p1或p2的代價是否小于p點的代價。如果確實如此,那么就用p1和p2中代價最小的那個像素的視差值來替換p點的視差值。 不過對于當前這對圖像,似乎邊緣調(diào)整帶來的變化很小,肉眼幾乎分不出來。當然,這是可以理解的,因為這只是“微調(diào)”

e8fbf3b2-2e39-11ed-ba43-dac502259ad0.jpg

3.4.5 亞像素增強和濾波

調(diào)整完邊緣后,作者采用了我在文章73. 三維重建8-立體匹配4,利用視差后處理完善結(jié)果中提到的亞像素增強,將整數(shù)型的視差值插值為了浮點數(shù)型的視差值

e90f937c-2e39-11ed-ba43-dac502259ad0.jpg

然后,對最后的視差圖做了1個3x3的中值濾波,去除微小的噪聲,這就得到了最終的視差圖:

e921de92-2e39-11ed-ba43-dac502259ad0.jpg

我把整個過程做成一個視頻,可以看得更清楚些:

四. 算法討論

正如我在文章開篇所說,我挺喜歡ADCensus這個算法的。因為它是由一個又一個非常容易理解的子部件組合而成的。這種結(jié)構(gòu)也使得實現(xiàn)起來很容易,而且還可以根據(jù)工程需要刪除或者替換其中的子部件。 比如,在文章開篇我們看到的OAK Camera的流程,通過官方的流程圖可以看出跟原版ADCensus很相似,用了Census特征,掃描線優(yōu)化,左右一致性檢測后的插值,還增加了更多的濾波器。似乎裁減掉了區(qū)域投票、邊緣調(diào)整等步驟:

e6a253fe-2e39-11ed-ba43-dac502259ad0.jpg

從效果上看,OAK Camera僅通過單通道的雙目圖像,就已經(jīng)能實時得到不錯的結(jié)果,這進一步證明了類ADCensus算法的有效性:

e94705e6-2e39-11ed-ba43-dac502259ad0.jpg

e96bd574-2e39-11ed-ba43-dac502259ad0.jpg

而且,作者還專門闡釋了在硬件上優(yōu)化實現(xiàn)的方案,包括代價計算,代價聚合,掃描線優(yōu)化等在內(nèi)的步驟都可以用硬件來并行計算。在作者的論文中,通過硬件加速,算法執(zhí)行速度提升了最高140倍!OAK Camera應(yīng)該也是借鑒了其中的思想,所以能實時計算得到視差圖。 然而,硬幣總有兩面,由多個子部件來構(gòu)成一個完整的算法管線,也會帶來新的問題。由于每個部件都有自己的參數(shù),這就導(dǎo)致要將算法調(diào)整到最佳狀態(tài)非常困難,因為參數(shù)數(shù)量太多了,而且各個部件之間有強相關(guān)關(guān)系,調(diào)整前一個步驟的參數(shù),可能會影響到后一個步驟,這就使得調(diào)整參數(shù)更加復(fù)雜。而且,在不同的數(shù)據(jù)集上,參數(shù)的值顯然不相同,所以導(dǎo)致這個算法的泛化性很成問題。 前面的開源實現(xiàn)https://github.com/DLuensch/StereoVision-ADCensus, 里面,就定義了眾多參數(shù):

e9802bd2-2e39-11ed-ba43-dac502259ad0.jpg

前面我們Sunny妹的圖片,采用MiddleBurry數(shù)據(jù)集上調(diào)出的默認參數(shù)時就存在很多區(qū)域的錯誤。很顯然,此時應(yīng)該在這種場景下對參數(shù)進行精調(diào)才行。

e7471736-2e39-11ed-ba43-dac502259ad0.jpg

比如在OAK-Camera上調(diào)整參數(shù)后,可以得到這個結(jié)果,明顯的錯誤像素少了許多:

e9a689b2-2e39-11ed-ba43-dac502259ad0.jpg

用多個子部件組成算法管線,還存在性能優(yōu)化的問題。因為你不得不優(yōu)化每一個部件的性能,才能得到一個高性能的算法——這對立體匹配通常非常重要。

五. 總結(jié)

今天,我為你介紹了一個經(jīng)典的立體匹配算法ADCensus,其流程非常規(guī)整。它很容易理解,很容易實現(xiàn),并且被許多知名的硬件設(shè)備所借鑒,比如OpenCV官方推出的OAK Camera,以及Intel Realsense。 它的作者是一群中國學(xué)者,嗯,好感度++ 它遵循的范式是用一堆容易理解的子模塊構(gòu)成整個算法,似乎咱普通人也能想得到這種思想:

e66889a8-2e39-11ed-ba43-dac502259ad0.jpg

ADCensus算法也有自己的缺點:參數(shù)眾多、難以調(diào)整、泛化性不夠高。模塊眾多,優(yōu)化復(fù)雜,很吃經(jīng)驗。 那么,有沒有更好的方式呢?這也是我后面的文章中會講述的,讓我們拭目以待吧。

e9c79a94-2e39-11ed-ba43-dac502259ad0.jpg

六. 參考資料

1.X. Mei etc.,On building an accurate stereo matching system on graphics hardware2.OAK-Camera:https://store.opencv.ai/products/oak-d3.Leonid Keselman etc.Intel RealSense Stereoscopic Depth Cameras4.開源實現(xiàn):https://github.com/DLuensch/StereoVision-ADCensus

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 模塊
    +關(guān)注

    關(guān)注

    7

    文章

    2849

    瀏覽量

    53459
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4810

    瀏覽量

    98610
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1240

    瀏覽量

    26263

原文標題:立體匹配經(jīng)典算法:ADCensus

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    深圳2026綠色工廠申報啟動,安科瑞助企業(yè)在14項評價指標中精準拿分

    引言 026年3月23日,深圳市工業(yè)和信息化局正式發(fā)布《關(guān)于開展2026年深圳市綠色工廠創(chuàng)建工作的通知》,同步明確:評價指標體系包括能源低碳化、資源高效化、生產(chǎn)潔凈化、產(chǎn)品綠色化、用地集約化5個方面
    的頭像 發(fā)表于 03-25 13:38 ?214次閱讀
    深圳2026綠色工廠申報啟動,安科瑞助企業(yè)在14項<b class='flag-5'>評價</b><b class='flag-5'>指標</b>中精準拿分

    622 Mbps時鐘和數(shù)據(jù)恢復(fù)IC——ADN2806的技術(shù)解析與應(yīng)用指南

    的ADN2806芯片便是一款出色的622 Mbps時鐘和數(shù)據(jù)恢復(fù)IC,下面我們來詳細了解它的特性、工作原理及應(yīng)用設(shè)計。 文件下載: ADN2806.pdf 一、ADN2806的特性亮點 1. 高性能指標 抖動性能
    的頭像 發(fā)表于 03-23 11:20 ?372次閱讀

    雙目立體視覺相機產(chǎn)品介紹

    身設(shè)計。設(shè)備內(nèi)置高性能立體匹配算法,可直接輸出高精度的深度圖與點云數(shù)據(jù),無需額外復(fù)雜的后期處理,同時提供一站式完整智能視覺解決方案,全面支持全類型目標識別、實時檢測
    的頭像 發(fā)表于 02-28 15:08 ?294次閱讀
    雙目<b class='flag-5'>立體</b>視覺相機產(chǎn)品介紹

    賽目科技Sim Pro賦能自動駕駛算法評價體系構(gòu)建

    規(guī)范、場景構(gòu)建、可信度評估與通過判定等方面提出系統(tǒng)化要求,其中評價指標體系是評價產(chǎn)品和算法是否滿足要求的重要依據(jù)。
    的頭像 發(fā)表于 02-26 11:17 ?756次閱讀
    賽目科技Sim Pro賦能自動駕駛<b class='flag-5'>算法</b><b class='flag-5'>評價</b>體系構(gòu)建

    PID控制的算法

    當中,PID控制算法又是最簡單,最能體現(xiàn)反饋思想的控制算法,可謂經(jīng)典中的經(jīng)典經(jīng)典的未必是復(fù)雜的,經(jīng)典
    發(fā)表于 01-23 08:18

    API自動化:淘寶評價管理工具的技術(shù)實現(xiàn)

    ? 淘寶評價管理是商家維護口碑的重要環(huán)節(jié),通過API自動化可以實現(xiàn)高效的評價監(jiān)控、回復(fù)及數(shù)據(jù)分析。以下是技術(shù)實現(xiàn)的關(guān)鍵點: 淘寶開放平臺API接入 申請?zhí)詫氶_放平臺的開發(fā)者賬號,創(chuàng)建應(yīng)用獲取App
    的頭像 發(fā)表于 01-07 15:24 ?299次閱讀
    API自動化:淘寶<b class='flag-5'>評價</b>管理工具的技術(shù)實現(xiàn)

    基于SD3589高精度雙目立體視覺相機:助力三維感知與智能化應(yīng)用

    的單獨相機模塊組成,固定基線60mm,內(nèi)置高性能雙目光學(xué)采集卡與立體匹配算法,實現(xiàn)毫秒級數(shù)據(jù)同步采集,可直接輸出高精度深度圖、點云數(shù)據(jù)及校正后RGB圖像,為自動化產(chǎn)
    的頭像 發(fā)表于 01-05 15:29 ?555次閱讀
    基于SD3589高精度雙目<b class='flag-5'>立體</b>視覺相機:助力三維感知與智能化應(yīng)用

    元服務(wù)交易評價

    功能簡介 元服務(wù)交易評價是元服務(wù)平臺官方提供的,反映用戶對元服務(wù)交易體驗的評價系統(tǒng)。在元服務(wù)中產(chǎn)生交易的用戶,可以針對本元服務(wù)的交易體驗進行打分、發(fā)表評論。 真實的評價內(nèi)容可以幫助用戶理解服務(wù)、輔助
    發(fā)表于 12-29 10:35

    RTK-SCAM-60雙目相機規(guī)格書

    產(chǎn)品概述本產(chǎn)品是一款高精度、5V供電的雙目立體視覺相機。它由兩個經(jīng)過精密同步和校準的獨立相機組成,固定基線為60mm,專為三維空間感知與距離測量而設(shè)計。通過內(nèi)置的立體匹配算法,可直接輸出高精度
    的頭像 發(fā)表于 12-10 15:45 ?577次閱讀
    RTK-SCAM-60雙目相機規(guī)格書

    SimData:基于aiSim的高保真虛擬數(shù)據(jù)生成方案

    01前言在自動駕駛感知系統(tǒng)的研發(fā)過程中,模型的性能高度依賴于大規(guī)模、高質(zhì)量的感知數(shù)據(jù)。目前業(yè)界常用的數(shù)據(jù)包括KITTI、nuScenes、WaymoOpenDataset等,它們?yōu)?/div>
    的頭像 發(fā)表于 11-07 17:35 ?5518次閱讀
    SimData:基于aiSim的高保真虛擬<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>集</b>生成方案

    目標追蹤的簡易實現(xiàn):模板匹配

    重新出現(xiàn)在幀圖象中時,迅速地重新捕捉到目標。 以上對目標追蹤這一領(lǐng)域做了簡要的說明,下面將會介紹目標追蹤算法中最簡單的一種 —— 模板匹配算法。 三、模板匹配
    發(fā)表于 10-28 07:21

    基于蜂鳥E203架構(gòu)的指令K擴展

    擴展指令架構(gòu)(RISC-V ISA)的K擴展。 K擴展是一種可選的指令擴展,它增加了一些向量和矩陣操作的指令。這些指令可以利用硬件并行性,高效地處理大量數(shù)據(jù)。K擴展的指令包括
    發(fā)表于 10-21 09:38

    云訓(xùn)練平臺數(shù)據(jù)過大無法下載數(shù)據(jù)至本地怎么解決?

    起因是現(xiàn)在平臺限制了圖片數(shù)量,想要本地訓(xùn)練下載數(shù)據(jù)時發(fā)現(xiàn)只會跳出網(wǎng)絡(luò)異常的錯誤,請問這有什么解決辦法?
    發(fā)表于 07-22 06:03

    使用AICube導(dǎo)入數(shù)據(jù)點創(chuàng)建后提示數(shù)據(jù)不合法怎么處理?

    重現(xiàn)步驟 data目錄下 labels.txt只有英文 **錯誤日志** 但是使用示例的數(shù)據(jù)可以完成訓(xùn)練并部署
    發(fā)表于 06-24 06:07

    數(shù)據(jù)下載失敗的原因?

    數(shù)據(jù)下載失敗什么原因太大了嗎,小的可以下載,想把大的下載去本地訓(xùn)練報錯網(wǎng)絡(luò)錯誤 大的數(shù)據(jù)多大?數(shù)據(jù)量有多少?
    發(fā)表于 06-18 07:04
    年辖:市辖区| 宁波市| 彰武县| 福州市| 文山县| 吴桥县| 天镇县| 凌源市| 宿迁市| 慈利县| 谷城县| 兴城市| 贡觉县| 兴义市| 华坪县| 芦山县| 安仁县| 乌拉特后旗| 临泽县| 和平区| 固始县| 澜沧| 海原县| 惠水县| 金乡县| 张北县| 荆州市| 伽师县| 大石桥市| 綦江县| 南和县| 阳原县| 栾川县| 定结县| 五寨县| 汤原县| 大洼县| 天水市| 泽库县| 成都市| 五台县|