日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于深度圖像的人體關(guān)節(jié)定位算法

新機(jī)器視覺(jué) ? 來(lái)源:上海交大類(lèi)腦智能應(yīng)用技 ? 作者:上海交大類(lèi)腦智能 ? 2022-07-15 10:05 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

人體姿態(tài)估計(jì)是當(dāng)前計(jì)算機(jī)視覺(jué)領(lǐng)域的熱點(diǎn)研究問(wèn)題。對(duì)人體骨架關(guān)節(jié)點(diǎn)進(jìn)行準(zhǔn)確提取并構(gòu)建人體骨架模型,為進(jìn)一步的人體姿態(tài)識(shí)別、實(shí)時(shí)交互游戲等應(yīng)用提供了基礎(chǔ)。但是傳統(tǒng)的基于RGB圖像的方法容易受到光照、陰影、復(fù)雜背景的影響,準(zhǔn)確度不高并且算法復(fù)雜。利用深度圖像技術(shù)可以有效地解決上述問(wèn)題,利用深度信息可以快速地進(jìn)行背景分割,抗干擾性能好,算法效率高。

本文主要研究基于深度圖像的人體關(guān)節(jié)定位算法。算法對(duì)深度圖像素點(diǎn)周?chē)鷧^(qū)域的深度進(jìn)行格點(diǎn)化采樣以提取其深度特征,再使用隨機(jī)森林分類(lèi)器進(jìn)行像素點(diǎn)分類(lèi),對(duì)同一類(lèi)別的點(diǎn)使用Mean Shift算法聚類(lèi)出中心點(diǎn),以該中心點(diǎn)作為關(guān)節(jié)點(diǎn)位置。該算法可對(duì)人體全身關(guān)節(jié)點(diǎn)進(jìn)行定位。

局域深度特征提取

本文中采用如圖1所示的局域深度采樣特征。其中藍(lán)色點(diǎn)表示圖像I中給定的像素x,以該像素為中心生成一個(gè)5*5的格點(diǎn)矩陣,紅色的格點(diǎn)表示要進(jìn)行深度采樣的點(diǎn)。

734edd8c-037d-11ed-ba43-dac502259ad0.png

圖1 局域深度采樣示意圖

隨機(jī)森林分類(lèi)器

分類(lèi)器是對(duì)樣本進(jìn)行分類(lèi)的算法的統(tǒng)稱(chēng),在機(jī)器學(xué)習(xí)中有許多種分類(lèi)器可供我們選擇使用,包括邏輯回歸、樸素貝葉斯、支持向量機(jī)(SVM)、決策樹(shù)、隨機(jī)森林、神經(jīng)網(wǎng)絡(luò)等算法。綜合考慮分類(lèi)的精度與效率,本課題中采用的是隨機(jī)森林分類(lèi)器。

隨機(jī)森林分類(lèi)器是由多棵決策樹(shù)組合而成的分類(lèi)器,如圖2所示。決策樹(shù)的結(jié)構(gòu)類(lèi)似二叉樹(shù),由分裂結(jié)點(diǎn)和葉結(jié)點(diǎn)構(gòu)成。每一個(gè)分裂結(jié)點(diǎn)包含一個(gè)特征與閾值,像素x從根部開(kāi)始,根據(jù)特征與閾值劃分進(jìn)入左子樹(shù)還是右子樹(shù),這樣不斷地分裂直到葉結(jié)點(diǎn)。在每棵樹(shù)的葉結(jié)點(diǎn)能夠得到該像素對(duì)于各個(gè)身體部件的概率分布,將各棵樹(shù)得到的結(jié)果相加,得到最終的概率分布,擁有最高概率的一類(lèi)作為最終的分類(lèi)結(jié)果。

隨機(jī)森林將多棵決策樹(shù)合并在一起,準(zhǔn)確度相較于單棵決策樹(shù)有較大提升,并且多棵決策樹(shù)可以并行訓(xùn)練,提高了訓(xùn)練效率。

735cdb58-037d-11ed-ba43-dac502259ad0.png

圖2隨機(jī)森林分類(lèi)器

訓(xùn)練完隨機(jī)森林分類(lèi)器后,我們利用其對(duì)像素點(diǎn)進(jìn)行分類(lèi),判斷其屬于身體的哪個(gè)部位。對(duì)于圖像中的每個(gè)像素,使用分類(lèi)器對(duì)其分類(lèi)后得到分類(lèi)的結(jié)果,以及預(yù)測(cè)結(jié)果的概率。我們只選取圖像中預(yù)測(cè)概率高于80%的點(diǎn),這樣就能得到密度不同的分類(lèi)點(diǎn)。越靠近關(guān)節(jié)點(diǎn)位置,預(yù)測(cè)概率越高,點(diǎn)的密度越大,遠(yuǎn)離關(guān)節(jié)點(diǎn)位置的密度則小。

關(guān)節(jié)點(diǎn)位置估計(jì)

在得到像素點(diǎn)分類(lèi)后,我們使用Mean Shift聚類(lèi)算法得到屬于同一部位像素點(diǎn)的中心,作為關(guān)節(jié)位置。

Mean Shift算法一般為一個(gè)迭代過(guò)程,先計(jì)算感興趣區(qū)域內(nèi)的偏移均值,移動(dòng)區(qū)域中心到計(jì)算出的質(zhì)心處,然后以此處作為新的起點(diǎn),繼續(xù)移動(dòng)。在迭代過(guò)程中,不斷向密度更大的地方偏移,直到移動(dòng)到這類(lèi)像素點(diǎn)密度最高的中心位置而停止。此時(shí)這個(gè)位置最能代表這一類(lèi)點(diǎn),我們將其作為該部位的關(guān)節(jié)點(diǎn)位置。分別對(duì)所有類(lèi)別的點(diǎn)都運(yùn)行一遍此算法后,我們就能得到全身關(guān)節(jié)點(diǎn)的位置。

但是由于分類(lèi)結(jié)果并不一定準(zhǔn)確,聚類(lèi)出的結(jié)果可能與真實(shí)關(guān)節(jié)點(diǎn)的位置有所偏移,這時(shí)我們可以采用人體骨架長(zhǎng)度比例約束條件,來(lái)矯正一部分偏移較大的關(guān)節(jié)點(diǎn),對(duì)預(yù)測(cè)結(jié)果進(jìn)行優(yōu)化。

流程介紹

訓(xùn)練流程:對(duì)一幅深度圖,取關(guān)節(jié)附近的點(diǎn)作為訓(xùn)練集,對(duì)這些點(diǎn)提取深度特征,再訓(xùn)練隨機(jī)森林分類(lèi)器

736b3266-037d-11ed-ba43-dac502259ad0.png

圖3訓(xùn)練流程示意圖

測(cè)試流程:深度圖背景分割得到人體區(qū)域圖像,使用隨機(jī)森林分類(lèi)器對(duì)人體的像素點(diǎn)進(jìn)行分類(lèi),選取預(yù)測(cè)概率大于設(shè)定閾值的點(diǎn),則得到疏密不同的各關(guān)節(jié)部位像素點(diǎn),越接近關(guān)節(jié)點(diǎn)位置,像素點(diǎn)越密,再使用Mean shift算法進(jìn)行聚類(lèi),得到關(guān)節(jié)點(diǎn)位置

739e8a26-037d-11ed-ba43-dac502259ad0.png

測(cè)試流程示意圖

運(yùn)行效果

圖4為關(guān)節(jié)定位算法的運(yùn)行效果,(a)為NTU數(shù)據(jù)集中關(guān)節(jié)點(diǎn)的標(biāo)準(zhǔn)位置;(b)是算法對(duì)同一張深度圖中關(guān)節(jié)點(diǎn)的定位結(jié)果;(c)為自制的Kinect測(cè)試集上的運(yùn)行效果;(d)為采用公司研制的TOF相機(jī)模塊拍攝的深度圖的運(yùn)行效果??梢灾庇^地看出定位效果較為良好。TOF相機(jī)的分辨率為320*240,因此相同距離下人體在畫(huà)面中所占比例更大。

73aacc8c-037d-11ed-ba43-dac502259ad0.png

(a) (b)

73c01f6a-037d-11ed-ba43-dac502259ad0.png

(c) (d)

圖4 算法運(yùn)行效果示例

注:

(a)NTU測(cè)試集真值,25關(guān)節(jié)

(b)NTU測(cè)試集

(c)自制測(cè)試集

(d)TOF相機(jī)拍攝圖像

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4810

    瀏覽量

    98619
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    67

    文章

    8567

    瀏覽量

    137266
  • 深度圖像
    +關(guān)注

    關(guān)注

    0

    文章

    19

    瀏覽量

    3734

原文標(biāo)題:3D視覺(jué)在人體姿態(tài)估計(jì)算法的應(yīng)用

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    基于米爾安路飛龍派 MYD-YM90X開(kāi)發(fā)板多功能智能車(chē)系統(tǒng)開(kāi)發(fā)

    ; vsync_right; endmoduleFPGA 深度圖生成(SGM 立體匹配,硬件加速),實(shí)現(xiàn)圖像采集、畸變校正、立體匹配、深度圖生成的全鏈路硬件化,端到端延遲 < 50ns
    發(fā)表于 04-25 16:23

    機(jī)器人主控核心板米爾RK3576 + ROS2,NPU加速實(shí)現(xiàn)目標(biāo)跟隨與機(jī)械臂抓取

    下通過(guò)標(biāo)準(zhǔn)驅(qū)動(dòng)節(jié)點(diǎn)發(fā)布話(huà)題數(shù)據(jù)。本文使用的RGB-D相機(jī)輸出三路信息: RGB圖像 :用于目標(biāo)跟蹤的視覺(jué)輸入 IR圖像 :輔助深度計(jì)算(夜間或弱光可用) 深度圖像 :每個(gè)像素的毫米級(jí)距
    發(fā)表于 04-10 21:23

    【智能檢測(cè)】基于AI深度學(xué)習(xí)與飛拍技術(shù)的影像測(cè)量系統(tǒng):實(shí)現(xiàn)高效精準(zhǔn)的全自動(dòng)光學(xué)檢測(cè)與智能制造數(shù)據(jù)閉環(huán)

    ;結(jié)合Fly-on-the-fly飛拍技術(shù),在高速運(yùn)動(dòng)中完成圖像采集與測(cè)量,大幅提升效率;依托全景導(dǎo)航與圖像匹配技術(shù),實(shí)現(xiàn)工件任意擺放下的自動(dòng)定位與坐標(biāo)系建立;配合脫機(jī)編程與CNC全自動(dòng)批量測(cè)量,支持
    發(fā)表于 03-31 17:11

    探索ADSD3500:飛行時(shí)間深度圖像信號(hào)處理器的卓越性能

    探索ADSD3500:飛行時(shí)間深度圖像信號(hào)處理器的卓越性能 在當(dāng)今科技飛速發(fā)展的時(shí)代,飛行時(shí)間(ToF)技術(shù)在眾多領(lǐng)域展現(xiàn)出了巨大的應(yīng)用潛力。而ADSD3500作為一款專(zhuān)業(yè)的ToF深度圖像信號(hào)處理器
    的頭像 發(fā)表于 03-23 16:15 ?122次閱讀

    微視圖靈高精度人體關(guān)鍵點(diǎn)算法成功“落戶(hù)”算能AI微服務(wù)器,公檢法、校園與養(yǎng)老場(chǎng)景全面賦能

    在人工智能技術(shù)加速落地民生關(guān)鍵領(lǐng)域的今天,微視圖靈AI團(tuán)隊(duì)研發(fā)的新一代高精度人體關(guān)鍵點(diǎn)檢測(cè)算法,已成功完成在國(guó)產(chǎn)信創(chuàng)核心硬件——算能(SOPHGO)AI 微服務(wù)器上的深度適配與規(guī)模化部署。 此次適配
    的頭像 發(fā)表于 03-17 10:59 ?527次閱讀
    微視圖靈高精度<b class='flag-5'>人體</b>關(guān)鍵點(diǎn)<b class='flag-5'>算法</b>成功“落戶(hù)”算能AI微服務(wù)器,公檢法、校園與養(yǎng)老場(chǎng)景全面賦能

    瑞芯微(EASY EAI)RV1126B 人體關(guān)鍵點(diǎn)識(shí)別

    1.人體關(guān)鍵點(diǎn)識(shí)別簡(jiǎn)介人體關(guān)鍵點(diǎn)識(shí)別是一種基于深度學(xué)習(xí)的對(duì)人進(jìn)行檢測(cè)定位與姿勢(shì)估計(jì)的模型,廣泛應(yīng)用于體育分析、動(dòng)物行為監(jiān)測(cè)和機(jī)器人等領(lǐng)域,幫助機(jī)器實(shí)時(shí)解讀物理動(dòng)作。本
    的頭像 發(fā)表于 01-23 10:13 ?3843次閱讀
    瑞芯微(EASY EAI)RV1126B <b class='flag-5'>人體</b>關(guān)鍵點(diǎn)識(shí)別

    華中科技大學(xué):研究面向水陸兩棲人體運(yùn)動(dòng)識(shí)別的柔性多維肌肉形變磁傳感陣列

    準(zhǔn)確的人體運(yùn)動(dòng)識(shí)別對(duì)于控制可穿戴機(jī)器人及虛擬/增強(qiáng)現(xiàn)實(shí)等人機(jī)交互系統(tǒng)至關(guān)重要,而捕獲人體運(yùn)動(dòng)特征的可穿戴傳感設(shè)備是實(shí)現(xiàn)運(yùn)動(dòng)識(shí)別的基礎(chǔ)(作為運(yùn)動(dòng)識(shí)別算法的輸入)。目前,基于骨骼特征(如關(guān)節(jié)
    的頭像 發(fā)表于 11-24 11:39 ?1016次閱讀
    華中科技大學(xué):研究面向水陸兩棲<b class='flag-5'>人體</b>運(yùn)動(dòng)識(shí)別的柔性多維肌肉形變磁傳感陣列

    基于級(jí)聯(lián)分類(lèi)器的人臉檢測(cè)基本原理

    本次分享的內(nèi)容是基于級(jí)聯(lián)分類(lèi)器的人臉檢測(cè)基本原理 1) 人臉檢測(cè)概述 關(guān)于人臉檢測(cè)算法,目前主流方法分為兩類(lèi),一類(lèi)是基于知識(shí),主要方法包括模板匹配,人臉特征,形狀和邊緣,紋理特征,顏色特征
    發(fā)表于 10-30 06:14

    使用Otsu閾值算法將灰度圖像二值化

    Otsu 算法是由日本學(xué)者OTSU于1979年提出的一種對(duì)圖像進(jìn)行二值化的高效算法,又稱(chēng)“最大類(lèi)間方差法”。當(dāng)我們對(duì)一個(gè)圖象進(jìn)行二值化操作的時(shí)候,需要根據(jù)一項(xiàng)灰度閾值來(lái)判決每個(gè)像素點(diǎn)應(yīng)該被視作純黑
    發(fā)表于 10-28 06:49

    基于FPGA的CLAHE圖像增強(qiáng)算法設(shè)計(jì)

    CLAHE圖像增強(qiáng)算法又稱(chēng)為對(duì)比度有限的自適應(yīng)直方圖均衡算法,其算法原理是通過(guò)有限的調(diào)整圖像局部對(duì)比度來(lái)增強(qiáng)有效信號(hào)和抑制噪聲信號(hào)。
    的頭像 發(fā)表于 10-15 10:14 ?826次閱讀
    基于FPGA的CLAHE<b class='flag-5'>圖像</b>增強(qiáng)<b class='flag-5'>算法</b>設(shè)計(jì)

    ANSA人體模型姿態(tài)調(diào)整工具介紹

    ANSA的人體模型姿態(tài)調(diào)整工具(HBM Articulation Tool)通過(guò)網(wǎng)格變形技術(shù)實(shí)現(xiàn)基于人體不同部位進(jìn)行調(diào)節(jié),定位人體模型最終的姿態(tài)。
    的頭像 發(fā)表于 09-28 15:40 ?1877次閱讀
    ANSA<b class='flag-5'>人體</b>模型姿態(tài)調(diào)整工具介紹

    9米遠(yuǎn)距離高精準(zhǔn)度24G人體存在感知雷達(dá)模塊

    處理、精確人體感應(yīng)算法,實(shí)現(xiàn)高靈敏度的人體存在狀態(tài)感應(yīng),可識(shí)別運(yùn)動(dòng)和靜止?fàn)顟B(tài)下的人體,并可計(jì)算出目標(biāo)的距離等輔助信息。02模塊優(yōu)勢(shì)人體存在感
    的頭像 發(fā)表于 09-22 12:04 ?1396次閱讀
    9米遠(yuǎn)距離高精準(zhǔn)度24G<b class='flag-5'>人體</b>存在感知雷達(dá)模塊

    瑞芯微RK3576人體關(guān)鍵點(diǎn)識(shí)別算法(骨骼點(diǎn))

    人體關(guān)鍵點(diǎn)識(shí)別是一種基于深度學(xué)習(xí)的對(duì)人進(jìn)行檢測(cè)定位與姿勢(shì)估計(jì)的模型,廣泛應(yīng)用于體育分析、動(dòng)物行為監(jiān)測(cè)和機(jī)器人等領(lǐng)域,幫助機(jī)器實(shí)時(shí)解讀物理動(dòng)作。本算法具有運(yùn)行效率高、實(shí)時(shí)性強(qiáng)的特點(diǎn)。
    的頭像 發(fā)表于 08-27 10:07 ?1177次閱讀
    瑞芯微RK3576<b class='flag-5'>人體</b>關(guān)鍵點(diǎn)識(shí)別<b class='flag-5'>算法</b>(骨骼點(diǎn))

    絕對(duì)位置感知的機(jī)器人多關(guān)節(jié)模組高精度運(yùn)動(dòng)學(xué)解算與動(dòng)態(tài)誤差補(bǔ)償

    絕對(duì)位置感知技術(shù)通過(guò)實(shí)時(shí)精確獲取關(guān)節(jié)位置,消除累計(jì)誤差并提升系統(tǒng)可靠性。結(jié)合改進(jìn)的ICP算法和智能補(bǔ)償策略,六軸機(jī)器人重復(fù)定位精度達(dá)±0.03mm,軌跡誤差僅為傳統(tǒng)控制的1/5,滿(mǎn)足航空航天級(jí)精密裝配需求
    的頭像 發(fā)表于 05-16 17:27 ?1022次閱讀
    絕對(duì)位置感知的機(jī)器人多<b class='flag-5'>關(guān)節(jié)</b>模組高精度運(yùn)動(dòng)學(xué)解算與動(dòng)態(tài)誤差補(bǔ)償

    基于RK3576開(kāi)發(fā)板的人員檢測(cè)算法

    展示了RK3576開(kāi)發(fā)板的人員檢測(cè)算法例程及API說(shuō)明
    的頭像 發(fā)表于 05-07 17:33 ?1053次閱讀
    基于RK3576開(kāi)發(fā)板<b class='flag-5'>的人</b>員檢測(cè)<b class='flag-5'>算法</b>
    睢宁县| 红原县| 永寿县| 鄯善县| 临洮县| 兴义市| 新邵县| 和静县| 淄博市| 双流县| 岳普湖县| 鹤壁市| 长乐市| 岫岩| 舟曲县| 定边县| 乡宁县| 和顺县| 诸城市| 安丘市| 刚察县| 乌什县| 厦门市| 咸阳市| 定兴县| 旬阳县| 凤山县| 绥江县| 墨玉县| 渭源县| 安西县| 岚皋县| 佛冈县| 东明县| 梁山县| 安多县| 平阳县| 怀远县| 确山县| 高雄市| 淄博市|