日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種基于RefineDet多層特征圖融合的多尺度人臉檢測(cè)方法

SwM2_ChinaAET ? 來(lái)源:lq ? 2019-10-01 17:07 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

摘要:

針對(duì)車(chē)站、商場(chǎng)等大型場(chǎng)所中客流量大、背景復(fù)雜等原因?qū)е露喑叨热四槞z測(cè)精度低的問(wèn)題,建立了一種基于RefineDet多層特征圖融合的多尺度人臉檢測(cè)方法。首先利用第一級(jí)網(wǎng)絡(luò)進(jìn)行特征提取并在不同尺度的特征圖上粗略預(yù)估人臉位置;然后在第二級(jí)中通過(guò)特征金字塔網(wǎng)絡(luò)將低層特征與高層特征融合,進(jìn)一步增強(qiáng)小尺寸人臉的語(yǔ)義信息;最后,通過(guò)置信度和焦點(diǎn)損失函數(shù)對(duì)檢測(cè)框進(jìn)行二次抑制,達(dá)到邊框的精確回歸。實(shí)驗(yàn)中將人臉候選區(qū)域的寬高比只設(shè)置為1:1,以此來(lái)降低運(yùn)算量并提高人臉檢測(cè)精度。在Wider Face數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,該方法能有效檢測(cè)不同尺度的人臉,在Easy、Medium、Hard 3個(gè)子數(shù)據(jù)集上測(cè)試結(jié)果分別為93.4%、92%、84.4%的MAP,尤其對(duì)小尺寸人臉的檢測(cè)精度有明顯提高。

0 引言

人臉檢測(cè)[1]作為人臉識(shí)別[2-3]、人臉對(duì)齊、人臉驗(yàn)證[4]以及人臉跟蹤[5]等應(yīng)用的關(guān)鍵步驟,其首要任務(wù)是判斷視頻或給定圖像中是否存在人臉,再精確定位出人臉的位置和大小。在一些人臉目標(biāo)尺寸跨度大且小目標(biāo)眾多的應(yīng)用場(chǎng)景,人臉檢測(cè)的效果將直接影響人臉識(shí)別等后續(xù)技術(shù)應(yīng)用的準(zhǔn)確率,因此研究多尺度人臉檢測(cè)具有重要意義。 早期人臉檢測(cè)算法多是人工提取特征,訓(xùn)練分類器,再進(jìn)行人臉檢測(cè)。如VIOLA P A和JONES M[6]提出的Haar-Like與AdaBoost級(jí)聯(lián)的方法,其檢測(cè)速度較快,但對(duì)多尺度、姿態(tài)多樣性等情形檢測(cè)效果不理想。隨著深度學(xué)習(xí)機(jī)器學(xué)習(xí)中的不斷發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)提取特征更加多樣化、魯棒性更好,在圖像識(shí)別以及目標(biāo)檢測(cè)等領(lǐng)域[7-8]得到廣泛應(yīng)用。其中以Faster R-CNN[9]為代表的算法首先通過(guò)區(qū)域預(yù)測(cè)網(wǎng)絡(luò)(Region Proposal Network,RPN)產(chǎn)生感興趣的候選區(qū)域,再對(duì)該區(qū)域提取尺度不變的CNN特征,最后對(duì)區(qū)域進(jìn)行分類和回歸。JIANG H[10]等將Faster R-CNN應(yīng)用于人臉檢測(cè),取得了較好效果,但速度較慢。文獻(xiàn)[11]將人臉檢測(cè)與人臉關(guān)鍵點(diǎn)檢測(cè)結(jié)合,網(wǎng)絡(luò)層數(shù)淺,檢測(cè)速度快但精度較低。HU P[12]等人通過(guò)多尺度模板,利用圖像上下文信息來(lái)解決小尺寸人臉檢測(cè)精度較低的問(wèn)題。 為進(jìn)一步提高人臉檢測(cè)精度,本文通過(guò)改進(jìn)RefineDet[13]網(wǎng)絡(luò)模型結(jié)構(gòu),建立了一種多尺度人臉檢測(cè)模型。首先對(duì)待檢測(cè)圖像歸一化處理,利用CNN提取圖像特征,再通過(guò)特征金字塔網(wǎng)絡(luò)[14](Feature Pyramid Networks,F(xiàn)PN)將更底層的conv3_3特征圖與高層特征圖進(jìn)行融合,以便增強(qiáng)小尺寸人臉的語(yǔ)義信息,提高小目標(biāo)人臉的檢測(cè)精度。然后利用置信度和損失函數(shù)對(duì)檢測(cè)框進(jìn)行二次抑制,緩解類別失衡[15]問(wèn)題。最后通過(guò)非極大值抑制算法得到精確回歸后的人臉檢測(cè)框和相應(yīng)的位置信息。根據(jù)人臉區(qū)域特點(diǎn),將人臉候選框的寬高比只設(shè)為1:1,以減少計(jì)算量進(jìn)而提高檢測(cè)精度。

1 多尺度人臉檢測(cè)模型

1.1 改進(jìn)的RefineDet多尺度檢測(cè)模型網(wǎng)絡(luò)結(jié)構(gòu)

RefineDet是基于SSD[16]的改進(jìn)方法,以VGG16[17]作為特征提取的骨干網(wǎng)絡(luò),包含fc6和fc7兩個(gè)全連接層轉(zhuǎn)換成的conv_fc6、conv_fc7以及擴(kuò)展的conv6_1、conv6_2。其檢測(cè)網(wǎng)絡(luò)模型結(jié)構(gòu)如圖1中虛線框部分所示,采用conv4_3、conv5_3、conv_fc7和conv6_2作為檢測(cè)層。

在CNN提取圖像特征的過(guò)程中,感受野[18]用來(lái)表示卷積神經(jīng)網(wǎng)絡(luò)每一層輸出的特征圖上的像素點(diǎn)在原始圖像上映射區(qū)域的大小。輸入RefineDet網(wǎng)絡(luò)的圖像,由于卷積層與池化層之間均為局部連接,神經(jīng)元無(wú)法對(duì)原始圖像的所有信息進(jìn)行感知,且每經(jīng)過(guò)一次2×2的最大池化層處理,特征圖變?yōu)樵瓉?lái)的一半。隨著網(wǎng)絡(luò)層加深,特征圖會(huì)越來(lái)越小,小尺寸人臉的信息也會(huì)逐步丟失,提取的特征也更抽象。因此,越高層的特征圖對(duì)應(yīng)原始圖像的范圍越大,包含語(yǔ)義層次更高的特征;越低層的特征圖對(duì)應(yīng)原始圖像的范圍越小,包含的特征更趨向于局部細(xì)節(jié)。可見(jiàn),對(duì)于近景下的較大人臉需要更高層的特征圖進(jìn)行檢測(cè),而遠(yuǎn)景下的小尺寸人臉可以在更低層的特征圖上檢測(cè)到。為了提高不同尺度的人臉檢測(cè)精度,進(jìn)一步改善整個(gè)網(wǎng)絡(luò)的檢測(cè)性能,本文在RefineDet特征融合部分加入更低層的conv3_3特征圖,以便檢測(cè)較小尺寸的人臉,并在conv6_2后面添加額外的conv7_1和conv7_2,以便檢測(cè)較大的人臉區(qū)域。改進(jìn)的RefineDet檢測(cè)網(wǎng)絡(luò)模型結(jié)構(gòu)如圖1所示,選取conv3_3、conv4_3、conv5_3、conv_fc7、conv6_2和conv7_2 6個(gè)層的特征圖作為檢測(cè)層。 網(wǎng)絡(luò)模型主要包括區(qū)域優(yōu)化模塊(Anchor Refine Module,ARM)和目標(biāo)檢測(cè)模塊(Object Detect Module,ODM)。對(duì)輸入640像素×640像素的待檢測(cè)圖片,在ARM中經(jīng)過(guò)卷積層特征提取后得到不同大小的特征圖,可粗略預(yù)估人臉的位置和得分,并濾除一些無(wú)效候選區(qū),以減少分類器的搜索空間并且粗略地調(diào)整保留區(qū)域的位置和大小。同時(shí),ARM的特征圖通過(guò)連接模塊(Transfer Connection Block,TCB)輸入到ODM中,將高層特征與底層特征進(jìn)行融合,用來(lái)增強(qiáng)底層特征的語(yǔ)義信息,以便檢測(cè)更小的人臉目標(biāo)。本文利用特征圖融合的方式增加不同層之間的聯(lián)系,通過(guò)這樣的連接,檢測(cè)網(wǎng)絡(luò)中的特征圖都融合了不同尺度、不同語(yǔ)義強(qiáng)度的特征,以此保證檢測(cè)層的特征圖可以檢測(cè)不同尺度的人臉。此處以O(shè)DM的高層特征圖CONV4_3和ARM的底層特征圖conv3_3融合為例,其過(guò)程如圖2所示,卷積核大小為3×3,通道數(shù)為256,反卷積核大小為4×4,步長(zhǎng)為2,通道數(shù)為256。核大小為3×3,通道數(shù)為256,反卷積核大小為4×4,步長(zhǎng)為2,通道數(shù)為256。不同層的特征圖大小各不相同,因此,CONV4_3先通過(guò)反卷積操作縮放成與conv3_3特征圖相同的大小;然后通過(guò)element-wise相加進(jìn)行融合,得到CONV3_3;最后ODM對(duì)特征融合后的人臉候選區(qū)域進(jìn)行更精確的回歸,并且通過(guò)非極大值抑制算法得到不同尺度人臉的檢測(cè)結(jié)果。

1.2 檢測(cè)層參數(shù)設(shè)置

RefineDet選擇conv4_3為初始檢測(cè)層,步長(zhǎng)為8,在特征圖上移動(dòng)一點(diǎn)相當(dāng)于在原始圖像上移動(dòng)8個(gè)像素,這種設(shè)置不適合檢測(cè)更小尺寸目標(biāo)。本文將conv3_3作為初始檢測(cè)層,特征圖步長(zhǎng)設(shè)為4,更利于檢測(cè)小尺寸人臉。從conv3_3到conv7_2,寬高比為1:1,檢測(cè)層參數(shù)設(shè)置如表1所示。通過(guò)在6層卷積特征圖上設(shè)置不同大小的人臉檢測(cè)框,能有效提高多尺度人臉的檢測(cè)精度。

1.3 損失函數(shù)

實(shí)驗(yàn)中對(duì)于一張640×640的圖像,人臉?biāo)急壤h(yuǎn)遠(yuǎn)小于背景所占比例,圖像中大部分區(qū)域?yàn)樨?fù)樣本。模型訓(xùn)練過(guò)程中,按照表1在每個(gè)卷積層生成不同數(shù)量的檢測(cè)框,則conv3_3產(chǎn)生25 600個(gè)16×16的檢測(cè)框,占檢測(cè)框總數(shù)的75.02%,如果將全部正負(fù)樣本都用來(lái)訓(xùn)練,這會(huì)引起類不平衡的問(wèn)題,導(dǎo)致檢測(cè)精度下降。因此,為了緩解失衡,利用損失函數(shù)對(duì)檢測(cè)框進(jìn)行二次抑制。當(dāng)負(fù)樣本的置信度大于0.99時(shí),直接舍棄該候選區(qū)域,即對(duì)檢測(cè)框進(jìn)行首次抑制。 本文的損失函數(shù)主要包括ARM和ODM兩部分損失,如式(1)所示。

式中,pt為不同類別的分類概率,pt越大,權(quán)重(1-pt)γ越小,這樣對(duì)于一些很容易區(qū)分的樣本可通過(guò)權(quán)重得到抑制,進(jìn)而減少檢測(cè)框的數(shù)量。αt用來(lái)調(diào)節(jié)正負(fù)樣本的比例,本文采用與文獻(xiàn)[15]相同的參數(shù)設(shè)置,正負(fù)樣本比例為1:3,即αt=0.25,γ=2,實(shí)驗(yàn)表明,該參數(shù)適用于本文模型。

2 實(shí)驗(yàn)過(guò)程與結(jié)果分析

2.1 人臉數(shù)據(jù)集選擇

實(shí)驗(yàn)采用Wider Face數(shù)據(jù)集,包含Easy、Medium、Hard 3個(gè)類別子集。該數(shù)據(jù)集共有32 203張圖片,并標(biāo)注了393 703張人臉。其中Easy子集為尺寸大于300像素的人臉,容易檢測(cè);Medium子集人臉尺寸為50~300像素,檢測(cè)難度適中;Hard子集包含尺寸為10~50像素的小目標(biāo)人臉,較難檢測(cè)。該數(shù)據(jù)集適合本文建立的多尺度人臉檢測(cè)模型。

2.2 模型訓(xùn)練過(guò)程

實(shí)驗(yàn)在Win10操作系統(tǒng)下進(jìn)行,計(jì)算機(jī)配置為NVIDIA GeForce GTX 1080Ti顯卡,采用的深度學(xué)習(xí)框架為Caffe。為了使訓(xùn)練所得模型對(duì)不同尺度的人臉有更好的魯棒性,本文采用文獻(xiàn)[16]中的隨機(jī)光照失真以及裁剪原始圖像并反轉(zhuǎn)的方法擴(kuò)充訓(xùn)練樣本集。用ImageNet分類任務(wù)上預(yù)訓(xùn)練好的VGG16 卷積神經(jīng)網(wǎng)絡(luò)初始化特征并提取網(wǎng)絡(luò)卷積層權(quán)重,訓(xùn)練過(guò)程采用隨機(jī)梯度下降算法(SGD)優(yōu)化整個(gè)網(wǎng)絡(luò)模型。 本文訓(xùn)練過(guò)程采用SSD的匹配策略,不同的是將檢測(cè)框與真實(shí)框的重疊率閾值由0.5降為0.35,大于0.35的判斷為正樣本,以此來(lái)增大匹配到的檢測(cè)框數(shù)量。另外,網(wǎng)絡(luò)初始學(xué)習(xí)率設(shè)置為0.000 5,8萬(wàn)次迭代后降為0.000 01,12萬(wàn)次迭代后設(shè)置為0.000 002,動(dòng)量為 0.9,權(quán)重衰減為0.000 5,批次大小設(shè)置為4,共進(jìn)行20萬(wàn)次迭代。

2.3 不同尺度的人臉檢測(cè)結(jié)果

為了驗(yàn)證方法的有效性,本文在Wider Face驗(yàn)證集上進(jìn)行實(shí)驗(yàn)驗(yàn)證。首先選擇RefineDet的網(wǎng)絡(luò)模型結(jié)構(gòu),輸入640×640大小的圖像,寬高比設(shè)為1:1,本文將其稱之為模型A;其次,以相同的輸入,選擇加入底層特征conv3_3后的6層卷積特征圖作為檢測(cè)層進(jìn)行實(shí)驗(yàn),稱之為模型B;最后,本文在模型B的基礎(chǔ)上,采用focal loss作為損失函數(shù)進(jìn)行實(shí)驗(yàn),稱之為本文模型。驗(yàn)證結(jié)果如表2所示。

由表2可見(jiàn),在輸入相同的情況下,模型B相比于模型A在Easy、Medium、Hard 3個(gè)子集上的平均檢測(cè)精度(Mean Average Precision,MAP)分別提高了0.1%、0.2%和4.3%,表明加入底層conv3_3的特征融合后可以有效改善小尺寸人臉的語(yǔ)義信息,進(jìn)而提高多尺度人臉檢測(cè)精度。本文模型相比于模型B在3個(gè)子集上的檢測(cè)精度又分別提高了0.6%、0.9%和1.1%,表明改進(jìn)損失函數(shù)能有效緩解類別不平衡的問(wèn)題,進(jìn)而提高檢測(cè)精度。

2.4 與其他方法比較

為進(jìn)一步驗(yàn)證模型的性能,將本文方法與近年來(lái)的主流算法ScaleFace[20]、Multitask Cascade CNN[11]、HR[12]在相同實(shí)驗(yàn)環(huán)境和相同數(shù)據(jù)集上進(jìn)行了對(duì)比,采用官方評(píng)估方法進(jìn)行評(píng)估[21]。在Wider Face人臉驗(yàn)證集上得到的P-R曲線如圖3所示。

P-R圖中橫坐標(biāo)表示檢測(cè)框的召回率(Recall),縱坐標(biāo)表示檢測(cè)精度(Precision)。召回率用來(lái)評(píng)估檢測(cè)出來(lái)的人臉占樣本標(biāo)記總?cè)四様?shù)的比例,檢測(cè)精度用來(lái)評(píng)估檢測(cè)出的正確人臉占檢測(cè)出的總?cè)四様?shù)的比例,因此,曲線右上越凸,表示檢測(cè)效果越好。由圖3可見(jiàn),本文方法較其他方法在檢測(cè)精度上均有所提高,尤其在Hard子集上更達(dá)到了84.4%的檢測(cè)精度,表明了方法的有效性,也顯示了該模型檢測(cè)小尺寸人臉的優(yōu)越性。

2.5 檢測(cè)效果

圖4為本文方法與RefineDet的檢測(cè)結(jié)果對(duì)比,矩形框表示檢測(cè)出的人臉位置,圓形框表示兩者的著重對(duì)比區(qū)域。由圖4(a)和圖4(c)可見(jiàn),圖像中的人臉尺寸大小不一,RefineDet對(duì)于檢測(cè)背景中小尺寸人臉存在明顯缺陷,不能有效檢測(cè),而本文方法可以在一張圖片上同時(shí)檢測(cè)不同尺度人臉。圖4(b)和圖4(d)相比,在人臉較小且密集的情景下,RefineDet漏檢而本文方法在檢測(cè)小尺寸人臉上有明顯優(yōu)勢(shì)。

3 結(jié)論

本文建立了一種基于RefineDet多層特征融合的多尺度人臉檢測(cè)方法,網(wǎng)絡(luò)結(jié)構(gòu)為兩級(jí)級(jí)聯(lián)模式,第一級(jí)ARM模塊對(duì)人臉檢測(cè)框進(jìn)行粗略回歸,第二級(jí)ODM模塊經(jīng)與底層特征融合后再對(duì)人臉檢測(cè)框完成精確回歸。檢測(cè)網(wǎng)絡(luò)在6層不同的特征圖上進(jìn)行,能有效檢測(cè)16×16的小尺寸人臉區(qū)域,以及520×520較大的人臉區(qū)域,對(duì)比其他人臉檢測(cè)方法,本文方法能更好地處理人臉尺寸眾多且密集的情況,特別是小尺寸人臉檢測(cè)精度有明顯提高。

參考文獻(xiàn)

[1] 霍芋霖,符意德.基于Zynq的人臉檢測(cè)設(shè)計(jì)[J].計(jì)算機(jī)科學(xué),2016,43(10):322-325.

[2] 李小薪,梁榮華.有遮擋人臉識(shí)別綜述:從子空間回歸到深度學(xué)習(xí)[J].計(jì)算機(jī)學(xué)報(bào),2018,41(1):177-207.

[3] GAO Y,MA J,YUILLE A L,et al.Semi-supervised sparse representation based classification for face recognition with insufficient labeled samples[J].IEEE Transactions on Image Processing,2017,26(5):2545-2560.

[4] MAJUMDAR A,SINGH R,VATS M,et al.Face verification via class sparsity based supervised encoding[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1273-1280.

[5] KHAN M H,MCDONAGH J,TZIMIROPOULOS G,et al.Synergy between face alignment and tracking via discriminative global consensus optimization[C].International Conference on Computer Vision.IEEE,2017:3811-3819.

[6] VIOLA P A,JONES M.Robust real-time face detection[C].Proceedings of IEEE Conference on Computer Vision.IEEE,2001:747.

[7] 黃友文,萬(wàn)超倫.基于深度學(xué)習(xí)的人體行為識(shí)別算法[J].電子技術(shù)應(yīng)用,2018,44(10):1-5.

[8] 周進(jìn)凡,張榮芬,馬治楠,等.基于深度學(xué)習(xí)的胸部X光影像分析系統(tǒng)[J].電子技術(shù)應(yīng)用,2018,44(11):29-32.

[9] REN S,HE K,GIRSHICK R B,et al.Faster R-CNN:towards real-time object detection with region proposal networks[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.

[10] JIANG H,LEARNEDMILLER E G.Face detection with the faster R-CNN[C].IEEE International Conference on Automatic Face Gesture Recognition.IEEE,2017:650-657.

[11] ZHANG K,ZHANG Z,LI Z,et al.Joint face detection and alignment using multitask cascaded convolutional networks[J].IEEE Signal Processing Letters,2016,23(10):1499-1503.

[12] HU P,RAMANAN D.Finding tiny faces[J].Computer Vision and Pattern Recognition,Hawaii,USA,2017:1522-1530.

[13] ZHANG S,WEN L,BIAN X,et al.Single-shot refinement neural network for object detection[C].IEEE Conference on Computer Vision and Pattern Recognition,2018:4203-4212.

[14] LIN T,DOLLAR P,GIRSHICK R B,et al.Feature pyramid networks for object detection[C].IEEE Conference on Computer Vision and Pattern Recognition,2017:936-944.

[15] LIN T,GOYAL P,GIRSHICK R B,et al.Focal loss for dense object detection[C].International Conference on Computer Vision.IEEE,2017:2999-3007.

[16] LIU W,ANGUELOY D,ERHAN D,et al.SSD:single shot multibox detector[C].European Conference on Computer Vision,Amsterdam,Netherlands,2016:21-37.

[17] SIMONYAN K,ZISSERMAN.A very deep convolutional networks for large-scale image recognition[C].International Conference on Learning Representations,2015.

[18] LUO W,LI Y,URTASUN R,et al.Understanding the effective receptive field in deep convolutional neural networks[C].29th Conference on Neural Information Processing Systems,Barcelona,Spain,2016:4898-4906.

[19] DAI J,LI Y,HE K,et al.R-FCN:object detection via region-based fully convolutional networks[C]. 29th Conference on Neural Information Processing Systems,2016:379-387.

[20] YANG S,XIONG Y,LOY C C,et al.Face detection through scale-friendly deep convolutional networks[J].arXiv:Computer Vision and Pattern Recognition,2017.

[21] YANG S,LUO P,LOY C C,et al.Wider face: a face detection benchmark[C].IEEE Conference on Computer Vision and Pattern Recognition,2016:5525-5533.

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1096

    瀏覽量

    42462
  • 人臉識(shí)別
    +關(guān)注

    關(guān)注

    77

    文章

    4134

    瀏覽量

    88841
  • 神經(jīng)元
    +關(guān)注

    關(guān)注

    1

    文章

    369

    瀏覽量

    19212

原文標(biāo)題:【學(xué)術(shù)論文】一種改進(jìn)的RefineDet多尺度人臉檢測(cè)方法

文章出處:【微信號(hào):ChinaAET,微信公眾號(hào):電子技術(shù)應(yīng)用ChinaAET】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    模態(tài)大模型 前沿算法與實(shí)戰(zhàn)應(yīng)用 第季》精品課程簡(jiǎn)介

    提取點(diǎn)云特征,用EfficientNet提取圖像特征,通過(guò)注意力機(jī)制融合兩者,生成包含幾何和語(yǔ)義信息的BEV(鳥(niǎo)瞰特征。 決策輸出 :基
    發(fā)表于 05-01 17:46

    共聚焦顯微鏡在晶圓檢測(cè)中的應(yīng)用

    在半導(dǎo)體制造中,晶圓檢測(cè)正從“發(fā)現(xiàn)缺陷”逐步走向“精確量化缺陷”。隨著工藝不斷向微納尺度推進(jìn),缺陷形態(tài)更加復(fù)雜,往往具有低對(duì)比度、多層結(jié)構(gòu)疊加等特征。傳統(tǒng)二維
    的頭像 發(fā)表于 04-16 18:02 ?143次閱讀
    共聚焦顯微鏡在晶圓<b class='flag-5'>檢測(cè)</b>中的應(yīng)用

    一種可跨不同領(lǐng)域的異常檢測(cè)通用模型UniOD介紹

    本研究提出了一種可跨不同領(lǐng)域、適用于特征維度各異且特征空間異構(gòu)的數(shù)據(jù)集的異常檢測(cè)通用模型。
    的頭像 發(fā)表于 03-18 09:09 ?619次閱讀
    <b class='flag-5'>一種</b>可跨不同領(lǐng)域的異常<b class='flag-5'>檢測(cè)</b>通用模型UniOD介紹

    瑞芯微(EASY EAI)RV1126B 人臉識(shí)別使用

    1.人臉識(shí)別簡(jiǎn)介人臉識(shí)別,是基于人的臉部特征信息進(jìn)行身份識(shí)別的一種生物識(shí)別技術(shù)。用攝像機(jī)或攝像頭采集含有人臉的圖像或視頻流,并自動(dòng)在圖像中
    的頭像 發(fā)表于 01-10 10:00 ?3740次閱讀
    瑞芯微(EASY EAI)RV1126B <b class='flag-5'>人臉</b>識(shí)別使用

    瑞芯微(EASY EAI)RV1126B 人臉檢測(cè)使用

    野外準(zhǔn)確高效的人臉檢測(cè)仍然是個(gè)公開(kāi)的挑戰(zhàn)。這是由于姿勢(shì)的變化、面部表情、比例、光照、圖像失真、面部遮擋等因素造成的。與般的目標(biāo)檢測(cè)不同,
    的頭像 發(fā)表于 01-09 09:52 ?8641次閱讀
    瑞芯微(EASY EAI)RV1126B <b class='flag-5'>人臉</b><b class='flag-5'>檢測(cè)</b>使用

    信道活躍檢測(cè)(CAD)是一種無(wú)線喚醒技術(shù),這個(gè)功能般是定時(shí)檢測(cè)么?還是檢測(cè)

    信道活躍檢測(cè)(CAD)是一種無(wú)線喚醒技術(shù),這個(gè)功能般是定時(shí)檢測(cè)么?還是檢測(cè)?
    發(fā)表于 12-10 06:53

    基于級(jí)聯(lián)分類器的人臉檢測(cè)基本原理

    本次分享的內(nèi)容是基于級(jí)聯(lián)分類器的人臉檢測(cè)基本原理 1) 人臉檢測(cè)概述 關(guān)于人臉檢測(cè)算法,目前
    發(fā)表于 10-30 06:14

    如何通過(guò)地址生成器實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)特征的padding?

    ,從而使卷積輸出特征結(jié)果滿足我們的需求,這種補(bǔ)零的操作稱之為padding,如下圖所示。 關(guān)于padding的實(shí)現(xiàn),般有兩操作,第一種
    發(fā)表于 10-22 08:15

    一種新的無(wú)刷直流電機(jī)反電動(dòng)勢(shì)檢測(cè)方法

    無(wú)位置傳感器無(wú)刷直流電機(jī)的控制算法是近年來(lái)研究的熱點(diǎn)之,有霍爾位置信號(hào)直流電機(jī)根據(jù)霍爾狀態(tài)來(lái)確定通斷功率器件。利用無(wú)刷直流電機(jī)的數(shù)學(xué)模型,根據(jù)反電動(dòng)勢(shì)檢測(cè)原理,提出了一種新的線反電動(dòng)勢(shì)檢測(cè)
    發(fā)表于 08-07 14:29

    一種新的無(wú)刷直流電機(jī)反電動(dòng)勢(shì)檢測(cè)方法

    無(wú)位置傳感器無(wú)刷直流電機(jī)的控制算法是近年來(lái)研究的熱點(diǎn)之,有霍爾位置信號(hào)直流電機(jī)根據(jù)霍爾狀態(tài)來(lái)確定通斷功率器件。利用無(wú)刷直流電機(jī)的數(shù)學(xué)模型,根據(jù)反電動(dòng)勢(shì)檢測(cè)原理,提出了一種新的線反電動(dòng)勢(shì)檢測(cè)
    發(fā)表于 08-04 14:59

    一種帶通濾波器在無(wú)位置傳感器轉(zhuǎn)子檢測(cè)中的應(yīng)用

    摘 要:論文研究了一種直流無(wú)刷電機(jī)的無(wú)位置傳感器的轉(zhuǎn)子位置的硬件電路檢測(cè)方法。結(jié)合傳統(tǒng)“反電動(dòng)勢(shì)\"方法,分析并設(shè)計(jì)了一種新的帶通濾波器延時(shí)
    發(fā)表于 08-04 14:56

    【Milk-V Duo S 開(kāi)發(fā)板免費(fèi)體驗(yàn)】人臉檢測(cè)

    【Milk-V Duo S 開(kāi)發(fā)板免費(fèi)體驗(yàn)】人臉檢測(cè) 本文介紹了 Milk-V Duo S 開(kāi)發(fā)板結(jié)合 OV5647 攝像頭模塊,實(shí)現(xiàn)人臉檢測(cè)的項(xiàng)目設(shè)計(jì)。 準(zhǔn)備工作 OV5647 攝像
    發(fā)表于 07-27 16:53

    芯片制造中的膜厚檢測(cè) | 多層膜厚及表面輪廓的高精度測(cè)量

    隨著物聯(lián)網(wǎng)(IoT)和人工智能(AI)驅(qū)動(dòng)的半導(dǎo)體器件微型化,對(duì)多層膜結(jié)構(gòu)的三維無(wú)損檢測(cè)需求急劇增長(zhǎng)。傳統(tǒng)橢偏儀僅支持逐點(diǎn)膜厚測(cè)量,而白光干涉法等技術(shù)難以分離透明薄膜的多層反射信號(hào)。本文提出
    的頭像 發(fā)表于 07-21 18:17 ?1082次閱讀
    芯片制造中的膜厚<b class='flag-5'>檢測(cè)</b> | <b class='flag-5'>多層</b>膜厚及表面輪廓的高精度測(cè)量

    【EASY EAI Orin Nano開(kāi)發(fā)板試用體驗(yàn)】人臉識(shí)別提升

    人臉識(shí)別,可以通過(guò)兩張圖片進(jìn)行對(duì)比,來(lái)實(shí)現(xiàn)人臉的識(shí)別功能。這篇,我將分享如何將提取出來(lái)的人臉特征進(jìn)行保存,
    發(fā)表于 07-05 15:21

    基于LockAI視覺(jué)識(shí)別模塊:C++人臉識(shí)別

    基本知識(shí)講解 1.1 人臉識(shí)別簡(jiǎn)介 人臉識(shí)別是一種利用人的臉部特征進(jìn)行身份識(shí)別的生物識(shí)別技術(shù)。它通過(guò)檢測(cè)圖像或視頻中的
    發(fā)表于 07-01 12:01
    黑山县| 金华市| 南靖县| 望城县| 永平县| 抚远县| 嵩明县| 射洪县| 黄平县| 故城县| 金华市| 蓝山县| 黔东| 达孜县| 崇明县| 长垣县| 平陆县| 朝阳市| 钦州市| 时尚| 黄骅市| 工布江达县| 攀枝花市| 梅州市| 恩施市| 富阳市| 永胜县| 宣化县| 温宿县| 垣曲县| 岚皋县| 禄劝| 吴旗县| 松阳县| 万年县| 武陟县| 收藏| 福建省| 新乡县| 北京市| 乌拉特后旗|