日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

干貨 | 人臉識(shí)別技術(shù)全面總結(jié):從傳統(tǒng)方法到深度學(xué)習(xí)

t1PS_TechSugar ? 來源:YXQ ? 2019-05-17 17:07 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

人臉識(shí)別是指能夠識(shí)別或驗(yàn)證圖像或視頻中的主體的身份的技術(shù)。首個(gè)人臉識(shí)別算法誕生于七十年代初 [1,2]。自那以后,它們的準(zhǔn)確度已經(jīng)大幅提升,現(xiàn)在相比于指紋或虹膜識(shí)別 [3] 等傳統(tǒng)上被認(rèn)為更加穩(wěn)健的生物識(shí)別方法,人們往往更偏愛人臉識(shí)別。讓人臉識(shí)別比其它生物識(shí)別方法更受歡迎的一大不同之處是人臉識(shí)別本質(zhì)上是非侵入性的。比如,指紋識(shí)別需要用戶將手指按在傳感器上,虹膜識(shí)別需要用戶與相機(jī)靠得很近,語音識(shí)別則需要用戶大聲說話。相對(duì)而言,現(xiàn)代人臉識(shí)別系統(tǒng)僅需要用戶處于相機(jī)的視野內(nèi)(假設(shè)他們與相機(jī)的距離也合理)。這使得人臉識(shí)別成為了對(duì)用戶最友好的生物識(shí)別方法。這也意味著人臉識(shí)別的潛在應(yīng)用范圍更廣,因?yàn)樗部杀徊渴鹪谟脩舨黄谕c系統(tǒng)合作的環(huán)境中,比如監(jiān)控系統(tǒng)中。人臉識(shí)別的其它常見應(yīng)用還包括訪問控制、欺詐檢測(cè)、身份認(rèn)證和社交媒體。

當(dāng)被部署在無約束條件的環(huán)境中時(shí),由于人臉圖像在現(xiàn)實(shí)世界中的呈現(xiàn)具有高度的可變性(這類人臉圖像通常被稱為自然人臉(faces in-the-wild)),所以人臉識(shí)別也是最有挑戰(zhàn)性的生物識(shí)別方法之一。人臉圖像可變的地方包括頭部姿勢(shì)、年齡、遮擋、光照條件和人臉表情。圖 1 給出了這些情況的示例。

主成分分析

線性判別分析

人臉識(shí)別系統(tǒng)通常由以下構(gòu)建模塊組成:

很多人認(rèn)為人臉表征是人臉識(shí)別系統(tǒng)中最重要的組件,這也是本論文第二節(jié)所關(guān)注的重點(diǎn)。

深度學(xué)習(xí)方法

卷積神經(jīng)網(wǎng)絡(luò)(CNN)是人臉識(shí)別方面最常用的一類深度學(xué)習(xí)方法。深度學(xué)習(xí)方法的主要優(yōu)勢(shì)是可用大量數(shù)據(jù)來訓(xùn)練,從而學(xué)到對(duì)訓(xùn)練數(shù)據(jù)中出現(xiàn)的變化情況穩(wěn)健的人臉表征。這種方法不需要設(shè)計(jì)對(duì)不同類型的類內(nèi)差異(比如光照、姿勢(shì)、面部表情、年齡等)穩(wěn)健的特定特征,而是可以從訓(xùn)練數(shù)據(jù)中學(xué)到它們。深度學(xué)習(xí)方法的主要短板是它們需要使用非常大的數(shù)據(jù)集來訓(xùn)練,而且這些數(shù)據(jù)集中需要包含足夠的變化,從而可以泛化到未曾見過的樣本上。幸運(yùn)的是,一些包含自然人臉圖像的大規(guī)模人臉數(shù)據(jù)集已被公開 [9-15],可被用來訓(xùn)練 CNN 模型。除了學(xué)習(xí)判別特征,神經(jīng)網(wǎng)絡(luò)還可以降維,并可被訓(xùn)練成分類器或使用度量學(xué)習(xí)方法。CNN 被認(rèn)為是端到端可訓(xùn)練的系統(tǒng),無需與任何其它特定方法結(jié)合。

用于人臉識(shí)別的 CNN 模型可以使用不同的方法來訓(xùn)練。其中之一是將該問題當(dāng)作是一個(gè)分類問題,訓(xùn)練集中的每個(gè)主體都對(duì)應(yīng)一個(gè)類別。訓(xùn)練完之后,可以通過去除分類層并將之前層的特征用作人臉表征而將該模型用于識(shí)別不存在于訓(xùn)練集中的主體 [99]。在深度學(xué)習(xí)文獻(xiàn)中,這些特征通常被稱為瓶頸特征(bottleneck features)。在這第一個(gè)訓(xùn)練階段之后,該模型可以使用其它技術(shù)來進(jìn)一步訓(xùn)練,以為目標(biāo)應(yīng)用優(yōu)化瓶頸特征(比如使用聯(lián)合貝葉斯 [9] 或使用一個(gè)不同的損失函數(shù)來微調(diào)該 CNN 模型 [10])。另一種學(xué)習(xí)人臉表征的常用方法是通過優(yōu)化配對(duì)的人臉 [100,101] 或人臉三元組 [102] 之間的距離度量來直接學(xué)習(xí)瓶頸特征。

自組織映射

上面提到的方法都未能取得突破性的成果,主要原因是使用了能力不足的網(wǎng)絡(luò),且訓(xùn)練時(shí)能用的數(shù)據(jù)集也相對(duì)較小。直到這些模型得到擴(kuò)展并使用大量數(shù)據(jù) [107] 訓(xùn)練后,用于人臉識(shí)別的首個(gè)深度學(xué)習(xí)方法 [99,9] 才達(dá)到了當(dāng)前最佳水平。尤其值得一提的是 Facebook 的 DeepFace [99],這是最早的用于人臉識(shí)別的 CNN 方法之一,其使用了一個(gè)能力很強(qiáng)的模型,在 LFW 基準(zhǔn)上實(shí)現(xiàn)了 97.35% 的準(zhǔn)確度,將之前最佳表現(xiàn)的錯(cuò)誤率降低了 27%。研究者使用 softmax 損失和一個(gè)包含 440 萬張人臉(來自 4030 個(gè)主體)的數(shù)據(jù)集訓(xùn)練了一個(gè) CNN。本論文有兩個(gè)全新的貢獻(xiàn):(1)一個(gè)基于明確的 3D 人臉建模的高效的人臉對(duì)齊系統(tǒng);(2)一個(gè)包含局部連接的層的 CNN 架構(gòu) [108,109],這些層不同于常規(guī)的卷積層,可以從圖像中的每個(gè)區(qū)域?qū)W到不同的特征。在那同時(shí),DeepID 系統(tǒng) [9] 通過在圖塊(patch)上訓(xùn)練 60 個(gè)不同的 CNN 而得到了相近的結(jié)果,這些圖塊包含十個(gè)區(qū)域、三種比例以及 RGB 或灰度通道。在測(cè)試階段,會(huì)從每個(gè)圖塊提取出 160 個(gè)瓶頸特征,加上其水平翻轉(zhuǎn)后的情況,可形成一個(gè) 19200 維的特征向量(160×2×60)。類似于 [99],新提出的 CNN 架構(gòu)也使用了局部連接的層。其驗(yàn)證結(jié)果是通過在這種由 CNN 提取出的 19200 維特征向量上訓(xùn)練一個(gè)聯(lián)合貝葉斯分類器 [48] 得到的。訓(xùn)練該系統(tǒng)所使用的數(shù)據(jù)集包含 202599 張人臉圖像,來自 10177 位名人 [9]。

對(duì)于基于 CNN 的人臉識(shí)別方法,影響準(zhǔn)確度的因素主要有三個(gè):訓(xùn)練數(shù)據(jù)、CNN 架構(gòu)和損失函數(shù)。因?yàn)樵诖蠖鄶?shù)深度學(xué)習(xí)應(yīng)用中,都需要大訓(xùn)練集來防止過擬合。一般而言,為分類任務(wù)訓(xùn)練的 CNN 的準(zhǔn)確度會(huì)隨每類的樣本數(shù)量的增長而提升。這是因?yàn)楫?dāng)類內(nèi)差異更多時(shí),CNN 模型能夠?qū)W習(xí)到更穩(wěn)健的特征。但是,對(duì)于人臉識(shí)別,我們感興趣的是提取出能夠泛化到訓(xùn)練集中未曾出現(xiàn)過的主體上的特征。因此,用于人臉識(shí)別的數(shù)據(jù)集還需要包含大量主體,這樣模型也能學(xué)習(xí)到更多類間差異。[110] 研究了數(shù)據(jù)集中主體的數(shù)量對(duì)人臉識(shí)別準(zhǔn)確度的影響。在這項(xiàng)研究中,首先以降序形式按照每個(gè)主體的圖像數(shù)量對(duì)一個(gè)大數(shù)據(jù)集進(jìn)行了排序。然后,研究者通過逐漸增大主體數(shù)量而使用訓(xùn)練數(shù)據(jù)的不同子集訓(xùn)練了一個(gè) CNN。當(dāng)使用了圖像數(shù)量最多的 10000 個(gè)主體進(jìn)行訓(xùn)練時(shí),得到的準(zhǔn)確度是最高的。增加更多主體會(huì)降低準(zhǔn)確度,因?yàn)槊總€(gè)額外主體可用的圖像非常少。另一項(xiàng)研究 [111] 研究了更寬度的數(shù)據(jù)集更好,還是更深度的數(shù)據(jù)集更好(如果一個(gè)數(shù)據(jù)集包含更多主體,則認(rèn)為它更寬;類似地,如果每個(gè)主體包含的圖像更多,則認(rèn)為它更深)。這項(xiàng)研究總結(jié)到:如果圖像數(shù)量相等,則更寬的數(shù)據(jù)集能得到更好的準(zhǔn)確度。研究者認(rèn)為這是因?yàn)楦鼘挾鹊臄?shù)據(jù)集包含更多類間差異,因而能更好地泛化到未曾見過的主體上。表 1 展示了某些最常用于訓(xùn)練人臉識(shí)別 CNN 的公開數(shù)據(jù)集。

用于人臉識(shí)別的 CNN 架構(gòu)從那些在 ImageNet 大規(guī)模視覺識(shí)別挑戰(zhàn)賽(ILSVRC)上表現(xiàn)優(yōu)異的架構(gòu)上取得了很多靈感。舉個(gè)例子,[11] 中使用了一個(gè)帶有 16 層的 VGG 網(wǎng)絡(luò) [112] 版本,[10] 中則使用了一個(gè)相似但更小的網(wǎng)絡(luò)。[102] 中探索了兩種不同類型的 CNN 架構(gòu):VGG 風(fēng)格的網(wǎng)絡(luò) [112] 和 GoogleNet 風(fēng)格的網(wǎng)絡(luò) [113]。即使這兩種網(wǎng)絡(luò)實(shí)現(xiàn)了相當(dāng)?shù)臏?zhǔn)確度,但 GoogleNet 風(fēng)格的網(wǎng)絡(luò)的參數(shù)數(shù)量少 20 倍。更近段時(shí)間,殘差網(wǎng)絡(luò)(ResNet)[114] 已經(jīng)成為了很多目標(biāo)識(shí)別任務(wù)的最受偏愛的選擇,其中包括人臉識(shí)別 [115-121]。ResNet 的主要?jiǎng)?chuàng)新點(diǎn)是引入了一種使用捷徑連接的構(gòu)建模塊來學(xué)習(xí)殘差映射,如圖 7 所示。捷徑連接的使用能讓研究者訓(xùn)練更深度的架構(gòu),因?yàn)樗鼈冇兄诳鐚拥男畔⒘鲃?dòng)。[121] 對(duì)不同的 CNN 架構(gòu)進(jìn)行了全面的研究。在準(zhǔn)確度、速度和模型大小之間的最佳權(quán)衡是使用帶有一個(gè)殘差模塊(類似于 [122] 中提出的那種)的 100 層 ResNet 得到的。

選擇用于訓(xùn)練 CNN 方法的損失函數(shù)已經(jīng)成為近來人臉識(shí)別最活躍的研究領(lǐng)域。即使使用 softmax 損失訓(xùn)練的 CNN 已經(jīng)非常成功 [99,9,10,123],但也有研究者認(rèn)為使用這種損失函數(shù)無法很好地泛化到訓(xùn)練集中未出現(xiàn)過的主體上。這是因?yàn)?softmax 損失有助于學(xué)習(xí)能增大類間差異的特征(以便在訓(xùn)練集中區(qū)別不同的類),但不一定會(huì)降低類內(nèi)差異。研究者已經(jīng)提出了一些能緩解這一問題的方法。優(yōu)化瓶頸特征的一種簡(jiǎn)單方法是使用判別式子空間方法,比如聯(lián)合貝葉斯 [48],就像 [9,124,125,126,10,127] 中所做的那樣。另一種方法是使用度量學(xué)習(xí)。比如,[100,101] 中使用了配對(duì)的對(duì)比損失來作為唯一的監(jiān)督信號(hào),[124-126] 中還結(jié)合使用了分類損失。人臉識(shí)別方面最常用的度量學(xué)習(xí)方法是三元組損失函數(shù) [128],最早在 [102] 中被用于人臉識(shí)別任務(wù)。三元組損失的目標(biāo)是以一定余量分開正例對(duì)之間的距離和負(fù)例對(duì)之間的距離。從數(shù)學(xué)形式上講,對(duì)于每個(gè)三元組 i,需要滿足以下條件 [102]:

其中 x_a 是錨圖像,x_p 是同一主體的圖像,x_n 是另一個(gè)不同主體的圖像,f 是模型學(xué)習(xí)到的映射關(guān)系,α 施加在正例對(duì)和負(fù)例對(duì)距離之間的余量。在實(shí)踐中,使用三元組損失訓(xùn)練的 CNN 的收斂速度比使用 softmax 的慢,這是因?yàn)樾枰罅咳M(或?qū)Ρ葥p失中的配對(duì))才能覆蓋整個(gè)訓(xùn)練集。盡管這個(gè)問題可以通過在訓(xùn)練階段選擇困難的三元組(即違反余量條件的三元組)來緩解 [102],但常見的做法是在第一個(gè)訓(xùn)練階段使用 softmax 損失訓(xùn)練,在第二個(gè)訓(xùn)練階段使用三元組損失來對(duì)瓶頸特征進(jìn)行調(diào)整 [11,129,130]。研究者們已經(jīng)提出了三元組損失的一些變體。比如 [129] 中使用了點(diǎn)積作為相似度度量,而不是歐幾里德距離;[130] 中提出了一種概率式三元組損失;[131,132] 中提出了一種修改版的三元組損失,它也能最小化正例和負(fù)例分?jǐn)?shù)分布的標(biāo)準(zhǔn)差。用于學(xué)習(xí)判別特征的另一種損失函數(shù)是 [133] 中提出的中心損失(centre loss)。中心損失的目標(biāo)是最小化瓶頸特征與它們對(duì)應(yīng)類別的中心之間的距離。通過使用 softmax 損失和中心損失進(jìn)行聯(lián)合訓(xùn)練,結(jié)果表明 CNN 學(xué)習(xí)到的特征能夠有效增大類間差異(softmax 損失)和降低類內(nèi)個(gè)體差異(中心損失)。相比于對(duì)比損失和三元組損失,中心損失的優(yōu)點(diǎn)是更高效和更容易實(shí)現(xiàn),因?yàn)樗恍枰谟?xùn)練過程中構(gòu)建配對(duì)或三元組。另一種相關(guān)的度量學(xué)習(xí)方法是 [134] 中提出的范圍損失(range loss),這是為改善使用不平衡數(shù)據(jù)集的訓(xùn)練而提出的。范圍損失有兩個(gè)組件。類內(nèi)的損失組件是最小化同一類樣本之間的 k-最大距離,而類間的損失組件是最大化每個(gè)訓(xùn)練批中最近的兩個(gè)類中心之間的距離。通過使用這些極端案例,范圍損失為每個(gè)類都使用同樣的信息,而不管每個(gè)類別中有多少樣本可用。類似于中心損失,范圍損失需要與 softmax 損失結(jié)合起來以避免損失降至零 [133]。

當(dāng)結(jié)合不同的損失函數(shù)時(shí),會(huì)出現(xiàn)一個(gè)困難,即尋找每一項(xiàng)之間的正確平衡。最近一段時(shí)間,已有研究者提出了幾種修改 softmax 損失的方法,這樣它無需與其它損失結(jié)合也能學(xué)習(xí)判別特征。一種已被證明可以增加瓶頸特征的判別能力的方法是特征歸一化 [115,118]。比如,[115] 提出歸一化特征以具有單位 L2 范數(shù),[118] 提出歸一化特征以具有零均值和單位方差。一個(gè)成功的方法已經(jīng)在 softmax 損失中每類之間的決策邊界中引入了一個(gè)余量 [135]。為了簡(jiǎn)單,我們介紹一下使用 softmax 損失進(jìn)行二元分類的情況。在這種情況下,每類之間的決策邊界(如果偏置為零)可由下式給定:

其中 x 是特征向量,W_1 和 W_2 是對(duì)應(yīng)每類的權(quán)重,θ_1 和 θ_2 是 x 分別與 W_1 和 W_2 之間的角度。通過在上式中引入一個(gè)乘法余量,這兩個(gè)決策邊界可以變得更加嚴(yán)格:

如圖 8 所示,這個(gè)余量可以有效地增大類別之間的區(qū)分程度以及各自類別之內(nèi)的緊湊性。根據(jù)將該余量整合進(jìn)損失的方式,研究者們已經(jīng)提出了多種可用方法 [116,119-121]。比如 [116] 中對(duì)權(quán)重向量進(jìn)行了歸一化以具有單位范數(shù),這樣使得決策邊界僅取決于角度 θ_1 和 θ_2。[119,120] 中則提出了一種加性余弦余量。相比于乘法余量 [135,116],加性余量更容易實(shí)現(xiàn)和優(yōu)化。在這項(xiàng)工作中,除了歸一化權(quán)重向量,特征向量也如 [115] 中一樣進(jìn)行了歸一化和比例調(diào)整。[121] 中提出了另一種加性余量,它既有 [119,120] 那樣的優(yōu)點(diǎn),還有更好的幾何解釋方式,因?yàn)檫@個(gè)余量是加在角度上的,而不是余弦上。表 2 總結(jié)了有余量的 softmax 損失的不同變體的決策邊界。這些方法是人臉識(shí)別領(lǐng)域的當(dāng)前最佳。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人臉識(shí)別
    +關(guān)注

    關(guān)注

    77

    文章

    4134

    瀏覽量

    88805
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5612

    瀏覽量

    124672

原文標(biāo)題:【科普】人臉識(shí)別技術(shù)全面總結(jié):從傳統(tǒng)方法到深度學(xué)習(xí)

文章出處:【微信號(hào):TechSugar,微信公眾號(hào):TechSugar】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    人工智能-Python深度學(xué)習(xí)進(jìn)階與應(yīng)用技術(shù):工程師高培解讀

    深度學(xué)習(xí)的工程化落地,早已不是紙上談兵的事。卷積神經(jīng)網(wǎng)絡(luò)Transformer,目標(biāo)檢測(cè)到大模型私有化部署,
    的頭像 發(fā)表于 04-21 11:01 ?410次閱讀
    人工智能-Python<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>進(jìn)階與應(yīng)用<b class='flag-5'>技術(shù)</b>:工程師高培解讀

    【智能檢測(cè)】基于AI深度學(xué)習(xí)與飛拍技術(shù)的影像測(cè)量系統(tǒng):實(shí)現(xiàn)高效精準(zhǔn)的全自動(dòng)光學(xué)檢測(cè)與智能制造數(shù)據(jù)閉環(huán)

    內(nèi)容概要:文檔內(nèi)容介紹了中圖儀器(Chotest)影像測(cè)量儀融合人工智能深度學(xué)習(xí)與飛拍技術(shù)的自動(dòng)化檢測(cè)解決方案。系統(tǒng)通過AI深度學(xué)習(xí)實(shí)現(xiàn)
    發(fā)表于 03-31 17:11

    【團(tuán)購】獨(dú)家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實(shí)戰(zhàn)課(11大系列課程,共5000+分鐘)

    ,形成\"傳統(tǒng)視覺算法→深度學(xué)習(xí)建?!I(yè)級(jí)部署\"的完整技術(shù)鏈,幫助學(xué)員掌握01搭建缺陷檢
    發(fā)表于 12-04 09:28

    【團(tuán)購】獨(dú)家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實(shí)戰(zhàn)課程(11大系列課程,共5000+分鐘)

    ,形成\"傳統(tǒng)視覺算法→深度學(xué)習(xí)建?!I(yè)級(jí)部署\"的完整技術(shù)鏈,幫助學(xué)員掌握01搭建缺陷檢
    發(fā)表于 12-03 13:50

    基于AIK-RA8D1的人臉識(shí)別的應(yīng)用演示

    隨著科技的進(jìn)步,人臉識(shí)別技術(shù)已逐漸成為一種主流的安全驗(yàn)證手段。它不依賴傳統(tǒng)的密碼,而是通過面部特征識(shí)別來驗(yàn)證身份,從而提升了安全性并帶來了更
    的頭像 發(fā)表于 12-02 14:29 ?5687次閱讀
    基于AIK-RA8D1的<b class='flag-5'>人臉</b><b class='flag-5'>識(shí)別</b>的應(yīng)用演示

    人臉識(shí)別門禁終端哪家做的比較好

    物聯(lián)網(wǎng)技術(shù)有限公司推出的人臉識(shí)別門禁終端,憑借全面的功能、穩(wěn)定的性能和廣泛的適配性,成為行業(yè)內(nèi)的優(yōu)質(zhì)之選。這款人臉
    的頭像 發(fā)表于 11-20 16:18 ?573次閱讀
    <b class='flag-5'>人臉</b><b class='flag-5'>識(shí)別</b>門禁終端哪家做的比較好

    人臉識(shí)別門禁、人臉閘機(jī),集成方案使用

    人臉識(shí)別門禁方案憑借技術(shù)優(yōu)勢(shì)與實(shí)用價(jià)值,不僅能解決傳統(tǒng)管理模式的痛點(diǎn),更能為不同領(lǐng)域的智能化升級(jí)注入強(qiáng)勁動(dòng)力,成為備受青睞的解決方案。安全是各類場(chǎng)景管理的核心訴求,
    的頭像 發(fā)表于 11-19 16:10 ?772次閱讀
    <b class='flag-5'>人臉</b><b class='flag-5'>識(shí)別</b>門禁、<b class='flag-5'>人臉</b>閘機(jī),集成<b class='flag-5'>到</b>方案使用

    門禁人臉識(shí)別:打造高效智能的人臉識(shí)別門禁考勤解決方案

    在物聯(lián)網(wǎng)與人工智能技術(shù)深度融合的今天,門禁管理與考勤統(tǒng)計(jì)作為場(chǎng)所安全與效率管理的核心環(huán)節(jié),正經(jīng)歷著傳統(tǒng)模式向智能化的全面升級(jí)。門禁
    的頭像 發(fā)表于 11-18 15:28 ?569次閱讀
    門禁<b class='flag-5'>人臉</b><b class='flag-5'>識(shí)別</b>:打造高效智能的<b class='flag-5'>人臉</b><b class='flag-5'>識(shí)別</b>門禁考勤解決方案

    深度學(xué)習(xí)對(duì)工業(yè)物聯(lián)網(wǎng)有哪些幫助

    深度學(xué)習(xí)作為人工智能的核心分支,通過模擬人腦神經(jīng)網(wǎng)絡(luò)的層級(jí)結(jié)構(gòu),能夠自動(dòng)海量工業(yè)數(shù)據(jù)中提取復(fù)雜特征,為工業(yè)物聯(lián)網(wǎng)(IIoT)提供了數(shù)據(jù)感知
    的頭像 發(fā)表于 08-20 14:56 ?1271次閱讀

    如何挑選人臉識(shí)別終端?人臉識(shí)別一體機(jī)品牌排行榜

    挑選人臉識(shí)別終端時(shí)需要注意穩(wěn)定性、人臉識(shí)別算法可靠性、兼容性、安全性、軟件管理、維護(hù)與安裝以及產(chǎn)品外觀與價(jià)格等多個(gè)因素。另外,在挑選人臉
    的頭像 發(fā)表于 08-18 10:44 ?2450次閱讀
    如何挑選<b class='flag-5'>人臉</b><b class='flag-5'>識(shí)別</b>終端?<b class='flag-5'>人臉</b><b class='flag-5'>識(shí)別</b>一體機(jī)品牌排行榜

    人臉方向識(shí)別算法

    人臉識(shí)別
    深蕾半導(dǎo)體
    發(fā)布于 :2025年07月22日 09:58:29

    新品|重磅推出XC3576IC人臉識(shí)別專用主板

    人臉識(shí)別專用主板,全面適配國產(chǎn)銀河麒麟操作系統(tǒng)及星光麒麟操作系統(tǒng),為工業(yè)控制、智能制造、邊緣計(jì)算等領(lǐng)域提供安全、穩(wěn)定、高效的硬件支持!核心亮點(diǎn):國產(chǎn)麒麟系統(tǒng)深度
    的頭像 發(fā)表于 07-10 16:37 ?1354次閱讀
    新品|重磅推出XC3576IC<b class='flag-5'>人臉</b><b class='flag-5'>識(shí)別</b>專用主板

    基于LockAI視覺識(shí)別模塊:C++人臉識(shí)別

    是實(shí)現(xiàn)人臉識(shí)別的常用方法深度學(xué)習(xí)方法:現(xiàn)代的人臉識(shí)別
    發(fā)表于 07-01 12:01

    人臉識(shí)別身份核驗(yàn)終端使用鴻蒙系統(tǒng),有什么好處?

    隨著人臉識(shí)別技術(shù)越來越得到廣泛應(yīng)用,不少人對(duì)人臉識(shí)別核驗(yàn)終端所涉及的個(gè)人信息安全十分關(guān)注。而且人臉
    的頭像 發(fā)表于 05-20 09:57 ?1237次閱讀
    <b class='flag-5'>人臉</b><b class='flag-5'>識(shí)別</b>身份核驗(yàn)終端使用鴻蒙系統(tǒng),有什么好處?
    紫金县| 徐闻县| 嘉荫县| 海南省| 黎川县| 安国市| 获嘉县| 神木县| 香河县| 江安县| 察哈| 阿合奇县| 遂溪县| 屯门区| 共和县| 安溪县| 雷山县| 岢岚县| 扬中市| 柘荣县| 福鼎市| 伊宁市| 库尔勒市| 北碚区| 苍溪县| 宣汉县| 镇远县| 汾西县| 永福县| 金塔县| 云霄县| 新乐市| 铜川市| 天祝| 东港市| 中山市| 封丘县| 卓尼县| 津市市| 张掖市| 西和县|