日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

TPAMI 2023 | 用于視覺識(shí)別的相互對(duì)比學(xué)習(xí)在線知識(shí)蒸餾

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:未知 ? 2023-09-19 10:00 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本次文章介紹我們于 TPAMI-2023 發(fā)表的一項(xiàng)用于視覺識(shí)別的相互對(duì)比學(xué)習(xí)在線知識(shí)蒸餾(Online Knowledge Distillation via Mutual Contrastive Learning for Visual Recognition)工作,該工作是我們發(fā)表在 AAAI-2022 論文 Mutual contrastive learning for visual representation learning [1] 的擴(kuò)展版本,論文講解鏈接為:

https://zhuanlan.zhihu.com/p/574701719 摘要:無需教師的在線知識(shí)蒸餾聯(lián)合地訓(xùn)練多個(gè)學(xué)生模型并且相互地蒸餾知識(shí)。雖然現(xiàn)有的在線知識(shí)蒸餾方法獲得了很好的性能,但是這些方法通常關(guān)注類別概率作為核心知識(shí)類型,忽略了有價(jià)值的特征表達(dá)信息。 本文展示了一個(gè)相互對(duì)比學(xué)習(xí)(Mutual Contrastive Learning,MCL)框架用于在線知識(shí)蒸餾。MCL 的核心思想是在一個(gè)網(wǎng)絡(luò)群體中利用在線的方式進(jìn)行對(duì)比分布的交互和遷移。MCL 可以聚合跨網(wǎng)絡(luò)的嵌入向量信息,同時(shí)最大化兩個(gè)網(wǎng)絡(luò)互信息的下界。這種做法可以使得每一個(gè)網(wǎng)絡(luò)可以從其他網(wǎng)絡(luò)中學(xué)習(xí)到額外的對(duì)比知識(shí),從而有利于學(xué)習(xí)到更好的特征表達(dá),提升視覺識(shí)別任務(wù)的性能。 相比于會(huì)議版本,期刊版本將 MCL 擴(kuò)展到中間特征層并且使用元優(yōu)化來訓(xùn)練自適應(yīng)的層匹配機(jī)制。除了最后一層,MCL 也在中間層進(jìn)行特征對(duì)比學(xué)習(xí),因此新方法命名為 Layer-wise MCL(L-MCL)。在圖像分類和其他視覺識(shí)別任務(wù)上展示了 L-MCL 相比于先進(jìn)在線知識(shí)蒸餾方法獲得了一致的提升。此優(yōu)勢(shì)表明了 L-MCL 引導(dǎo)網(wǎng)絡(luò)產(chǎn)生了更好的特征表達(dá)。wKgZomUKAUeABfUfAAJfiDQnJmM755.png

論文地址:

https://arxiv.org/pdf/2207.11518.pdf

代碼地址:

https://github.com/winycg/L-MCL

wKgZomUKAUeAboOzAAAl6LOgh3c565.png

引言

傳統(tǒng)的離線知識(shí)蒸餾需要預(yù)訓(xùn)練的教師模型對(duì)學(xué)生模型進(jìn)行監(jiān)督。在線知識(shí)蒸餾在無需教師的情況下同時(shí)聯(lián)合訓(xùn)練兩個(gè)以上的學(xué)生模型。深度相互學(xué)習(xí)(Deep Mutual Learning,DML)[2]表明了模型群體可以從相互學(xué)習(xí)類別概率分布(圖像分類任務(wù)最后的輸出預(yù)測)中獲益。每一個(gè)模型在同伴教授的模式下相比傳統(tǒng)的單獨(dú)訓(xùn)練效果更好。 現(xiàn)有的在線知識(shí)蒸餾方法通常僅僅關(guān)注結(jié)果驅(qū)動(dòng)的蒸餾,但是忽略了在線蒸餾特征方面的應(yīng)用。雖然先前的 AFD [3]嘗試通過在線的方式在多個(gè)網(wǎng)絡(luò)間對(duì)齊中間特征圖,Zhang 等人[2]指出這種做法會(huì)減少群體多樣性,降低相互學(xué)習(xí)能力。為了學(xué)習(xí)更有意義的特征嵌入,我們認(rèn)為一個(gè)更好的方式是從視覺表征學(xué)習(xí)角度的對(duì)比學(xué)習(xí)。

wKgaomUOseuAHCKqAAM2USl54_8152.png

▲ 圖1. 相互對(duì)比學(xué)習(xí)基本思想示意圖 圖中, 分別表示兩個(gè)不同的網(wǎng)絡(luò), 是推理來自網(wǎng)絡(luò) 和輸入樣本 產(chǎn)生的特征向量。虛線和箭頭代表要逼近或者遠(yuǎn)離的方向。從圖中可以看出,MCL 包含了樸素對(duì)比學(xué)習(xí)(Vanilla Contrastive Learning,VCL)和交互式對(duì)比學(xué)習(xí)(Interactive Contrastive Learning,ICL)。 相比于傳統(tǒng)的 VCL,提出的 ICL 從兩個(gè)不同網(wǎng)絡(luò)間建模對(duì)比相似度分布。本文證明 ICL 的誤差函數(shù)等價(jià)于最大化兩個(gè)網(wǎng)絡(luò)互信息的下界,這可以被理解為一個(gè)網(wǎng)絡(luò)可以學(xué)習(xí)到另外網(wǎng)絡(luò)額外的知識(shí)。 MCL 主要是發(fā)表于 AAAI-2022 的方法,期刊版本將 MCL 從卷積網(wǎng)絡(luò)的最后一層擴(kuò)展到多個(gè)模型的中間特征層,命名為 Layer-wise MCL。此外,傳統(tǒng)的中間特征層蒸餾使用手工的匹配,本文則提出一個(gè)自適應(yīng)的層匹配機(jī)制,然后通過元優(yōu)化來訓(xùn)練該機(jī)制。

wKgZomUKAUiAUx54AAAuhh9-KLM583.png

方法

2.1. 相互對(duì)比學(xué)習(xí)MCL(AAAI-2022)

wKgaomUOsneANvyiAANja2j-FVo357.png

▲ 圖2. 相互對(duì)比學(xué)習(xí)整體示意圖

2.1.1 傳統(tǒng)對(duì)比學(xué)習(xí)(Vanilla Contrastive Learning,VCL) 為了便于描述,本方法將 anchor 樣本向量表示為 , 正樣本向量表示為 個(gè)負(fù)樣本向量表達(dá) 表示向量產(chǎn)生自網(wǎng)絡(luò) 。這里,特征向量通過 標(biāo)準(zhǔn)化進(jìn)行預(yù)處理。使用基于 InfoNCE 的交叉熵作為對(duì)比誤差:wKgZomUKAUiAfLcVAABApOxJsHE674.png ?對(duì)于總共 個(gè)網(wǎng)絡(luò)來說,所有的對(duì)比誤差表示為:

wKgZomUKAUiAKCIQAAArDByt5ss241.png

2.1.2 交互式對(duì)比學(xué)習(xí)(Interactive Contrastive Learning,ICL) VCL 不能建模跨網(wǎng)絡(luò)的關(guān)系來進(jìn)行聯(lián)合學(xué)習(xí),因?yàn)閷?duì)比分布來自于網(wǎng)絡(luò)自身的嵌入空間。ICL 的 anchor 樣本與對(duì)比樣本產(chǎn)生自不同的網(wǎng)絡(luò),但在誤差形式上依舊與傳統(tǒng)的對(duì)比學(xué)習(xí)誤差相同:

wKgZomUKAUmAeXmWAABDzUNsmsE873.png

對(duì)于總共 個(gè)網(wǎng)絡(luò)來說,所有的對(duì)比誤差表示為:wKgZomUKAUmAHottAAA6ziYm6K4293.png理論分析: 相比于誤差 ,最小化 等價(jià)于最大化網(wǎng)絡(luò) 互信息 的下界:

wKgZomUKAUmAJPTeAAAyml4f5m0589.png

直覺上,當(dāng)來自 的 anchor 特征向量已知時(shí),互信息 衡量了來自 對(duì)比特征向量的不確定性,這可以理解為每一個(gè)網(wǎng)絡(luò)可以從其他網(wǎng)絡(luò)中學(xué)習(xí)到對(duì)比知識(shí),從而更有利于表征學(xué)習(xí)。

2.1.3 基于在線相互遷移的軟對(duì)比學(xué)習(xí) 收到深度相互學(xué)習(xí)(Deep Mutual Learning,DML)[1] 的啟發(fā),本方法利用 KL 散度來對(duì)齊網(wǎng)絡(luò)間的對(duì)比分布,根據(jù)本文提出的兩種對(duì)比學(xué)習(xí)方法 VCL 和 ICL 來進(jìn)行對(duì)比分布的雙向遷移:

2.1.3.1 Soft VCL: 對(duì)于產(chǎn)生 的分布 來說,其監(jiān)督信號(hào)是其他網(wǎng)絡(luò)產(chǎn)生的分,利用 KL 散度使得 與其他分布接近:

wKgZomUKAUmATx-zAAA3kjsNkMY187.png

2.1.3.2 Soft ICL 給定兩個(gè)網(wǎng)絡(luò) ,可以得到兩個(gè)ICL對(duì)應(yīng)的對(duì)比分布 ,使用 KL 散度的形式使得兩個(gè)分布盡可能接近。對(duì)于 個(gè)網(wǎng)絡(luò)來說,每兩個(gè)網(wǎng)絡(luò)進(jìn)行對(duì)比分布的遷移:

wKgZomUKAUmARWnNAAA9miXxmxg021.png

2.1.4 MCL的整體誤差 為了盡可能利用聯(lián)合學(xué)習(xí)的優(yōu)勢(shì),本方法將所有的對(duì)比誤差項(xiàng)作為一個(gè)整體的誤差訓(xùn)練 個(gè)網(wǎng)絡(luò):

wKgZomUKAUmAUCrKAABBz-kLkaA478.png

2.2 逐層的相互對(duì)比學(xué)習(xí)(Layer-wise MCL)

wKgZomUOspuAVn9JAAFqZvww3EU238.png

▲ 圖3. 一對(duì)一匹配和加權(quán)的多對(duì)多匹配示意圖 2.2.1 基礎(chǔ)框架 給定網(wǎng)絡(luò)群每一個(gè)網(wǎng)絡(luò)具有 個(gè)階段,原始的 MCL 在最后的特征嵌進(jìn)行學(xué)習(xí)。Layer-wise MCL(L-MCL)進(jìn)一步擴(kuò)展相互對(duì)比學(xué)習(xí)到中間特征層和最后特征層,并且采用跨層的方式。wKgZomUKAUqAFi2ZAAA-leMt4VM032.png下一個(gè)章節(jié),本文展示如何利用元網(wǎng)絡(luò) 來優(yōu)化匹配權(quán)重 。

2.2.2 訓(xùn)練元網(wǎng)絡(luò) 2.2.2.1 交叉熵任務(wù)誤差 使用交叉熵誤差訓(xùn)練 個(gè)網(wǎng)絡(luò):wKgZomUKAUqAcww5AABCUHA4NyM973.png ?將基礎(chǔ)的任務(wù)誤差和 L-MCL 誤差相加作為總誤差來進(jìn)行特征層面的在線蒸餾誤差:

wKgZomUKAUqAcLFWAABDIeiIkp4346.png

2.2.2.2 元優(yōu)化 受到元學(xué)習(xí)的啟發(fā),本文采用交替優(yōu)化的方式來訓(xùn)練學(xué)生網(wǎng)絡(luò)和元網(wǎng)絡(luò): (1)更新 次最小化 。 (2)更新 來一次最小化 。 (3)衡量 并且更新 來最小化它。

2.2.2.3 元網(wǎng)絡(luò) 結(jié)構(gòu)元網(wǎng)絡(luò)包含了兩個(gè)線性轉(zhuǎn)換 ,來對(duì)輸入的特征向量 進(jìn)行轉(zhuǎn)換。轉(zhuǎn)換之后,特征向量通過 正則化 來進(jìn)行標(biāo)準(zhǔn)化。受到自注意力機(jī)制的啟發(fā),本文利用點(diǎn)乘得到匹配特征的相似性,從而衡量匹配層的相關(guān)性,然后引入 sigmoid 激活函數(shù) 來將輸出值縮放到 作為層匹配權(quán)重 。整體的過程被規(guī)則化為:

wKgZomUKAUqAdFh7AABLnhROiyo613.png

wKgZomUKAUuAAB5HAAAtJ0fTuoM713.png

實(shí)驗(yàn)

在 ImageNet 上的實(shí)驗(yàn)結(jié)果如下所示,表 1 和表 2 分別展示了兩個(gè)同構(gòu)和異構(gòu)網(wǎng)絡(luò)利用相互對(duì)比學(xué)習(xí)的實(shí)驗(yàn)結(jié)果。

wKgZomUKAUuAIbuWAAUoQv-V7W8394.png

▲ 表1. 兩個(gè)同構(gòu)網(wǎng)絡(luò)利用相互對(duì)比學(xué)習(xí)的實(shí)驗(yàn)結(jié)果wKgZomUKAUuAWyzaAAct8aoAeQw188.png▲表2. 兩個(gè)異構(gòu)網(wǎng)絡(luò)利用相互對(duì)比學(xué)習(xí)的實(shí)驗(yàn)結(jié)果 實(shí)驗(yàn)結(jié)果表明本文提出的 L-MCL 相比于 baseline 以及先前流行的在線知識(shí)蒸餾方法都獲得了顯著的性能提升,表明在多個(gè)網(wǎng)絡(luò)之間使用特征層面的對(duì)比學(xué)習(xí)蒸餾相比概率分布效果更好。在下游的目標(biāo)檢測和實(shí)例分割實(shí)驗(yàn)上表明了該方法相比先前的蒸餾方法引導(dǎo)網(wǎng)絡(luò)學(xué)習(xí)到了更好的視覺表征,從而提升了視覺識(shí)別效果。

wKgZomUKAUyABytXAAD3uYhd4hI895.png

▲ 表3. 通過在線蒸餾的預(yù)訓(xùn)練網(wǎng)絡(luò)遷移到下游的目標(biāo)檢測和與實(shí)例分割的實(shí)驗(yàn)

wKgZomUKAUyAHFsxAAAC0jQz1zo003.jpg

參考文獻(xiàn)

wKgZomUKAUyAHFsxAAAC0jQz1zo003.jpg ?[1] Yang C, An Z, Cai L, et al. Mutual contrastive learning for visual representation learning[C]//Proceedings of the AAAI Conference on Artificial Intelligence. 2022, 36(3): 3045-3053.[2] Zhang Y, Xiang T, Hospedales T M, et al. Deep mutual learning[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2018: 4320-4328.[3] Chung I, Park S U, Kim J, et al. Feature-map-level online adversarial knowledge distillation[C]//International Conference on Machine Learning. PMLR, 2020: 2006-2015. ·


原文標(biāo)題:TPAMI 2023 | 用于視覺識(shí)別的相互對(duì)比學(xué)習(xí)在線知識(shí)蒸餾

文章出處:【微信公眾號(hào):智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:TPAMI 2023 | 用于視覺識(shí)別的相互對(duì)比學(xué)習(xí)在線知識(shí)蒸餾

文章出處:【微信號(hào):tyutcsplab,微信公眾號(hào):智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    友思特案例 | 金屬行業(yè)視覺檢測案例四:挖掘機(jī)鋼板表面光學(xué)字符識(shí)別(OCR)檢測

    在挖掘機(jī)鋼板表面光學(xué)字符識(shí)別(OCR)檢測中,通過實(shí)施友思特深度學(xué)習(xí)視覺檢測解決方案,解決了挖掘機(jī)零部件生產(chǎn)所用鋼板上標(biāo)記識(shí)別的問題。這有助于防止材料分配錯(cuò)誤,顯著提高了生產(chǎn)效率。
    的頭像 發(fā)表于 02-05 11:40 ?383次閱讀
    友思特案例 | 金屬行業(yè)<b class='flag-5'>視覺</b>檢測案例四:挖掘機(jī)鋼板表面光學(xué)字符<b class='flag-5'>識(shí)別</b>(OCR)檢測

    華秋輸出的GERBER別的軟件無法正確識(shí)別

    ,卡住了。 這個(gè)是華秋識(shí)別的,可以看到是正確的。 下面是AD,KICAD、工廠錫膏機(jī)識(shí)別的,都一樣的,統(tǒng)一少了太多東東。
    發(fā)表于 12-17 10:46

    【團(tuán)購】獨(dú)家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實(shí)戰(zhàn)課(11大系列課程,共5000+分鐘)

    高清錄屏演示 進(jìn)度梯度設(shè)計(jì):前3章(視覺篇)聚焦傳統(tǒng)算法,第6章起逐步引入深度學(xué)習(xí),避免知識(shí)斷層 2)實(shí)戰(zhàn)項(xiàng)目拆解教學(xué) 以\"雙CCD光學(xué)分選案例\"為例,采用\"硬件連接
    發(fā)表于 12-04 09:28

    電能質(zhì)量在線監(jiān)測裝置是如何實(shí)現(xiàn)對(duì)電壓中斷事件的識(shí)別的?

    電能質(zhì)量在線監(jiān)測裝置對(duì)電壓中斷事件的識(shí)別,是基于 **“國標(biāo)定義 + 高保真采樣 + 實(shí)時(shí)計(jì)算 + 多維度驗(yàn)證”** 的閉環(huán)技術(shù)體系,核心目標(biāo)是 “無漏判、無誤判”,精準(zhǔn)捕捉符合 GB/T
    的頭像 發(fā)表于 11-27 16:32 ?1347次閱讀
    電能質(zhì)量<b class='flag-5'>在線</b>監(jiān)測裝置是如何實(shí)現(xiàn)對(duì)電壓中斷事件的<b class='flag-5'>識(shí)別的</b>?

    如何深度學(xué)習(xí)機(jī)器視覺的應(yīng)用場景

    深度學(xué)習(xí)視覺應(yīng)用場景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測:處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)化缺陷模式 非標(biāo)產(chǎn)品分類:對(duì)形狀、顏色、紋理多變的產(chǎn)品進(jìn)行智能分類 外觀質(zhì)量評(píng)估:基于學(xué)習(xí)的外觀質(zhì)量標(biāo)準(zhǔn)判定 精密
    的頭像 發(fā)表于 11-27 10:19 ?352次閱讀

    UV紫外相機(jī)在工業(yè)視覺檢測中的應(yīng)用

    UV紫外相機(jī)通過捕捉紫外信號(hào)和激發(fā)熒光反應(yīng),解決常規(guī)相機(jī)無法識(shí)別的隱形缺陷和標(biāo)記,廣泛應(yīng)用于工業(yè)視覺檢測。
    的頭像 發(fā)表于 10-21 09:45 ?714次閱讀

    iTOF技術(shù),多樣化的3D視覺應(yīng)用

    (CMOS)產(chǎn)品項(xiàng)目利用其在傳統(tǒng)TOF(CCD)技術(shù)方面的專業(yè)知識(shí),目標(biāo)是在2023年12月之前量產(chǎn)。基于客戶樣本驗(yàn)證的初步反饋和溝通表明,與同類產(chǎn)品相比,這兩項(xiàng)指標(biāo)的表現(xiàn)均具有優(yōu)異性,增強(qiáng)了我們對(duì)其
    發(fā)表于 09-05 07:24

    基于LockAI視覺識(shí)別模塊:C++人臉識(shí)別

    基本知識(shí)講解 1.1 人臉識(shí)別簡介 人臉識(shí)別是一種利用人的臉部特征進(jìn)行身份識(shí)別的生物識(shí)別技術(shù)。它通過檢測圖像或視頻中的人臉,提取如眼睛、鼻
    發(fā)表于 07-01 12:01

    基于LockAI視覺識(shí)別模塊:C++人臉識(shí)別

    本文基于RV1106做成的LockAI視覺識(shí)別模塊,采用LZ-Picodet模型訓(xùn)練的人臉檢測模型LZ-Face,以及ArcFace人臉識(shí)別模型,實(shí)現(xiàn)人臉識(shí)別系統(tǒng)。
    的頭像 發(fā)表于 07-01 10:09 ?1107次閱讀
    基于LockAI<b class='flag-5'>視覺</b><b class='flag-5'>識(shí)別</b>模塊:C++人臉<b class='flag-5'>識(shí)別</b>

    基于LockAI視覺識(shí)別模塊:手寫數(shù)字識(shí)別

    1.1 手寫數(shù)字識(shí)別簡介 手寫數(shù)字識(shí)別是一種利用計(jì)算機(jī)視覺和機(jī)器學(xué)習(xí)技術(shù)自動(dòng)識(shí)別手寫數(shù)字的過程。它通過圖像預(yù)處理、特征提取和模型訓(xùn)練來實(shí)現(xiàn)
    發(fā)表于 06-30 16:45

    基于LockAI視覺識(shí)別模塊:手寫數(shù)字識(shí)別

    手寫數(shù)字識(shí)別是一種經(jīng)典的模式識(shí)別和圖像處理問題,旨在通過計(jì)算機(jī)自動(dòng)識(shí)別用戶手寫的數(shù)字。本文將教會(huì)你如何使用基于RV1106的LockAI視覺識(shí)別
    的頭像 發(fā)表于 06-30 15:44 ?1299次閱讀
    基于LockAI<b class='flag-5'>視覺</b><b class='flag-5'>識(shí)別</b>模塊:手寫數(shù)字<b class='flag-5'>識(shí)別</b>

    基于LockAI視覺識(shí)別模塊:C++條碼識(shí)別

    條碼識(shí)別視覺模塊經(jīng)常使用到的功能之一,經(jīng)常用于識(shí)別超市的貨物信息。本文我們將演示如何基于瑞芯微RV1106的LockAI視覺
    發(fā)表于 05-27 10:26

    基于LockAI視覺識(shí)別模塊:C++條碼識(shí)別

    條碼識(shí)別視覺模塊經(jīng)常使用到的功能之一,經(jīng)常用于識(shí)別超市的貨物信息。本文我們將演示如何基于瑞芯微RV1106的LockAI視覺
    的頭像 發(fā)表于 05-27 09:32 ?1004次閱讀
    基于LockAI<b class='flag-5'>視覺</b><b class='flag-5'>識(shí)別</b>模塊:C++條碼<b class='flag-5'>識(shí)別</b>

    基于LockAI視覺識(shí)別模塊:C++二維碼識(shí)別

    二維碼識(shí)別視覺模塊經(jīng)常使用到的功能之一。我們將演示如何使用基于瑞芯微RV1106的LockAI視覺識(shí)別模塊進(jìn)行二維碼識(shí)別。
    的頭像 發(fā)表于 05-26 09:42 ?1185次閱讀
    基于LockAI<b class='flag-5'>視覺</b><b class='flag-5'>識(shí)別</b>模塊:C++二維碼<b class='flag-5'>識(shí)別</b>

    基于LockAI視覺識(shí)別模塊:C++同時(shí)識(shí)別輪廓和色塊

    1.項(xiàng)目簡介1.1色塊識(shí)別的重要性顏色特征提?。侯伾且环N重要的視覺特征,尤其在背景較為單一的情況下,能夠快速區(qū)分目標(biāo)區(qū)域。應(yīng)用場景:廣泛應(yīng)用于機(jī)器人導(dǎo)航、工業(yè)自動(dòng)化、物體跟蹤等領(lǐng)域。HSV顏色空間
    的頭像 發(fā)表于 05-23 16:41 ?1136次閱讀
    基于LockAI<b class='flag-5'>視覺</b><b class='flag-5'>識(shí)別</b>模塊:C++同時(shí)<b class='flag-5'>識(shí)別</b>輪廓和色塊
    阿图什市| 安国市| 江川县| 海丰县| 永城市| 吕梁市| 榕江县| 陇南市| 博罗县| 盐城市| 北安市| 收藏| 黄平县| 濮阳市| 东台市| 白银市| 布拖县| 泰兴市| 洛浦县| 萍乡市| 历史| 简阳市| 三河市| 荔浦县| 中方县| 镇远县| 邢台市| 沛县| 昌邑市| 甘谷县| 昌江| 渭源县| 仁布县| 阿巴嘎旗| 蒲江县| 醴陵市| SHOW| 北流市| 湖州市| 林芝县| 樟树市|