日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

關(guān)于深度學(xué)習(xí)網(wǎng)絡(luò)識(shí)別的詳細(xì)介紹

MATLAB ? 來源:djl ? 2019-09-11 17:53 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

你有沒有想過,你經(jīng)常使用的深度學(xué)習(xí)網(wǎng)絡(luò)在看圖像的什么部分進(jìn)行分類?

例如下圖:

如果深度學(xué)習(xí)網(wǎng)絡(luò)將此圖像分類為“圓號(hào)”,你認(rèn)為圖片的哪個(gè)部分對(duì)分類最重要?

MathWorks Computer Vision System Toolbox 開發(fā)工程師Birju Patel專注于深度學(xué)習(xí),設(shè)計(jì)了如下案例進(jìn)行解答這一問題:

我們使用預(yù)訓(xùn)練好的 ResNet-50 網(wǎng)絡(luò)進(jìn)行此實(shí)驗(yàn)。

* He, Kaiming, Zhang, Xiangyu, Ren, Shaoqing, Sun, Jian. "Deep Residual Learning for Image Recognition." In Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 770-778. 2016.

獲取 MATLAB 中 ResNet-50 網(wǎng)絡(luò)的方法是啟動(dòng) Add-On Explorer(MATLAB 的 HOME 選項(xiàng)卡)并搜索 resnet。

net = resnet50;

我們需要注意 ResNet-50 需要輸入特定尺寸的圖像。網(wǎng)絡(luò)的初始層提供了這一信息:

sz = net.Layers(1).InputSize(1:2)sz = 224 224

所需的圖像尺寸可以直接傳遞給 imresize 函數(shù)。)

在網(wǎng)絡(luò)中調(diào)用 classify ,查看圖片可能的分類:

classify(net,rgb)ans = categorical French horn

ResNet-50 認(rèn)為這是圓號(hào)。

Birju 在一篇關(guān)于卷積神經(jīng)網(wǎng)絡(luò)可視化技術(shù)的論文中,了解到遮擋敏感性的概念。如果阻擋或遮擋圖像的一部分,將如何影響網(wǎng)絡(luò)的預(yù)測(cè)得分?遮擋不同的部分又將如何影響結(jié)果?

Birju 做了如下嘗試:

rgb2 = rgb; rgb2((1:71)+77,(1:71)+108,:) = 128; imshow(rgb2)

classify(net,rgb2)ans = categorical notebook

Hmm...估計(jì)網(wǎng)絡(luò)“認(rèn)為”灰色方塊看起來像筆記本。被遮擋的區(qū)域?qū)τ趫D像分類來說應(yīng)該很重要。再試試不同的遮擋位置:

rgb3 = rgb;rgb3((1:71)+15,(1:71)+80,:) = 128;imshow(rgb3)

classify(net,rgb3)ans = categorical French horn

好吧,腦袋并不重要。

Birju 編寫了一些 MATLAB 代碼來系統(tǒng)地量化不同圖像區(qū)域?qū)Ψ诸惤Y(jié)果的相對(duì)重要性。他使用 MATLAB 構(gòu)建了大量圖像,并對(duì)遮擋不同區(qū)域的圖像進(jìn)行批處理。對(duì)于遮擋的不同位置,記錄預(yù)期類(本例為“法國(guó)號(hào)”)的概率得分。

我們制作一批帶有 71x71 遮擋區(qū)域的圖像。首先計(jì)算所有遮擋模塊的頂點(diǎn),用 (X1,Y1) 和 (X2,Y2) 表示。

mask_size = [71 71]; [H,W,~] = size(rgb); X = 1:W; Y = 1:H; [X1, Y1] = meshgrid(X, Y); X1 = X1(:) - (mask_size(2)-1)/2; Y1 = Y1(:) - (mask_size(1)-1)/2; X2 = X1 + mask_size(2) - 1; Y2 = Y1 + mask_size(1) - 1;

注意不要讓遮擋區(qū)域的頂點(diǎn)偏離圖像邊界。

X1 = max(1, X1); Y1 = max(1, Y1); X2 = min(W, X2); Y2 = min(H, Y2);

批處理:

batch = repmat(rgb,[1 1 1 size(X1,1)]); for i = 1:size(X1,1) c = X1(i):X2(i); r = Y1(i):Y2(i); batch(r,c,:,i) = 128; % gray mask. end

注意:這一批包含 50,000 多張圖像。你需要大量的 RAM 才能同時(shí)創(chuàng)建和處理如此大量的圖像。

這里有一些遮擋的圖像:

現(xiàn)在,我們將使用 predict(而不是 classify)來獲取每個(gè)圖像在每個(gè)類別中的預(yù)測(cè)分?jǐn)?shù)。MiniBatchSize 參數(shù)是用來限制 GPU 內(nèi)存的使用,意味著 predict 函數(shù)將一次發(fā)送 64 個(gè)圖像到 GPU 進(jìn)行處理。

s = predict(net, batch, 'MiniBatchSize',64);size(s)ans = 50176 1000

我們獲得了很多的概率得分!其中 51,529 個(gè)圖像,共有 1,000 個(gè)類別。矩陣 s 具有每個(gè)類別和每個(gè)圖像的預(yù)測(cè)分?jǐn)?shù)。

我們重點(diǎn)關(guān)注預(yù)測(cè)原始圖像類別的預(yù)測(cè)分?jǐn)?shù):

scores = predict(net,rgb); [~,horn_idx] = max(scores);

這里是每一個(gè)圓號(hào)類別中的圖像預(yù)測(cè)分?jǐn)?shù):

s_horn = s(:,horn_idx);

將圓號(hào)類別的分?jǐn)?shù)轉(zhuǎn)換為圖像顯示:

S_horn = reshape(s_horn,H,W); imshow(-S_horn,[]) colormap(gca,'parula')

最亮的區(qū)域表示遮擋對(duì)概率得分影響最大的遮擋區(qū)間。

下面我們找到了最影響圓號(hào)概率得分的遮擋位置:

[min_score,min_idx] = min(s_horn); rgb_min_score = batch(:,:,:,min_idx); imshow(rgb_min_score)

結(jié)果可見,識(shí)別圓號(hào)的關(guān)鍵在于螺旋形管身和閥鍵,而不是號(hào)嘴。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5292

    瀏覽量

    136113
  • 圖像分類
    +關(guān)注

    關(guān)注

    0

    文章

    97

    瀏覽量

    12538
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5611

    瀏覽量

    124665
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    深度學(xué)習(xí)為什么還是無法處理邊緣場(chǎng)景?

    選擇視而不見甚至直接加速。 之所以出現(xiàn)這個(gè)問題,是因?yàn)?b class='flag-5'>深度學(xué)習(xí)模型大多建立在統(tǒng)計(jì)學(xué)基礎(chǔ)之上,它們通過觀察數(shù)以千萬計(jì)的圖像學(xué)習(xí)識(shí)別物體的特征。然而,真實(shí)世界的道路場(chǎng)景是無限多樣的,這種基
    的頭像 發(fā)表于 05-04 10:16 ?2165次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>為什么還是無法處理邊緣場(chǎng)景?

    人工智能-Python深度學(xué)習(xí)進(jìn)階與應(yīng)用技術(shù):工程師高培解讀

    深度學(xué)習(xí)的工程化落地,早已不是紙上談兵的事。從卷積神經(jīng)網(wǎng)絡(luò)到Transformer,從目標(biāo)檢測(cè)到大模型私有化部署,技術(shù)棧不斷延伸,工程師面臨的知識(shí)體系也越來越龐雜?,F(xiàn)根據(jù)中際賽威工程師培訓(xùn)老師的一份
    的頭像 發(fā)表于 04-21 11:01 ?406次閱讀
    人工智能-Python<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>進(jìn)階與應(yīng)用技術(shù):工程師高培解讀

    深度學(xué)習(xí)驅(qū)動(dòng)的超構(gòu)表面設(shè)計(jì)進(jìn)展及其在全息成像中的應(yīng)用

    可實(shí)現(xiàn)高質(zhì)量圖像的獲取?;谏窠?jīng)網(wǎng)絡(luò)深度學(xué)習(xí)方法進(jìn)行超構(gòu)表面設(shè)計(jì)的文章數(shù)量日益增多,但關(guān)于該主題的綜述仍較為匱乏。據(jù)麥姆斯咨詢報(bào)道,近期,中國(guó)計(jì)量大學(xué)田穎教授等人
    的頭像 發(fā)表于 04-09 13:55 ?184次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>驅(qū)動(dòng)的超構(gòu)表面設(shè)計(jì)進(jìn)展及其在全息成像中的應(yīng)用

    【智能檢測(cè)】基于AI深度學(xué)習(xí)與飛拍技術(shù)的影像測(cè)量系統(tǒng):實(shí)現(xiàn)高效精準(zhǔn)的全自動(dòng)光學(xué)檢測(cè)與智能制造數(shù)據(jù)閉環(huán)

    內(nèi)容概要:文檔內(nèi)容介紹了中圖儀器(Chotest)影像測(cè)量?jī)x融合人工智能深度學(xué)習(xí)與飛拍技術(shù)的自動(dòng)化檢測(cè)解決方案。系統(tǒng)通過AI深度學(xué)習(xí)實(shí)現(xiàn)
    發(fā)表于 03-31 17:11

    華秋輸出的GERBER別的軟件無法正確識(shí)別

    ,卡住了。 這個(gè)是華秋識(shí)別的,可以看到是正確的。 下面是AD,KICAD、工廠錫膏機(jī)識(shí)別的,都一樣的,統(tǒng)一少了太多東東。
    發(fā)表于 12-17 10:46

    基于AIK-RA8D1的人臉識(shí)別的應(yīng)用演示

    隨著科技的進(jìn)步,人臉識(shí)別技術(shù)已逐漸成為一種主流的安全驗(yàn)證手段。它不依賴傳統(tǒng)的密碼,而是通過面部特征識(shí)別來驗(yàn)證身份,從而提升了安全性并帶來了更大的便利性。本文將介紹如何通過瑞薩RA8D1微控制器
    的頭像 發(fā)表于 12-02 14:29 ?5684次閱讀
    基于AIK-RA8D1的人臉<b class='flag-5'>識(shí)別的</b>應(yīng)用演示

    電壓放大器在全導(dǎo)波場(chǎng)圖像目標(biāo)識(shí)別的損傷檢測(cè)實(shí)驗(yàn)的應(yīng)用

    圖像目標(biāo)識(shí)別的智能損傷檢測(cè)方法,通過結(jié)合超聲導(dǎo)波檢測(cè)技術(shù)與深度學(xué)習(xí)算法,系統(tǒng)探究了損傷引起的波場(chǎng)畸變特性及其識(shí)別機(jī)制。 測(cè)試設(shè)備:掃描激光多普勒測(cè)振儀、函數(shù)發(fā)生器、功率放大器ATA-2
    的頭像 發(fā)表于 12-02 11:37 ?388次閱讀
    電壓放大器在全導(dǎo)波場(chǎng)圖像目標(biāo)<b class='flag-5'>識(shí)別的</b>損傷檢測(cè)實(shí)驗(yàn)的應(yīng)用

    如何深度學(xué)習(xí)機(jī)器視覺的應(yīng)用場(chǎng)景

    檢測(cè)應(yīng)用 微細(xì)缺陷識(shí)別:檢測(cè)肉眼難以發(fā)現(xiàn)的微小缺陷和異常 紋理分析:對(duì)材料表面紋理進(jìn)行智能分析和缺陷識(shí)別 3D表面重建:通過深度學(xué)習(xí)進(jìn)行高精度3D建模和檢測(cè) 電子行業(yè)應(yīng)用 PCB板復(fù)雜
    的頭像 發(fā)表于 11-27 10:19 ?361次閱讀

    如何在機(jī)器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測(cè)可定位已訓(xùn)練的目標(biāo)類別,并通過矩形框(邊界框)對(duì)其進(jìn)行標(biāo)識(shí)。 在討論人工智能(AI)或深度學(xué)習(xí)時(shí),經(jīng)常會(huì)出現(xiàn)“神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 09-10 17:38 ?1083次閱讀
    如何在機(jī)器視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)<b class='flag-5'>網(wǎng)絡(luò)</b>

    深度學(xué)習(xí)對(duì)工業(yè)物聯(lián)網(wǎng)有哪些幫助

    深度學(xué)習(xí)作為人工智能的核心分支,通過模擬人腦神經(jīng)網(wǎng)絡(luò)的層級(jí)結(jié)構(gòu),能夠自動(dòng)從海量工業(yè)數(shù)據(jù)中提取復(fù)雜特征,為工業(yè)物聯(lián)網(wǎng)(IIoT)提供了從數(shù)據(jù)感知到智能決策的全鏈路升級(jí)能力。以下從技術(shù)賦能、場(chǎng)景突破
    的頭像 發(fā)表于 08-20 14:56 ?1258次閱讀

    當(dāng)深度學(xué)習(xí)遇上嵌入式資源困境,特征空間如何破局?

    近年來,隨著人工智能(AI)技術(shù)的迅猛發(fā)展,深度學(xué)習(xí)(Deep Learning)成為最熱門的研究領(lǐng)域之一。在語音識(shí)別、圖像識(shí)別、自然語言處理等領(lǐng)域,
    發(fā)表于 07-14 14:50 ?1331次閱讀
    當(dāng)<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>遇上嵌入式資源困境,特征空間如何破局?

    網(wǎng)絡(luò)識(shí)別終端IMEISV的原理介紹

    隨著無線通信網(wǎng)絡(luò)技術(shù)的快速發(fā)展,用戶終端也呈現(xiàn)出技術(shù)迭代加速與應(yīng)用場(chǎng)景深度融合的特征。終端形態(tài)與應(yīng)用場(chǎng)景的多元化,形成Normal主流終端、Lite輕量化終端(如可穿戴設(shè)備)、LPWA廣域終端(智慧城市傳感器)和AIoT無源終端(物流追蹤標(biāo)簽)的多層次產(chǎn)品體系。
    的頭像 發(fā)表于 06-04 16:32 ?2260次閱讀
    <b class='flag-5'>網(wǎng)絡(luò)</b><b class='flag-5'>識(shí)別</b>終端IMEISV的原理<b class='flag-5'>介紹</b>
    贡觉县| 茌平县| 正阳县| 嵊州市| 沁源县| 弥渡县| 平乡县| 龙南县| 科技| 鄂托克前旗| 肇东市| 肃宁县| 潍坊市| 峨眉山市| 壶关县| 鄂托克前旗| 神农架林区| 徐汇区| 常德市| 遵义市| 遂宁市| 南木林县| 舟曲县| 册亨县| 博罗县| 勐海县| 安岳县| 天峨县| 南城县| 库伦旗| 卓资县| 剑川县| 岱山县| 正宁县| 梁山县| 米脂县| 永和县| 尤溪县| 安化县| 沙坪坝区| 青龙|