日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

圖像分割的背景知識(shí)

新機(jī)器視覺(jué) ? 來(lái)源:新機(jī)器視覺(jué) ? 作者:新機(jī)器視覺(jué) ? 2020-12-28 14:22 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導(dǎo)讀

一個(gè)很好的入門小短文,內(nèi)容很全,適合上手。

在這篇文章中,我們將進(jìn)入使用深度學(xué)習(xí)進(jìn)行圖像分割的世界。我們將討論:

圖像分割是什么以及圖像分割的兩種主要類型

圖像分割結(jié)構(gòu)

圖像分割中使用的損失函數(shù)

你可以使用的框架

就讓我們一探究竟吧。

什么是圖像分割?

顧名思義,這是將圖像分割為多個(gè)部分的過(guò)程。在這個(gè)過(guò)程中,圖像中的每個(gè)像素都與一個(gè)對(duì)象類型相關(guān)聯(lián)。圖像分割主要有兩種類型:語(yǔ)義分割和實(shí)例分割。

在語(yǔ)義分割中,所有相同類型的對(duì)象都使用一個(gè)類標(biāo)簽進(jìn)行標(biāo)記,而在實(shí)例分割中,相似的對(duì)象使用各自的標(biāo)簽。

圖像分割結(jié)構(gòu)

圖像分割的基本結(jié)構(gòu)包括編碼器和解碼器。

編碼器通過(guò)濾波器從圖像中提取特征。解碼器負(fù)責(zé)生成最終輸出,該輸出通常是包含對(duì)象輪廓的分割掩碼。大多數(shù)架構(gòu)都有這種架構(gòu)或它的變體。

讓我們來(lái)看幾個(gè)例子。

U-Net

U-Net是一種卷積神經(jīng)網(wǎng)絡(luò),最初是為分割生物醫(yī)學(xué)圖像而開發(fā)的。當(dāng)它被可視化的時(shí)候,它的架構(gòu)看起來(lái)像字母U,因此被命名為U-Net。其體系結(jié)構(gòu)由兩部分組成,左側(cè)為收縮路徑,右側(cè)為擴(kuò)展路徑。收縮路徑的目的是獲取上下文,而擴(kuò)展路徑的作用是幫助精確定位。

U-Net是由右側(cè)的擴(kuò)張路徑和左側(cè)的收縮路徑組成的。收縮路徑由兩個(gè)3乘3的卷積組成。卷積之后是一個(gè)ReLU和一個(gè)2x2的最大池計(jì)算用于下采樣。

你可以在這里找到U-Net的完整實(shí)現(xiàn):https://lmb.informatik.uni-freiburg.de/people/ronneber/u-net/。

FastFCN —Fast Fully-connected network

在這個(gè)架構(gòu)中,使用一個(gè)聯(lián)合金字塔上采樣(JPU)模塊來(lái)替換膨脹卷積,因?yàn)樗鼈兿拇罅康膬?nèi)存和時(shí)間。在應(yīng)用JPU進(jìn)行上采樣時(shí),其核心部分采用全連接網(wǎng)絡(luò)。JPU將低分辨率的feature map采樣到高分辨率feature map。

如果你想動(dòng)手實(shí)現(xiàn)一些代碼,看這里:https://github.com/wuhuikai/FastFCN。

Gated-SCNN

這個(gè)架構(gòu)由一個(gè) two-stream CNN架構(gòu)組成。在該模型中,使用一個(gè)單獨(dú)的分支來(lái)處理圖像的形狀信息。利用形狀流來(lái)處理邊界信息。

實(shí)現(xiàn)參考代碼:https://github.com/nv-tlabs/gscnn

DeepLab

在這種架構(gòu)中,上采樣濾波器的卷積用于涉及密集預(yù)測(cè)的任務(wù)。多尺度的目標(biāo)分割是通過(guò)空間金字塔池實(shí)現(xiàn)的。最后,利用DCNNs來(lái)改進(jìn)目標(biāo)邊界的定位。通過(guò)對(duì)濾波器插入零進(jìn)行上采樣或?qū)斎胩卣鲌D進(jìn)行稀疏采樣來(lái)實(shí)現(xiàn)卷積。

實(shí)現(xiàn)參考代碼:https://github.com/fregu856/deeplabv3,https://github.com/sthalles/deeplab_v3

Mask R-CNN

在這個(gè)架構(gòu)中,使用邊界框和語(yǔ)義分割將每個(gè)像素劃分為一組類別,對(duì)對(duì)象進(jìn)行分類和局部化。對(duì)每個(gè)感興趣的區(qū)域得到一個(gè)分割掩碼,生成一個(gè)類標(biāo)簽和一個(gè)邊界框作為最終輸出。該架構(gòu)是Faster R-CNN的擴(kuò)展。Faster R-CNN由regions proposer和深度卷積網(wǎng)絡(luò)和利局部檢測(cè)器組成。

這里是COCO測(cè)試集中的一張圖像的結(jié)果:

圖像分割損失函數(shù)

語(yǔ)義分割模型在訓(xùn)練過(guò)程中通常使用一個(gè)簡(jiǎn)單的交叉分類熵?fù)p失函數(shù)。但是,如果你對(duì)獲取圖像的細(xì)粒度信息感興趣,那么你需要用到稍微高級(jí)一點(diǎn)的損失函數(shù)。

我們來(lái)看看其中的幾個(gè)。

Focal Loss

這種損失是對(duì)標(biāo)準(zhǔn)交叉熵的改進(jìn)。這是通過(guò)改變它的形狀來(lái)實(shí)現(xiàn)的,這樣分配給分類良好的樣本的損失就降低了。最終,這確保了沒(méi)有類別不平衡。在這個(gè)損失函數(shù)中,交叉熵?fù)p失被縮放,隨著對(duì)正確類的置信度的增加,縮放因子衰減為零。在訓(xùn)練時(shí),比例因子會(huì)自動(dòng)降低簡(jiǎn)單樣本的權(quán)重,并聚焦于困難樣本。

30040146-29d7-11eb-a64d-12bb97331649.png

Dice loss

這個(gè)損失是通過(guò)計(jì)算smooth dice coefficient得到的。這種損失是最常用的分割損失。

30239088-29d7-11eb-a64d-12bb97331649.png

Intersection over Union (IoU)-balanced Loss

IoU平衡分類損失的目的是增加高IoU樣本的梯度,降低低IoU樣本的梯度。這樣提高了機(jī)器學(xué)習(xí)模型的定位精度。

3043a8c8-29d7-11eb-a64d-12bb97331649.png

Boundary loss

邊界損失的一種變體應(yīng)用于分割高度不平衡的任務(wù)。這種損失的形式是空間等高線上的距離度量,而不是區(qū)域。這種方法解決了高度不平衡的分割任務(wù)中區(qū)域損失的問(wèn)題。

30610a12-29d7-11eb-a64d-12bb97331649.png

Weighted cross-entropy

在交叉熵的一種變體中,所有正樣本都用一定的系數(shù)進(jìn)行加權(quán)。它用于類別不平衡的場(chǎng)景。

30773f26-29d7-11eb-a64d-12bb97331649.png

Lovász-Softmax loss

該損失是對(duì)基于子模塊損失凸Lovasz擴(kuò)展的神經(jīng)網(wǎng)絡(luò)平均IoU損失的直接優(yōu)化。

309a68fc-29d7-11eb-a64d-12bb97331649.png

其他值得一提的損失包括:

TopK loss,其目的是確保網(wǎng)絡(luò)在訓(xùn)練過(guò)程中聚焦于困難樣本上。

距離懲罰交叉熵?fù)p失,引導(dǎo)網(wǎng)絡(luò)難以分割的邊界地區(qū)。

敏感性-特異性(SS)損失,計(jì)算特異性和敏感性的均方差的加權(quán)和。

Hausdorff distance(HD) loss,估計(jì)了卷積神經(jīng)網(wǎng)絡(luò)的Hausdorff距離。

這只是在圖像分割中使用的幾個(gè)損失函數(shù)。想了解更多內(nèi)容,看這里:https://github.com/JunMa11/SegLoss。

圖像分割數(shù)據(jù)集

從哪里可以得到一些數(shù)據(jù)集來(lái)開始?讓我們來(lái)看幾個(gè)例子。

Common Objects in COntext?—?Coco Dataset

COCO是一個(gè)大型物體檢測(cè)、分割和圖像描述數(shù)據(jù)集。數(shù)據(jù)集包含91個(gè)類。它有25萬(wàn)個(gè)人標(biāo)注了關(guān)鍵點(diǎn)。它的大小是37.57 GiB。它包含80個(gè)物體類別。它遵循Apache 2.0許可,下載鏈接:http://cocodataset.org/#download。

PASCAL Visual Object Classes (PASCAL VOC)

PASCAL有9963個(gè)圖像和20個(gè)不同的類。訓(xùn)練/驗(yàn)證集是一個(gè)2GB的tar文件。數(shù)據(jù)集下載:http://host.robots.ox.ac.uk/pascal/VOC/voc2012/。

The Cityscapes Dataset

此數(shù)據(jù)集包含城市場(chǎng)景的圖像。它可以用來(lái)評(píng)估城市場(chǎng)景中視覺(jué)算法的性能。數(shù)據(jù)集下載:https://www.cityscapes-dataset.com/downloads/。

The Cambridge-driving Labeled Video Database?—?CamVid

這是一個(gè)基于運(yùn)動(dòng)的分割和識(shí)別數(shù)據(jù)集。它包含32個(gè)語(yǔ)義類。數(shù)據(jù)集下載:http://mi.eng.cam.ac.uk/research/projects/VideoRec/CamVid/。

圖像分割框架

現(xiàn)在你已經(jīng)有了數(shù)據(jù)集,讓我們介紹一些工具/框架,你可以使用它們來(lái)開始。

FastAI library- 給定一幅圖像,該庫(kù)能夠創(chuàng)建該圖像中對(duì)象的mask。

Sefexa Image Segmentation Tool?- Sefexa是一個(gè)免費(fèi)的工具,可以用于半自動(dòng)圖像分割,圖像分析,創(chuàng)建ground truth

Deepmask- Deepmask由Facebook Research開發(fā),是Deepmask和SharpMask的Torch實(shí)現(xiàn)。

MultiPath- 這是來(lái)源于A MultiPath Network for Object Detection的物體檢測(cè)網(wǎng)絡(luò)的Torch實(shí)現(xiàn)。

OpenCV- 這是一個(gè)開源的計(jì)算機(jī)視覺(jué)庫(kù),有超過(guò)2500個(gè)優(yōu)化算法。

MIScnn- 這是一個(gè)醫(yī)學(xué)圖像分割開源庫(kù)。它使用最先進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)模型建立管道,只需幾行代碼。

Fritz- Fritz提供多種計(jì)算機(jī)視覺(jué)工具,包括用于移動(dòng)設(shè)備的圖像分割工具。

總結(jié)

本文為你提供了一些圖像分割的背景知識(shí),并為你提供了一些工具和框架,可以用于入門。

我們討論了:

什么是圖像分割,

圖像分割架構(gòu),

圖像分割損失,

圖像分割工具和框架。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:圖像分割2020總結(jié):結(jié)構(gòu),損失函數(shù),數(shù)據(jù)集和框架

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    基于 MOS 管的步進(jìn)驅(qū)動(dòng)板 PCB 阻抗匹配與地平面分割

    MOS 管步進(jìn)馬達(dá)驅(qū)動(dòng)板的穩(wěn)定性與 EMC 性能,核心依賴阻抗匹配與地平面分割的精準(zhǔn)設(shè)計(jì)。MOS 管柵極驅(qū)動(dòng)回路阻抗失配會(huì)引發(fā)高頻振蕩、柵極電壓振鈴,導(dǎo)致器件損耗增加甚至燒毀;功率回路阻抗過(guò)大則加劇
    的頭像 發(fā)表于 04-30 16:06 ?97次閱讀

    全面掌握ComfyUI系統(tǒng)教程|94節(jié)從入門到進(jìn)階實(shí)戰(zhàn)清單

    算法四個(gè)層面,系統(tǒng)闡述 ComfyUI 實(shí)現(xiàn)高質(zhì)量背景替換與合成的核心邏輯。 首先,ComfyUI 實(shí)現(xiàn)背景替換的技術(shù)基石在于其模塊化的計(jì)算圖架構(gòu)。傳統(tǒng)的圖像處理軟件往往將分割與生成耦
    發(fā)表于 03-29 16:17

    利用ExecuTorch和Arm SME2加速端側(cè)機(jī)器學(xué)習(xí)推理

    貼紙、分離主體以替換背景,或是對(duì)圖像局部進(jìn)行選擇性增強(qiáng)。這些效果背后,是輕量級(jí)分割模型在運(yùn)行,這些模型通過(guò) ExecuTorch(PyTorch 的開源端側(cè)推理運(yùn)行時(shí))以及第二代 Arm 可伸縮矩陣擴(kuò)展技術(shù) (Arm SME2)
    的頭像 發(fā)表于 03-03 10:27 ?738次閱讀
    利用ExecuTorch和Arm SME2加速端側(cè)機(jī)器學(xué)習(xí)推理

    SAM(通用圖像分割基礎(chǔ)模型)丨基于BM1684X模型部署指南

    前言SAM是Meta提出的一個(gè)分割一切的提示型模型,其在1100萬(wàn)張圖像上訓(xùn)練了超過(guò)10億個(gè)掩碼,實(shí)現(xiàn)了強(qiáng)大的零樣本泛化,突破了分割界限。本例程對(duì)SAM官方開源倉(cāng)庫(kù)的模型和算法進(jìn)行移植,使之能
    的頭像 發(fā)表于 01-12 16:17 ?514次閱讀
    SAM(通用<b class='flag-5'>圖像</b><b class='flag-5'>分割</b>基礎(chǔ)模型)丨基于BM1684X模型部署指南

    圖像采集卡終極指南:從原理到選型

    視覺(jué)系統(tǒng)的運(yùn)行效率。本文將從技術(shù)原理、核心分類、關(guān)鍵參數(shù)、主流應(yīng)用到實(shí)操選型,全方位拆解圖像采集卡,幫你形成完整的知識(shí)體系與選型邏輯。一、底層原理:圖像采集卡如何
    的頭像 發(fā)表于 11-19 15:54 ?918次閱讀
    <b class='flag-5'>圖像</b>采集卡終極指南:從原理到選型

    傳音TEX AI團(tuán)隊(duì)斬獲ICCV 2025大型視頻目標(biāo)分割挑戰(zhàn)賽雙料亞軍

    近日,國(guó)際計(jì)算機(jī)視覺(jué)大會(huì)(ICCV 2025)舉辦了第七屆大型視頻目標(biāo)分割挑戰(zhàn)賽(LSVOS Challenge),傳音TEX AI團(tuán)隊(duì)?wèi){借自主研發(fā)的創(chuàng)新技術(shù)方案,在復(fù)雜視頻目標(biāo)分割和語(yǔ)言指引視頻
    的頭像 發(fā)表于 10-31 09:42 ?763次閱讀
    傳音TEX AI團(tuán)隊(duì)斬獲ICCV 2025大型視頻目標(biāo)<b class='flag-5'>分割</b>挑戰(zhàn)賽雙料亞軍

    使用Otsu閾值算法將灰度圖像二值化

    還是純白,即利用此閾值將原圖像分成前景、背景兩個(gè)圖象。不同閾值對(duì)于前景和背景圖象的劃分不同,一般來(lái)說(shuō),前景和背景圖象的差別越大,表明劃分的效果越好。在 Otsu 算法中,以類間方差來(lái)衡
    發(fā)表于 10-28 06:49

    手機(jī)板 layout 走線跨分割問(wèn)題

    初學(xué)習(xí)layout時(shí),都在說(shuō)信號(hào)線不可跨分割,但是在工作中為了成本不能跨分割似乎也非絕對(duì)。 在后續(xù)工作中,跨分割的基礎(chǔ)都是相鄰層有一面完整的GND參考,跨分割發(fā)生在相鄰的另外一層。 但
    發(fā)表于 09-16 14:56

    迅為RK3576開發(fā)板攝像頭實(shí)時(shí)推理測(cè)試-ppseg?圖像分割

    迅為RK3576開發(fā)板攝像頭實(shí)時(shí)推理測(cè)試-ppseg 圖像分割
    的頭像 發(fā)表于 07-11 14:31 ?1059次閱讀
    迅為RK3576開發(fā)板攝像頭實(shí)時(shí)推理測(cè)試-ppseg?<b class='flag-5'>圖像</b><b class='flag-5'>分割</b>

    如何將32個(gè)步進(jìn)伺服驅(qū)動(dòng)器塞進(jìn)小型板材分割機(jī)中?

    板材分割機(jī)是工業(yè)制造中常見的裝備。機(jī)器的內(nèi)部空間狹小,如何將多達(dá)32個(gè)步進(jìn)伺服驅(qū)動(dòng)器安裝在其中顯得非常困難。本文將通過(guò)基于EtherCAT總線的插板式步進(jìn)伺服驅(qū)動(dòng)器剖析其破解之法!傳統(tǒng)銑刀式板材分割
    的頭像 發(fā)表于 07-08 11:37 ?687次閱讀
    如何將32個(gè)步進(jìn)伺服驅(qū)動(dòng)器塞進(jìn)小型板材<b class='flag-5'>分割</b>機(jī)中?

    【正點(diǎn)原子STM32MP257開發(fā)板試用】基于 DeepLab 模型的圖像分割

    【正點(diǎn)原子STM32MP257開發(fā)板試用】圖像分割 本文介紹了正點(diǎn)原子 STM32MP257 開發(fā)板基于 DeepLab 模型實(shí)現(xiàn)圖像分割的項(xiàng)目設(shè)計(jì)。 DeepLab 模型 DeepL
    發(fā)表于 06-21 21:11

    凡億Allegro Skill布線功能-檢查跨分割

    能會(huì)導(dǎo)致設(shè)計(jì)中的缺陷和問(wèn)題。為了克服這一挑戰(zhàn),可以利用凡億skill中的“檢查跨分割”命令。這個(gè)工具能夠幫助設(shè)計(jì)者快速而準(zhǔn)確地識(shí)別出高速信號(hào)參考平面的跨分割問(wèn)題,從而避免了人工檢查時(shí)可能出現(xiàn)的疏漏。通過(guò)使用這種自動(dòng)化
    的頭像 發(fā)表于 06-19 11:50 ?2482次閱讀
    凡億Allegro Skill布線功能-檢查跨<b class='flag-5'>分割</b>

    【AIBOX 應(yīng)用案例】通過(guò) U2-Net 實(shí)現(xiàn)背景移除

    設(shè)計(jì),高效散熱,保障在高溫運(yùn)行狀態(tài)下的運(yùn)算性能和穩(wěn)定性,滿足各種工業(yè)級(jí)的應(yīng)用需求。應(yīng)用案例:背景移除BackgroundRemoval(背景移除)技術(shù)已成為圖像處理
    的頭像 發(fā)表于 06-11 16:32 ?779次閱讀
    【AIBOX 應(yīng)用案例】通過(guò) U2-Net 實(shí)現(xiàn)<b class='flag-5'>背景</b>移除

    多光譜圖像技術(shù)在苗期作物與雜草識(shí)別中的研究進(jìn)展

    、勞動(dòng)強(qiáng)度大、完全依賴人工主體的經(jīng)驗(yàn)與知識(shí),在大面積雜草苗情觀測(cè)上,人工識(shí)別是無(wú)能為力的。遙感識(shí)別法則克服了人工監(jiān)測(cè)的諸多弊端,可以在短時(shí)間內(nèi)獲得作物大范圍的圖像,自動(dòng)識(shí)別田間雜草。 但是,由于遙感圖像的空間和
    的頭像 發(fā)表于 06-10 18:13 ?570次閱讀

    基于LockAI視覺(jué)識(shí)別模塊:C++使用圖像的統(tǒng)計(jì)信息

    /master/Cpp_example/B02_Image_information_statistics 1.基本知識(shí)講解 1.1 圖像的興趣區(qū)域(ROI) ROI(Region of Interest):指圖像
    發(fā)表于 05-08 10:31
    读书| 阿克苏市| 新宁县| 酒泉市| 林周县| 如皋市| 河北省| 乌鲁木齐县| 鄢陵县| 泽州县| 肥乡县| 甘泉县| 英山县| 西乌珠穆沁旗| 上高县| 林口县| 石棉县| 东丰县| 达尔| 磐安县| 叙永县| 大同市| 南安市| 资阳市| 黎城县| 清流县| 项城市| 饶平县| 西盟| 手机| 彩票| 吉安县| 商水县| 宿松县| 阜南县| 缙云县| 吴忠市| 汝阳县| 长海县| 那曲县| 永泰县|