日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

主流的機(jī)器視覺技術(shù)又有哪些呢?

新機(jī)器視覺 ? 來源:長虹AI實(shí)驗(yàn)室 ? 2023-05-26 14:53 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導(dǎo)語:視覺是人類最敏感、最直接的感知方式,在不進(jìn)行實(shí)際接觸的情況下,視覺感知可以使得我們獲取周圍環(huán)境的諸多信息。由于生物視覺系統(tǒng)非常復(fù)雜,目前還不能使得某一機(jī)器系統(tǒng)完全具備這一強(qiáng)大的視覺感知能力。

當(dāng)下,機(jī)器視覺的目標(biāo)即,構(gòu)建一個在可控環(huán)境中處理特定任務(wù)的機(jī)器視覺系統(tǒng)。由于工業(yè)中的視覺環(huán)境可控,并且處理任務(wù)特定,所以現(xiàn)如今大部分的機(jī)器視覺被應(yīng)用在工業(yè)當(dāng)中。

人類視覺感知是通過眼睛視網(wǎng)膜的椎體和桿狀細(xì)胞對光源進(jìn)行捕捉,而后由神經(jīng)纖維將信號傳遞至大腦視覺皮層,形成我們所看到的圖像,而機(jī)器視覺卻不然。機(jī)器視覺系統(tǒng)的輸入是圖像,輸出是對這些圖像的感知描述。這組描述與這些圖像中的物體或場景息息相關(guān),并且這些描述可以幫助機(jī)器來完成特定的后續(xù)任務(wù),指導(dǎo)機(jī)器人系統(tǒng)與周圍的環(huán)境進(jìn)行交互。

3f8e3a2a-fb83-11ed-90ce-dac502259ad0.png

那么,迄今為止,主流的機(jī)器視覺技術(shù)又有哪些呢?

3f98be3c-fb83-11ed-90ce-dac502259ad0.png

中流砥柱

卷積神經(jīng)網(wǎng)絡(luò)

3f98be3c-fb83-11ed-90ce-dac502259ad0.png

卷積神經(jīng)網(wǎng)絡(luò)是目前計(jì)算機(jī)視覺中使用最普遍的模型結(jié)構(gòu)。引入卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取,既能提取到相鄰像素點(diǎn)之間的特征模式,又能保證參數(shù)的個數(shù)不隨圖片尺寸變化。上圖是一個典型的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),多層卷積和池化層組合作用在輸入圖片上,在網(wǎng)絡(luò)的最后通常會加入一系列全連接層,ReLU激活函數(shù)一般加在卷積或者全連接層的輸出上,網(wǎng)絡(luò)中通常還會加入Dropout來防止過擬合。

自2012年AlexNet在ImageNet比賽上獲得冠軍,卷積神經(jīng)網(wǎng)絡(luò)逐漸取代傳統(tǒng)算法成為了處理計(jì)算機(jī)視覺任務(wù)的核心。

在這幾年,研究人員從提升特征提取能力,改進(jìn)回傳梯度更新效果,縮短訓(xùn)練時間,可視化內(nèi)部結(jié)構(gòu),減少網(wǎng)絡(luò)參數(shù)量,模型輕量化, 自動設(shè)計(jì)網(wǎng)絡(luò)結(jié)構(gòu)等這些方面,對卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)有了較大的改進(jìn),逐漸研究出了AlexNet、ZFNet、VGG、NIN、GoogLeNet和Inception系列、ResNet、WRN和DenseNet等一系列經(jīng)典模型,MobileNet系列、ShuffleNet系列、SqueezeNet和Xception等輕量化模型。

3fa3acc0-fb83-11ed-90ce-dac502259ad0.png

·卷積網(wǎng)絡(luò)示意圖

經(jīng)典模型(AlexNet):

AlexNet是第一個深度神經(jīng)網(wǎng)絡(luò),其主要特點(diǎn)包括:

1. 使用ReLU作為激活函數(shù)。

2. 提出在全連接層使用Dropout避免過擬合。注:當(dāng)BN提出后,Dropout就被BN替代了。

3. 由于GPU顯存太小,使用了兩個GPU,做法是在通道上分組。

4. 使用局部響應(yīng)歸一化(Local Response Normalization --LRN),在生物中存在側(cè)抑制現(xiàn)象,即被激活的神經(jīng)元會抑制周圍的神經(jīng)元。在這里的目的是讓局部響應(yīng)值大的變得相對更大,并抑制其它響應(yīng)值相對比較小的卷積核。例如,某特征在這一個卷積核中響應(yīng)值比較大,則在其它相鄰卷積核中響應(yīng)值會被抑制,這樣一來卷積核之間的相關(guān)性會變小。LRN結(jié)合ReLU,使得模型提高了一點(diǎn)多個百分點(diǎn)。

5. 使用重疊池化。作者認(rèn)為使用重疊池化會提升特征的豐富性,且相對來說會更難過擬合。

3fab6ac8-fb83-11ed-90ce-dac502259ad0.png

集大成之作(ResNet):

一般而言,網(wǎng)絡(luò)越深越寬會有更好的特征提取能力,但當(dāng)網(wǎng)絡(luò)達(dá)到一定層數(shù)后,隨著層數(shù)的增加反而導(dǎo)致準(zhǔn)確率下降,網(wǎng)絡(luò)收斂速度更慢。

傳統(tǒng)的卷積網(wǎng)絡(luò)在一個前向過程中每層只有一個連接,ResNet增加了殘差連接從而增加了信息從一層到下一層的流動。FractalNets重復(fù)組合幾個有不同卷積塊數(shù)量的并行層序列,增加名義上的深度,卻保持著網(wǎng)絡(luò)前向傳播短的路徑。相類似的操作還有Stochastic depth和Highway Networks等。這些模型都顯示一個共有的特征,縮短前面層與后面層的路徑,其主要的目的都是為了增加不同層之間的信息流動。

后起之秀

Transformers

3fbd3cbc-fb83-11ed-90ce-dac502259ad0.png

Transformer是一種self-attention(自注意力)模型架構(gòu),2017年之后在NLP領(lǐng)域取得了很大的成功,尤其是序列到序列(seq2seq)任務(wù),如機(jī)器翻譯和文本生成。2020年,谷歌提出pure transformer結(jié)構(gòu)ViT ,在ImageNet分類任務(wù)上取得了和CNN可比的性能。之后大量ViT衍生的Transformer架構(gòu)在ImageNet上都取得了成功。

Transformer 與 CNN相比優(yōu)點(diǎn)是具有較少的歸納性與先驗(yàn)性,因此可以被認(rèn)為是不同學(xué)習(xí)任務(wù)的通用計(jì)算原語,參數(shù)效率與性能增益與 CNN 相當(dāng)。不過缺點(diǎn)是在預(yù)訓(xùn)練期間,對大數(shù)據(jù)機(jī)制的依賴性更強(qiáng),因?yàn)?Transformer 沒有像 CNN 那樣定義明確的歸納先驗(yàn)。因此當(dāng)下出現(xiàn)了一個新趨勢:當(dāng) self-attention 與 CNN 結(jié)合時,它們會建立強(qiáng)大的基線( BoTNet )。

Vision Transformer(ViT)將純Transformer架構(gòu)直接應(yīng)用到一系列圖像塊上進(jìn)行分類任務(wù),可以取得優(yōu)異的結(jié)果。它在許多圖像分類任務(wù)上也優(yōu)于最先進(jìn)的卷積網(wǎng)絡(luò),同時所需的預(yù)訓(xùn)練計(jì)算資源大大減少。

3fc52c24-fb83-11ed-90ce-dac502259ad0.png

DETR是第一個成功地將Transformer作為pipeline中的主要構(gòu)建塊的目標(biāo)檢測框架。它與以前的SOTA方法(高度優(yōu)化的Faster R-CNN)的性能匹配,具有更簡單和更靈活的pipeline。

3fcc0abc-fb83-11ed-90ce-dac502259ad0.png

Transformer的變體模型是目前的研究熱點(diǎn),主要分為以下幾個類型:1)模型輕量化;2)加強(qiáng)跨模塊連接;3)自適應(yīng)的計(jì)算時間;4)引入分而治之的策略;4)循環(huán)Transformers;5)等級化的Transformer。

欺騙機(jī)器的眼睛

對抗性示例

最近引起研究界注意的一個問題是這些系統(tǒng)對對抗樣本的敏感性。一個對抗性的例子是一個嘈雜的圖像,旨在欺騙系統(tǒng)做出錯誤的預(yù)測。為了在現(xiàn)實(shí)世界中部署這些系統(tǒng),它們必須能夠檢測到這些示例。為此,最近的工作探索了通過在訓(xùn)練過程中包含對抗性示例來使這些系統(tǒng)更強(qiáng)對抗性攻擊的可能性。

現(xiàn)階段對模型攻擊的分類主要分為兩大類,即攻擊訓(xùn)練階段和推理階段。

訓(xùn)練階段的攻擊

訓(xùn)練階段的攻擊(Training in Adversarial Settings),主要的方法就是針對模型的參數(shù)進(jìn)行微小的擾動,從而達(dá)到讓模型的性能和預(yù)期產(chǎn)生偏差的目的。例如直接通過對于訓(xùn)練數(shù)據(jù)的標(biāo)簽進(jìn)行替換,讓數(shù)據(jù)樣本和標(biāo)簽不對應(yīng),從而最后訓(xùn)練的結(jié)果也一定與預(yù)期的產(chǎn)生差異,或者通過在線的方式獲得訓(xùn)練數(shù)據(jù)的輸入權(quán),操縱惡意數(shù)據(jù)來對在線訓(xùn)練過程進(jìn)行擾動,最后的結(jié)果就是產(chǎn)出脫離預(yù)期。

推理階段的攻擊

推理階段的攻擊(Inference in Adversarial Settings),是當(dāng)一個模型被訓(xùn)練完成后,可以將該模型主觀的看作是一個盒子,如果該盒子對我們來說是透明的則可以將其看成“白盒”模型,若非如此則看成“黑盒”模型。所謂的“白盒攻擊”,就是我們需要知道里面所有的模型參數(shù),但這在實(shí)際操作中并不現(xiàn)實(shí),卻有實(shí)現(xiàn)的可能,因此我們需要有這種前提假設(shè)。黑盒攻擊就比較符合現(xiàn)實(shí)生活中的場景:通過輸入和輸出猜測模型的內(nèi)部結(jié)構(gòu);加入稍大的擾動來對模型進(jìn)行攻擊;構(gòu)建影子模型來進(jìn)行關(guān)系人攻擊;抽取模型訓(xùn)練的敏感數(shù)據(jù);模型逆向參數(shù)等等。

對抗攻擊的防御機(jī)制。抵御對抗樣本攻擊主要是基于附加信息引入輔助塊模型(AuxBlocks)進(jìn)行額外輸出來作為一種自集成的防御機(jī)制,尤其在針對攻擊者的黑盒攻擊和白盒攻擊時,該機(jī)制效果良好。除此之外防御性蒸餾也可以起到一定的防御能力,防御性蒸餾是一種將訓(xùn)練好的模型遷移到結(jié)構(gòu)更為簡單的網(wǎng)絡(luò)中,從而達(dá)到防御對抗攻擊的效果。

對抗學(xué)習(xí)的應(yīng)用舉例,1、自動駕駛;2、金融欺詐。

自動駕駛是未來智能交通的發(fā)展方向,但在其安全性獲得完全檢驗(yàn)之前,人們還難以信任這種復(fù)雜的技術(shù)。雖然許多車企、科技公司已經(jīng)在這一領(lǐng)域進(jìn)行了許多實(shí)驗(yàn),但對抗樣本技術(shù)對于自動駕駛?cè)匀皇且粋€巨大的挑戰(zhàn)。幾個攻擊實(shí)例:對抗攻擊下的圖片中的行人在模型的面前隱身,對抗樣本使得模型“無視”路障;利用 AI 對抗樣本生成特定圖像并進(jìn)行干擾時,特斯拉的 Autopilot 系統(tǒng)輸出了「錯誤」的識別結(jié)果,導(dǎo)致車輛雨刷啟動;在道路的特定位置貼上若干個對抗樣本貼紙,可以讓處在自動駕駛模式的汽車并入反向車道;在Autopilot 系統(tǒng)中,通過游戲手柄對車輛行駛方向進(jìn)行控制;對抗樣本使得行人對于機(jī)器學(xué)習(xí)模型“隱身”。

自學(xué)也能成才

自監(jiān)督學(xué)習(xí)

深度學(xué)習(xí)需要干凈的標(biāo)記數(shù)據(jù),這對于許多應(yīng)用程序來說很難獲得。注釋大量數(shù)據(jù)需要大量的人力勞動,這是耗時且昂貴的。此外,數(shù)據(jù)分布在現(xiàn)實(shí)世界中一直在變化,這意味著模型必須不斷地根據(jù)不斷變化的數(shù)據(jù)進(jìn)行訓(xùn)練。自監(jiān)督方法通過使用大量原始未標(biāo)記數(shù)據(jù)來訓(xùn)練模型來解決其中的一些挑戰(zhàn)。在這種情況下,監(jiān)督是由數(shù)據(jù)本身(不是人工注釋)提供的,目標(biāo)是完成一個間接任務(wù)。間接任務(wù)通常是啟發(fā)式的(例如,旋轉(zhuǎn)預(yù)測),其中輸入和輸出都來自未標(biāo)記的數(shù)據(jù)。定義間接任務(wù)的目標(biāo)是使模型能夠?qū)W習(xí)相關(guān)特征,這些特征稍后可用于下游任務(wù)(通常有一些注釋可用)。

自監(jiān)督學(xué)習(xí)是一種數(shù)據(jù)高效的學(xué)習(xí)范式。監(jiān)督學(xué)習(xí)方法教會模型擅長特定任務(wù)。另一方面,自監(jiān)督學(xué)習(xí)允許學(xué)習(xí)不專門用于解決特定任務(wù)的一般表示,而是為各種下游任務(wù)封裝更豐富的統(tǒng)計(jì)數(shù)據(jù)。在所有自監(jiān)督方法中,使用對比學(xué)習(xí)進(jìn)一步提高了提取特征的質(zhì)量。自監(jiān)督學(xué)習(xí)的數(shù)據(jù)效率特性使其有利于遷移學(xué)習(xí)應(yīng)用。

目前的自監(jiān)督學(xué)習(xí)領(lǐng)域可大致分為兩個分支。一個是用于解決特定任務(wù)的自監(jiān)督學(xué)習(xí),例如上次討論的場景去遮擋,以及自監(jiān)督的深度估計(jì)、光流估計(jì)、圖像關(guān)聯(lián)點(diǎn)匹配等。另一個分支則用于表征學(xué)習(xí)。有監(jiān)督的表征學(xué)習(xí),一個典型的例子是ImageNet分類。而無監(jiān)督的表征學(xué)習(xí)中,最主要的方法則是自監(jiān)督學(xué)習(xí)。

自監(jiān)督學(xué)習(xí)方法依賴于數(shù)據(jù)的空間和語義結(jié)構(gòu),對于圖像,空間結(jié)構(gòu)學(xué)習(xí)是極其重要的,因此在計(jì)算機(jī)視覺領(lǐng)域中的應(yīng)用廣泛。一種是將旋轉(zhuǎn)、拼接和著色在內(nèi)的不同技術(shù)被用作從圖像中學(xué)習(xí)表征的前置任務(wù)。對于著色,將灰度照片作為輸入并生成照片的彩色版本。另一種廣泛用于計(jì)算機(jī)視覺自監(jiān)督學(xué)習(xí)的方法是放置圖像塊。一個例子包括 Doersch 等人的論文。在這項(xiàng)工作中,提供了一個大型未標(biāo)記的圖像數(shù)據(jù)集,并從中提取了隨機(jī)的圖像塊對。在初始步驟之后,卷積神經(jīng)網(wǎng)絡(luò)預(yù)測第二個圖像塊相對于第一個圖像塊的位置。還有其他不同的方法用于自監(jiān)督學(xué)習(xí),包括修復(fù)和判斷分類錯誤的圖像。

自2012年AlexNet問世這十年來,機(jī)器視覺領(lǐng)域的技術(shù)可以說是日新月異。機(jī)器視覺在諸多領(lǐng)域也逐漸接近甚至超越了我們?nèi)祟惖难劬ΑkS著技術(shù)的不斷進(jìn)步,機(jī)器視覺技術(shù)也一定會變得更加的強(qiáng)大,無論是安全防護(hù)、自動駕駛、缺陷檢測還是目標(biāo)識別等領(lǐng)域,相信機(jī)器視覺會帶給我們更多的驚喜。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    機(jī)器視覺工業(yè)相機(jī)與智能相機(jī)的區(qū)別

    機(jī)器視覺系統(tǒng)就類似于人類視覺功能,依托光學(xué)設(shè)備與非接觸傳感器采集圖像信息,再通過智能分析與運(yùn)算處理數(shù)據(jù),完成目標(biāo)識別、尺寸測量、缺陷檢測、精準(zhǔn)定位等核心工作。它賦予機(jī)器解析、讀懂
    的頭像 發(fā)表于 04-22 17:46 ?1269次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>視覺</b>工業(yè)相機(jī)與智能相機(jī)的區(qū)別

    安森美淺談機(jī)器視覺應(yīng)用發(fā)展趨勢和深度感知的技術(shù)難題

    。我們將通過一系列文章介紹機(jī)器視覺應(yīng)用痛點(diǎn)以及Hyperlux ID,本文為第一篇,將介紹機(jī)器視覺應(yīng)用發(fā)展趨勢和深度感知的技術(shù)難題。
    的頭像 發(fā)表于 04-03 15:34 ?367次閱讀
    安森美淺談<b class='flag-5'>機(jī)器</b><b class='flag-5'>視覺</b>應(yīng)用發(fā)展趨勢和深度感知的<b class='flag-5'>技術(shù)</b>難題

    駿馳新程,視聯(lián)智造,Vision China 2026(上海)機(jī)器視覺展圓滿落幕

    2026年3月25日-27日,為期三天的中國(上海)機(jī)器視覺展暨機(jī)器視覺技術(shù)及工業(yè)應(yīng)用研討會【Vision China 2026(上海)】,
    的頭像 發(fā)表于 03-30 11:51 ?597次閱讀
    駿馳新程,視聯(lián)智造,Vision China 2026(上海)<b class='flag-5'>機(jī)器</b><b class='flag-5'>視覺</b>展圓滿落幕

    機(jī)器視覺鏡頭如何發(fā)現(xiàn)深海沉船

    百年沉船、深水成像和機(jī)器視覺鏡頭的作用 機(jī)器視覺鏡頭是如何幫助解開一個世紀(jì)之謎的?1913 年,一艘名為 Henry B. Smith 的貨輪在蘇必利爾湖的一場暴風(fēng)雨中失蹤。一個世
    發(fā)表于 02-11 16:03

    機(jī)器視覺網(wǎng)卡與普通網(wǎng)卡的5點(diǎn)關(guān)鍵不同

    隨著人工智能和工業(yè)自動化的蓬勃發(fā)展,機(jī)器視覺技術(shù)扮演著越來越重要的角色。機(jī)器視覺系統(tǒng)依賴于高質(zhì)量的圖像數(shù)據(jù)進(jìn)行分析和決策,而高性能的網(wǎng)絡(luò)傳輸
    的頭像 發(fā)表于 01-15 16:38 ?360次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>視覺</b>網(wǎng)卡與普通網(wǎng)卡的5點(diǎn)關(guān)鍵不同

    機(jī)器視覺的核心技術(shù)和應(yīng)用場景

    機(jī)器視覺正通過讓機(jī)器“看見”并解讀視覺數(shù)據(jù)來為行業(yè)帶來變革,進(jìn)而提升自動化水平、質(zhì)量控制效率與運(yùn)營效能。本文將深入探討機(jī)器
    的頭像 發(fā)表于 12-29 16:32 ?1068次閱讀

    思奧特智能CRT:深耕機(jī)器視覺光源領(lǐng)域二十載的技術(shù)匠心

    機(jī)器視覺這個精密制造的眼睛中,光源就是那束照亮品質(zhì)的明燈。而在這片光的技術(shù)海洋里,思奧特智能CRT以其二十多年的技術(shù)積淀,正成為行業(yè)內(nèi)的隱形冠軍。 從照明專家到
    的頭像 發(fā)表于 12-25 15:12 ?370次閱讀
    思奧特智能CRT:深耕<b class='flag-5'>機(jī)器</b><b class='flag-5'>視覺</b>光源領(lǐng)域二十載的<b class='flag-5'>技術(shù)</b>匠心

    紫光同創(chuàng)亮相Vision China 2025深圳機(jī)器視覺

    10月28日-30日,“2025深圳機(jī)器視覺展暨機(jī)器視覺技術(shù)及工業(yè)應(yīng)用研討會(Vision China 深圳)”在深圳國際會展中心盛大舉辦,
    的頭像 發(fā)表于 11-07 09:17 ?2752次閱讀

    機(jī)器視覺三維成像技術(shù)簡介(一)

    本文討論了機(jī)器視覺三維成像技術(shù),涵蓋了各種成像技術(shù)的原理、特點(diǎn)、優(yōu)缺點(diǎn)及應(yīng)用場景等內(nèi)容。關(guān)鍵要點(diǎn)包括: 1. 三維成像技術(shù)分類 2. 飛
    的頭像 發(fā)表于 10-20 14:04 ?777次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>視覺</b>三維成像<b class='flag-5'>技術(shù)</b>簡介(一)

    機(jī)器視覺檢測PIN針

    物理損傷)必須進(jìn)行極其精密的測量與核查。以往依賴人眼的檢測方式存在明顯短板:不僅作業(yè)速度慢、受人員狀態(tài)影響大(易疲勞導(dǎo)致誤判),而且在面對日益嚴(yán)苛的微米級精度標(biāo)準(zhǔn)時顯得力不從心。相比之下,基于機(jī)器視覺
    發(fā)表于 09-26 15:09

    勵展博覽集團(tuán)與機(jī)器視覺產(chǎn)業(yè)聯(lián)盟(CMVU)關(guān)于VisionChina(深圳)達(dá)成戰(zhàn)略合作

    在全球制造業(yè)加速智能化、自動化轉(zhuǎn)型的浪潮中,機(jī)器視覺技術(shù)作為智能制造領(lǐng)域的關(guān)鍵技術(shù)之一,正成為推動產(chǎn)業(yè)升級的關(guān)鍵力量。勵展博覽集團(tuán)(以下簡稱“勵展”)與
    的頭像 發(fā)表于 07-17 16:47 ?1628次閱讀
    勵展博覽集團(tuán)與<b class='flag-5'>機(jī)器</b><b class='flag-5'>視覺</b>產(chǎn)業(yè)聯(lián)盟(CMVU)關(guān)于VisionChina(深圳)達(dá)成戰(zhàn)略合作

    機(jī)器人也能純視覺控制?MIT華人博士團(tuán)隊(duì)登上Nature主刊

    ,也正在加速推出純視覺的方案,以降低系統(tǒng)成本。 ? 而在機(jī)器人領(lǐng)域,傳感器的應(yīng)用一直都是業(yè)界研究的核心,包括3D ToF相機(jī)、激光雷達(dá)、毫米波雷達(dá)、觸覺傳感器、各種力矩傳感器等,在目前主流機(jī)
    的頭像 發(fā)表于 07-16 00:48 ?7063次閱讀
    <b class='flag-5'>機(jī)器</b>人也能純<b class='flag-5'>視覺</b>控制?MIT華人博士團(tuán)隊(duì)登上Nature主刊

    主流機(jī)器視覺軟件開發(fā)平臺介紹及對比?

    機(jī)器視覺作為工業(yè)自動化的核心技術(shù),其軟件開發(fā)平臺的選擇直接影響項(xiàng)目的開發(fā)效率、成本及最終性能。本文將對比當(dāng)前主流視覺開發(fā)平臺,包括LabV
    的頭像 發(fā)表于 07-14 09:44 ?2983次閱讀
    <b class='flag-5'>主流</b><b class='flag-5'>機(jī)器</b><b class='flag-5'>視覺</b>軟件開發(fā)平臺介紹及對比?

    機(jī)器視覺助力軌道缺陷檢測

    機(jī)器視覺檢測助力軌道檢測
    的頭像 發(fā)表于 05-21 16:55 ?1191次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>視覺</b>助力軌道缺陷檢測

    EtherCAT科普系列(8):EtherCAT技術(shù)機(jī)器視覺領(lǐng)域的應(yīng)用

    機(jī)器視覺是基于軟件與硬件的組合,通過光學(xué)裝置和非接觸式的傳感器自動地接受一個真實(shí)物體的圖像,并利用軟件算法處理圖像以獲得所需信息或用于控制機(jī)器人運(yùn)動的裝置。機(jī)器
    的頭像 發(fā)表于 05-15 17:09 ?1856次閱讀
    EtherCAT科普系列(8):EtherCAT<b class='flag-5'>技術(shù)</b>在<b class='flag-5'>機(jī)器</b><b class='flag-5'>視覺</b>領(lǐng)域的應(yīng)用
    阿拉尔市| 海伦市| 奉节县| 裕民县| 合阳县| 涡阳县| 灵璧县| 麻阳| 平远县| 建始县| 秭归县| 景德镇市| 蓬安县| 县级市| 南昌市| 华亭县| 娄底市| 新竹市| 通河县| 日照市| 淮安市| 承德市| 临夏县| 呼图壁县| 威海市| 凤阳县| 康马县| 平远县| 崇州市| 临湘市| 璧山县| 瑞丽市| 获嘉县| 临泽县| 佛山市| 邯郸县| 醴陵市| 屏山县| 牟定县| 房产| 嘉黎县|