日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)和智能理論在未來(lái)會(huì)帶來(lái)什么?

lviY_AI_shequ ? 來(lái)源:YXQ ? 2019-07-08 15:50 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近日,圖靈獎(jiǎng)得主、深度學(xué)習(xí)巨頭Geoffrey Hinton和Yann LeCun在ACM FCRC 2019上發(fā)表了精彩演講。

二人分別在大會(huì)上做了題為《深度學(xué)習(xí)革命》和《深度學(xué)習(xí)革命:續(xù)集》的精彩演講。目前視頻已經(jīng)公開:

https://www.youtube.com/watch?v=VsnQf7exv5I

新智元對(duì)演講內(nèi)容進(jìn)行了整理。

Geoffrey Hinton:《深度學(xué)習(xí)革命》

Geoffrey Hinton

Hinton表示,自從20世紀(jì)50年代開始,人工智能存在兩種范式:分別是邏輯啟發(fā)的方法生物學(xué)啟發(fā)的方法。

邏輯啟發(fā)的方法(The logic-inspired approach):智能的本質(zhì)是使用符號(hào)規(guī)則來(lái)操縱符號(hào)表達(dá)。我們應(yīng)該專注于推理。

生物學(xué)啟發(fā)的方法(The biologically-inspired approach):智能的本質(zhì)是學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)中連接的優(yōu)勢(shì)。我們應(yīng)該專注于學(xué)習(xí)和感知。

不同的范式便使得最終的目標(biāo)有所不同。因此,在內(nèi)部表示(internal representation)方面也存在著兩種觀點(diǎn):

內(nèi)部表示是符號(hào)表達(dá)式。程序員可以用一種明確的語(yǔ)言把它們交給計(jì)算機(jī);可以通過(guò)對(duì)現(xiàn)有表示應(yīng)用規(guī)則派生新的表示。

內(nèi)部表示與語(yǔ)言完全不同。它們是神經(jīng)活動(dòng)的向量(big vectors);它們對(duì)神經(jīng)活動(dòng)的其他載體有直接的因果影響;這些向量是從數(shù)據(jù)中學(xué)到的。

由此也導(dǎo)致了兩種讓計(jì)算機(jī)完成任務(wù)的方式。

首先是智能設(shè)計(jì):有意識(shí)地精確計(jì)算出你將如何操縱符號(hào)表示來(lái)執(zhí)行任務(wù),然后極其詳細(xì)地告訴計(jì)算機(jī)具體要做什么。

其次是學(xué)習(xí):向計(jì)算機(jī)展示大量輸入和所需輸出的例子。讓計(jì)算機(jī)學(xué)習(xí)如何使用通用的學(xué)習(xí)程序?qū)⑤斎胗成涞捷敵觥?/p>

Hinton舉了一個(gè)例子:人們花了50年的時(shí)間,用符號(hào)型人工智能(symbolic AI)來(lái)完成的任務(wù)就是“看圖說(shuō)話”。

針對(duì)這項(xiàng)任務(wù),人們嘗試了很長(zhǎng)時(shí)間來(lái)編寫相應(yīng)的代碼,即便采用神經(jīng)網(wǎng)絡(luò)的方法依舊嘗試了很長(zhǎng)一段時(shí)間。最終,這項(xiàng)任務(wù)得到很好解決的方法竟然是基于純學(xué)習(xí)的方法。

因此,對(duì)于神經(jīng)網(wǎng)絡(luò)而言,存在如下的核心問(wèn)題

包含數(shù)百萬(wàn)權(quán)重和多層非線性神經(jīng)元的大型神經(jīng)網(wǎng)絡(luò)是非常強(qiáng)大的計(jì)算設(shè)備。但神經(jīng)網(wǎng)絡(luò)能否從隨機(jī)權(quán)重開始,并從訓(xùn)練數(shù)據(jù)中獲取所有知識(shí),從而學(xué)習(xí)一項(xiàng)困難的任務(wù)(比如物體識(shí)別或機(jī)器翻譯)?

針對(duì)這項(xiàng)問(wèn)題,前人們付出了不少的努力:

針對(duì)如何訓(xùn)練人工神經(jīng)網(wǎng)絡(luò),Hinton認(rèn)為分為兩大方法,分別是監(jiān)督訓(xùn)練和無(wú)監(jiān)督訓(xùn)練。

監(jiān)督訓(xùn)練:向網(wǎng)絡(luò)顯示一個(gè)輸入向量,并告訴它正確的輸出;調(diào)整權(quán)重,減少正確輸出與實(shí)際輸出之間的差異。

無(wú)監(jiān)督訓(xùn)練:僅向網(wǎng)絡(luò)顯示輸入;調(diào)整權(quán)重,以便更好地從隱含神經(jīng)元的活動(dòng)中重建輸入(或部分輸入)。

而反向傳播(backpropagation algorithm)只是計(jì)算權(quán)重變化如何影響輸出錯(cuò)誤的一種有效方法。不是一次一個(gè)地?cái)_動(dòng)權(quán)重并測(cè)量效果,而是使用微積分同時(shí)計(jì)算所有權(quán)重的誤差梯度。

當(dāng)有一百萬(wàn)個(gè)權(quán)重時(shí),反向傳播方法要比變異方法效率高出一百萬(wàn)倍。

然而,反向傳播算法卻又讓人感到失望。

在20世紀(jì)90年代,雖然反向傳播算法的效果還算不錯(cuò),但并沒(méi)有達(dá)到人們所期待的那樣——深度網(wǎng)絡(luò)訓(xùn)練非常困難;在中等規(guī)模的數(shù)據(jù)集上,一些其他機(jī)器學(xué)習(xí)方法甚至比反向傳播更有效。

符號(hào)型人工智能的研究人員稱,期望在大型深層神經(jīng)網(wǎng)絡(luò)中學(xué)習(xí)困難的任務(wù)是愚蠢的,因?yàn)檫@些網(wǎng)絡(luò)從隨機(jī)連接開始,且沒(méi)有先驗(yàn)知識(shí)。

Hinton舉了三個(gè)非?;恼Q的理論:

而后,深度學(xué)習(xí)開始被各種拒絕:

2007年:NIPS program committee拒絕了Hinton等人的一篇關(guān)于深度學(xué)習(xí)的論文。因?yàn)樗麄円呀?jīng)接收了一篇關(guān)于深度學(xué)習(xí)的論文,而同一主題的兩篇論文就會(huì)“顯得過(guò)多”。

2009年:一位評(píng)審員告訴Yoshua Bengio,有關(guān)神經(jīng)網(wǎng)絡(luò)的論文在ICML中沒(méi)有地位。

2010年:一位CVPR評(píng)審員拒絕了Yann LeCun的論文,盡管它擊敗了最先進(jìn)的論文。審稿人說(shuō)它沒(méi)有告訴我們?nèi)魏侮P(guān)于計(jì)算機(jī)視覺(jué)的信息,因?yàn)橐磺卸际恰皩W(xué)到的”。

而在2005年至2009年期間,研究人員(在加拿大!)取得了幾項(xiàng)技術(shù)進(jìn)步,才使反向傳播能夠更好地在前饋網(wǎng)絡(luò)中工作。

到了2012年,ImageNet對(duì)象識(shí)別挑戰(zhàn)賽(ImageNet object recognition challenge)有大約100萬(wàn)張從網(wǎng)上拍攝的高分辨率訓(xùn)練圖像。

來(lái)自世界各地的領(lǐng)先計(jì)算機(jī)視覺(jué)小組在該數(shù)據(jù)集上嘗試了一些當(dāng)時(shí)最好的計(jì)算機(jī)視覺(jué)方法。其結(jié)果如下:

這次比賽的結(jié)果后,計(jì)算機(jī)視覺(jué)相關(guān)的組委會(huì)們才突然發(fā)覺(jué)原來(lái)深度學(xué)習(xí)是有用的!

Hinton在演講中討論了一種全新的機(jī)器翻譯方式。

對(duì)于每種語(yǔ)言,我們都有一個(gè)編碼器神經(jīng)網(wǎng)絡(luò)和一個(gè)解碼器神經(jīng)網(wǎng)絡(luò)。編碼器按原句中的單詞順序讀取(它最后的隱藏狀態(tài)代表了句子所表達(dá)的思想)。而解碼器用目標(biāo)語(yǔ)言表達(dá)思想。

自2014年年以來(lái),神經(jīng)網(wǎng)絡(luò)機(jī)器翻譯得了很大的發(fā)展。

接下來(lái),Hinton談到了神經(jīng)網(wǎng)絡(luò)視覺(jué)的未來(lái)。

他認(rèn)為卷積神經(jīng)網(wǎng)絡(luò)獲得了巨大的勝利,因?yàn)樗羰窃谝粋€(gè)地方能行得通,在其它地方也能使用。但它們識(shí)別物體的方式與我們不同,因此是對(duì)抗的例子。

人們通過(guò)使用對(duì)象的坐標(biāo)系與其部分的坐標(biāo)系之間的視點(diǎn)不變幾何關(guān)系來(lái)識(shí)別對(duì)象。Hinton認(rèn)為神經(jīng)網(wǎng)絡(luò)也能做到這一點(diǎn)(參考鏈接:arxiv.org/abs/1906.06818)。

那么,神經(jīng)網(wǎng)絡(luò)的未來(lái)又是什么呢?

Hinton認(rèn)為:

幾乎所有人工神經(jīng)網(wǎng)絡(luò)只使用兩個(gè)時(shí)間尺度:對(duì)權(quán)重的緩慢適應(yīng)和神經(jīng)活動(dòng)的快速變化。但是突觸在多個(gè)不同的時(shí)間尺度上適應(yīng)。它可以使快速權(quán)重(fast weight)進(jìn)行short-term memory將使神經(jīng)網(wǎng)絡(luò)變得更好,可以改善優(yōu)化、可以允許真正的遞歸。

Yann LeCun演講:《深度學(xué)習(xí)革命:續(xù)集》

Yann LeCun

Jeff剛才提到了監(jiān)督學(xué)習(xí),監(jiān)督學(xué)習(xí)在數(shù)據(jù)量很大時(shí)效果很好,可以做語(yǔ)音識(shí)別、圖像識(shí)別、面部識(shí)別、從圖片生成屬性、機(jī)器翻譯等。

如果神經(jīng)網(wǎng)絡(luò)具有某些特殊架構(gòu),比如Jeff在上世紀(jì)八九十年代提出的那些架構(gòu),可以識(shí)別手寫文字,效果很好,到上世紀(jì)90年代末時(shí),我在貝爾實(shí)驗(yàn)室研發(fā)的這類系統(tǒng)承擔(dān)了全美手寫文字識(shí)別工作的10%-20%,不僅在技術(shù)上,而且在商業(yè)上也是一個(gè)成功。

到后來(lái),整個(gè)社群一度幾乎拋棄了神經(jīng)網(wǎng)絡(luò),一方面是因?yàn)槭侨狈Υ笮蛿?shù)據(jù)集,還有部分原因是當(dāng)時(shí)編寫的軟件過(guò)于復(fù)雜,投資很大,還有一部分原因是當(dāng)時(shí)的計(jì)算機(jī)速度不夠快,不足以運(yùn)行其他所有應(yīng)用。

卷積神經(jīng)網(wǎng)絡(luò)其實(shí)是受到了生物學(xué)的啟發(fā),它并不是照搬生物學(xué),但確實(shí)從中得到很多啟發(fā),比如視覺(jué)皮層的結(jié)構(gòu),以及在學(xué)習(xí)信號(hào)處理時(shí)自然而然產(chǎn)生的一些觀點(diǎn),比如filtering是處理音視頻信號(hào)的好辦法,而卷積是filtering的一種方式。這些經(jīng)典理念早在上世紀(jì)五六十年代就由Hubel和wiesel等人在神經(jīng)科學(xué)領(lǐng)域提出,日本科學(xué)家Fukushima在上世紀(jì)80年代對(duì)其也有貢獻(xiàn)。

我從這些觀點(diǎn)和成果中受到啟發(fā),我發(fā)現(xiàn)可以利用反向傳播訓(xùn)練神經(jīng)網(wǎng)絡(luò)來(lái)復(fù)現(xiàn)這些現(xiàn)象。卷積網(wǎng)絡(luò)的理念是,世界上的物體是由各個(gè)部分構(gòu)成的,各個(gè)部分由motif構(gòu)成,而motif是由材質(zhì)和邊緣的基本組合,邊緣是由像素的分布構(gòu)成的。如果一個(gè)層級(jí)系統(tǒng)能夠檢測(cè)到有用的像素組合,再依次到邊緣、motif、最后到物體的各個(gè)部分,這就是一個(gè)目標(biāo)識(shí)別系統(tǒng)。

層級(jí)表示不僅適用于視覺(jué)目標(biāo),也適用于語(yǔ)音、文本等自然信號(hào)。我們可以使用卷積網(wǎng)絡(luò)識(shí)別面部、識(shí)別路上的行人。

在上世紀(jì)90年代到2010年左右,出現(xiàn)了一段所謂“AI寒冬”,但我們沒(méi)有停下腳步,在人臉識(shí)別、行人識(shí)別,將機(jī)器學(xué)習(xí)用在機(jī)器人技術(shù)上,使用卷積網(wǎng)絡(luò)標(biāo)記整個(gè)圖像,圖像中的每個(gè)像素都會(huì)標(biāo)記為“能”或“不能”被機(jī)器人穿越,而且數(shù)據(jù)收集是自動(dòng)的,無(wú)需手動(dòng)標(biāo)記。

幾年之后,我們使用類似的系統(tǒng)完成目標(biāo)分割任務(wù),整個(gè)系統(tǒng)可以實(shí)現(xiàn)VGA實(shí)時(shí)部署,對(duì)圖像上的每個(gè)像素進(jìn)行分割。這個(gè)系統(tǒng)可以檢測(cè)行人、道路、樹木,但當(dāng)時(shí)這個(gè)結(jié)果并未馬上得到計(jì)算機(jī)社群的認(rèn)可。

最近的視覺(jué)識(shí)別系統(tǒng)的一個(gè)范例是Facebook的“全景特征金字塔網(wǎng)絡(luò)”,可以通過(guò)多層路徑提取圖像特征,由多層路徑特征生成輸出圖像,其中包含圖像中全部實(shí)例和目標(biāo)的掩模,并輸出分類結(jié)果,告訴你圖像中目標(biāo)的分類信息。不僅是目標(biāo)本身的分類,還包括背景、材質(zhì)等分類,比如草地、沙地、樹林等??梢韵胂螅@種系統(tǒng)對(duì)于自動(dòng)駕駛會(huì)很有用。

醫(yī)療成像及圖像分割

卷積網(wǎng)絡(luò)對(duì)于醫(yī)學(xué)成像應(yīng)用也很有幫助。與上面提到的網(wǎng)絡(luò)類似,它也分為解碼器部分,負(fù)責(zé)提取圖像特征,另一部分負(fù)責(zé)生成輸出圖像,對(duì)其進(jìn)行分割。

神經(jīng)網(wǎng)絡(luò)機(jī)器翻譯

在翻譯應(yīng)用上,采用了許多網(wǎng)絡(luò)架構(gòu)上的創(chuàng)新,如自注意力機(jī)制、輕量卷積、動(dòng)態(tài)卷積等,實(shí)現(xiàn)基于語(yǔ)境的動(dòng)態(tài)卷積網(wǎng)絡(luò)內(nèi)核。在ICML2019上的最新機(jī)器翻譯卷積網(wǎng)絡(luò)模型,其參數(shù)數(shù)量達(dá)到200M至300M,WMT數(shù)據(jù)集上的BLEU得分:英語(yǔ)-德語(yǔ)29.7,英語(yǔ)-法語(yǔ)43.2,漢語(yǔ)-英語(yǔ)24.4。

自動(dòng)駕駛系統(tǒng)

游戲

無(wú)模型強(qiáng)化學(xué)習(xí)很適合游戲領(lǐng)域應(yīng)用?,F(xiàn)在強(qiáng)化學(xué)習(xí)領(lǐng)域的一大問(wèn)題就是數(shù)據(jù)的缺乏,使用強(qiáng)化學(xué)習(xí)訓(xùn)練系統(tǒng)需要大量的重復(fù)試驗(yàn)和試錯(cuò),要達(dá)到人類訓(xùn)練15分鐘的水平,機(jī)器需要大概80小時(shí)的實(shí)時(shí)游戲,對(duì)于圍棋來(lái)說(shuō),要達(dá)到超人的水平,機(jī)器需要完成大約2000萬(wàn)盤的自對(duì)弈。Deepmind最近的《星際爭(zhēng)霸2》AI則完成了大約200年的游戲時(shí)間。

這種海量重復(fù)試驗(yàn)的方式在現(xiàn)實(shí)中顯然不可行,如果你想教一個(gè)機(jī)器人抓取目標(biāo),或者教一臺(tái)自動(dòng)駕駛車學(xué)會(huì)駕駛,如此多的重復(fù)次數(shù)是不行的。純粹的強(qiáng)化學(xué)習(xí)只能適用于虛擬世界,那里的嘗試速度要遠(yuǎn)遠(yuǎn)快于現(xiàn)實(shí)世界。

這就引出了一個(gè)問(wèn)題:為什么人和動(dòng)物的學(xué)習(xí)速度這么快?

和自動(dòng)駕駛系統(tǒng)不同,我們能夠建立直覺(jué)上真實(shí)的模型,所以不會(huì)把車開下懸崖。這是我們掌握的內(nèi)部模型,那么我們是怎么學(xué)習(xí)這個(gè)模型的,如何讓機(jī)器學(xué)會(huì)這個(gè)模型?基本上是基于觀察學(xué)會(huì)的。

動(dòng)物身上也存在類似的機(jī)制。預(yù)測(cè)是智能的不可或缺的組成部分,當(dāng)實(shí)際情況和預(yù)測(cè)出現(xiàn)差異時(shí),實(shí)際上就是學(xué)習(xí)的過(guò)程。

上圖顯示了嬰兒學(xué)習(xí)早期概念和語(yǔ)言的過(guò)程。嬰兒基本上是通過(guò)觀察學(xué)習(xí)這個(gè)世界的,但其中也有一小部分是通過(guò)交流。

自監(jiān)督學(xué)習(xí):預(yù)測(cè)與重建

以視頻內(nèi)容預(yù)測(cè)為例,給定一段視頻數(shù)據(jù),從其中一段視頻內(nèi)容預(yù)測(cè)另外一段空白處的內(nèi)容。自監(jiān)督學(xué)習(xí)的典型場(chǎng)景是,事先不公布要空出哪一段內(nèi)容,實(shí)際上根本不用真的留出空白,只是讓系統(tǒng)根據(jù)一些限制條件來(lái)對(duì)輸入進(jìn)行重建。系統(tǒng)只通過(guò)觀察來(lái)完成任務(wù),無(wú)需外部交互,學(xué)習(xí)效率更高。

機(jī)器在學(xué)習(xí)過(guò)程中被輸入了多少信息?對(duì)于純強(qiáng)化學(xué)習(xí)而言,獲得了一些樣本的部分碎片信息(就像蛋糕上的櫻桃)。對(duì)于監(jiān)督學(xué)習(xí),每個(gè)樣本獲得10-10000bit信息(蛋糕表面的冰層),對(duì)于半監(jiān)督學(xué)習(xí),每個(gè)樣本可獲得數(shù)百萬(wàn)bit的信息(整個(gè)蛋糕內(nèi)部)。

自監(jiān)督學(xué)習(xí)的必要性

機(jī)器學(xué)習(xí)的未來(lái)在與自監(jiān)督和半監(jiān)督學(xué)習(xí),而非監(jiān)督學(xué)習(xí)和純強(qiáng)化學(xué)習(xí)。自監(jiān)督學(xué)習(xí)就像填空,在NLP任務(wù)上表現(xiàn)很好(實(shí)際上是預(yù)測(cè)句子中缺失的單詞),但在圖像識(shí)別和理解任務(wù)上就表現(xiàn)一般。

為什么?因?yàn)檫@世界并不全是可預(yù)測(cè)的。對(duì)于視頻預(yù)測(cè)任務(wù),結(jié)果可能有多重可能,訓(xùn)練系統(tǒng)做出唯一一種預(yù)測(cè)的結(jié)果往往會(huì)得到唯一“模糊”的結(jié)果,即所有未來(lái)結(jié)果的“平均”。這并不是理想的預(yù)測(cè)。

我們需要利用隱變量來(lái)處理不確定性。訓(xùn)練樣本只是整個(gè)可能的輸出集合的表示。

幾百年以來(lái),理論的提出往往伴隨著之后的偉大發(fā)明和創(chuàng)造。深度學(xué)習(xí)和智能理論在未來(lái)會(huì)帶來(lái)什么?值得我們拭目以待。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1821

    文章

    50366

    瀏覽量

    267048
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5610

    瀏覽量

    124652

原文標(biāo)題:圖靈獎(jiǎng)得主Hinton和 LeCun最新演講:深度學(xué)習(xí)如何繼續(xù)革命?

文章出處:【微信號(hào):AI_shequ,微信公眾號(hào):人工智能愛(ài)好者社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    人工智能-Python深度學(xué)習(xí)進(jìn)階與應(yīng)用技術(shù):工程師高培解讀

    深度學(xué)習(xí)的工程化落地,早已不是紙上談兵的事。從卷積神經(jīng)網(wǎng)絡(luò)到Transformer,從目標(biāo)檢測(cè)到大模型私有化部署,技術(shù)棧不斷延伸,工程師面臨的知識(shí)體系也越來(lái)越龐雜?,F(xiàn)根據(jù)中際賽威工程師培訓(xùn)老師的一份
    的頭像 發(fā)表于 04-21 11:01 ?375次閱讀
    人工<b class='flag-5'>智能</b>-Python<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>進(jìn)階與應(yīng)用技術(shù):工程師高培解讀

    嵌入式人工智能課程(華清遠(yuǎn)見(jiàn))

    每一行優(yōu)化策略帶來(lái)的幀率(FPS)提升和功耗下降,真正做到“知其然,更知其所以然”。 四、 結(jié)語(yǔ):成就稀缺的“軟硬復(fù)合型”人才 自動(dòng)駕駛、智能安防、工業(yè)機(jī)器人等風(fēng)口領(lǐng)域,單純的算法工程師已經(jīng)過(guò)剩,而
    發(fā)表于 04-16 18:47

    2026視覺(jué)檢測(cè)產(chǎn)業(yè)深度調(diào)研及未來(lái)趨勢(shì)分析

    視覺(jué)檢測(cè)技術(shù)融合深度學(xué)習(xí)與多模態(tài)傳感,實(shí)現(xiàn)從輔助工具向決策中樞的轉(zhuǎn)變,推動(dòng)智能制造與工業(yè)4.0發(fā)展。
    的頭像 發(fā)表于 04-01 09:26 ?271次閱讀
    2026視覺(jué)檢測(cè)產(chǎn)業(yè)<b class='flag-5'>深度</b>調(diào)研及<b class='flag-5'>未來(lái)</b>趨勢(shì)分析

    智能檢測(cè)】基于AI深度學(xué)習(xí)與飛拍技術(shù)的影像測(cè)量系統(tǒng):實(shí)現(xiàn)高效精準(zhǔn)的全自動(dòng)光學(xué)檢測(cè)與智能制造數(shù)據(jù)閉環(huán)

    內(nèi)容概要:文檔內(nèi)容介紹了中圖儀器(Chotest)影像測(cè)量?jī)x融合人工智能深度學(xué)習(xí)與飛拍技術(shù)的自動(dòng)化檢測(cè)解決方案。系統(tǒng)通過(guò)AI深度學(xué)習(xí)實(shí)現(xiàn)
    發(fā)表于 03-31 17:11

    人工智能與機(jī)器學(xué)習(xí)在這些行業(yè)的深度應(yīng)用

    自人工智能和機(jī)器學(xué)習(xí)問(wèn)世以來(lái),多個(gè)在線領(lǐng)域的數(shù)字化格局迎來(lái)了翻天覆地的變化。這些技術(shù)從誕生之初就為企業(yè)賦予了競(jìng)爭(zhēng)優(yōu)勢(shì),而在線行業(yè)正是受其影響最為顯著的領(lǐng)域。人工智能(AI)與機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 02-04 14:44 ?703次閱讀

    機(jī)器學(xué)習(xí)深度學(xué)習(xí)中需避免的 7 個(gè)常見(jiàn)錯(cuò)誤與局限性

    ,并驗(yàn)證輸出結(jié)果,就能不斷提升專業(yè)技能,養(yǎng)成優(yōu)秀數(shù)據(jù)科學(xué)家的工作習(xí)慣。需避免的機(jī)器學(xué)習(xí)深度學(xué)習(xí)數(shù)據(jù)錯(cuò)誤訓(xùn)練數(shù)據(jù)驅(qū)動(dòng)的人工智能模型時(shí),我們
    的頭像 發(fā)表于 01-07 15:37 ?362次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個(gè)常見(jiàn)錯(cuò)誤與局限性

    如何深度學(xué)習(xí)機(jī)器視覺(jué)的應(yīng)用場(chǎng)景

    深度學(xué)習(xí)視覺(jué)應(yīng)用場(chǎng)景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測(cè):處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)化缺陷模式 非標(biāo)產(chǎn)品分類:對(duì)形狀、顏色、紋理多變的產(chǎn)品進(jìn)行智能分類 外觀質(zhì)量評(píng)估:基于學(xué)習(xí)的外觀質(zhì)量標(biāo)
    的頭像 發(fā)表于 11-27 10:19 ?350次閱讀

    5G與6G:從“萬(wàn)物互聯(lián)“到“智能無(wú)界“的跨越

    智能手機(jī)、智能家居、智能汽車日益普及的今天,我們已經(jīng)習(xí)慣了高速網(wǎng)絡(luò)帶來(lái)的便利。而當(dāng)我們還在享受5G帶來(lái)
    發(fā)表于 10-10 13:59

    《AI芯片:科技探索與AGI愿景》—— 勾勒計(jì)算未來(lái)的戰(zhàn)略羅盤

    、數(shù)據(jù)與算力三者間錯(cuò)綜復(fù)雜的共生關(guān)系,并前瞻性地討論了能耗、倫理與全球競(jìng)爭(zhēng)等關(guān)鍵議題。 書中一幅AGI技術(shù)演進(jìn)路線圖(如圖2)令人印象深刻,它清晰地標(biāo)定了我們從“深度學(xué)習(xí)爆發(fā)”到“具身智能”,最終邁向
    發(fā)表于 09-17 09:32

    如何在機(jī)器視覺(jué)中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測(cè)可定位已訓(xùn)練的目標(biāo)類別,并通過(guò)矩形框(邊界框)對(duì)其進(jìn)行標(biāo)識(shí)。 討論人工智能(AI)或深度
    的頭像 發(fā)表于 09-10 17:38 ?1071次閱讀
    如何在機(jī)器視覺(jué)中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    深度學(xué)習(xí)對(duì)工業(yè)物聯(lián)網(wǎng)有哪些幫助

    深度學(xué)習(xí)作為人工智能的核心分支,通過(guò)模擬人腦神經(jīng)網(wǎng)絡(luò)的層級(jí)結(jié)構(gòu),能夠自動(dòng)從海量工業(yè)數(shù)據(jù)中提取復(fù)雜特征,為工業(yè)物聯(lián)網(wǎng)(IIoT)提供了從數(shù)據(jù)感知到智能決策的全鏈路升級(jí)能力。以下從技術(shù)賦能、場(chǎng)景突破
    的頭像 發(fā)表于 08-20 14:56 ?1245次閱讀

    自動(dòng)駕駛中Transformer大模型會(huì)取代深度學(xué)習(xí)嗎?

    持續(xù)討論。特別是自動(dòng)駕駛領(lǐng)域,部分廠商開始嘗試將多模態(tài)大模型(MLLM)引入到感知、規(guī)劃與決策系統(tǒng),引發(fā)了“傳統(tǒng)深度學(xué)習(xí)是否已過(guò)時(shí)”的激烈爭(zhēng)論。然而,從技術(shù)原理、算力成本、安全需求與實(shí)際落地路徑等維度來(lái)看,Transforme
    的頭像 發(fā)表于 08-13 09:15 ?4389次閱讀
    自動(dòng)駕駛中Transformer大模型<b class='flag-5'>會(huì)</b>取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    人工智能技術(shù)的現(xiàn)狀與未來(lái)發(fā)展趨勢(shì)

    。 ? 一、AI核心技術(shù)突破 ? ? 1. ? 深度學(xué)習(xí)(Deep Learning) ? ? ? 深度學(xué)習(xí)是目前AI發(fā)展的核心驅(qū)動(dòng)力,尤其是Transformer架構(gòu)的廣泛應(yīng)用,使得
    的頭像 發(fā)表于 07-16 15:01 ?2348次閱讀

    當(dāng)深度學(xué)習(xí)遇上嵌入式資源困境,特征空間如何破局?

    近年來(lái),隨著人工智能(AI)技術(shù)的迅猛發(fā)展,深度學(xué)習(xí)(Deep Learning)成為最熱門的研究領(lǐng)域之一。語(yǔ)音識(shí)別、圖像識(shí)別、自然語(yǔ)言處理等領(lǐng)域,
    發(fā)表于 07-14 14:50 ?1329次閱讀
    當(dāng)<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>遇上嵌入式資源困境,特征空間如何破局?

    CES Asia 2025蓄勢(shì)待發(fā),聚焦低空經(jīng)濟(jì)與AI,引領(lǐng)未來(lái)產(chǎn)業(yè)新變革

    可能性。智能無(wú)人機(jī)物流配送、巡檢監(jiān)測(cè)等領(lǐng)域的應(yīng)用愈發(fā)成熟,大大提高了工作效率和精準(zhǔn)度。低空經(jīng)濟(jì)的發(fā)展,不僅帶動(dòng)了相關(guān)技術(shù)的進(jìn)步,還創(chuàng)造了新的就業(yè)機(jī)會(huì)和經(jīng)濟(jì)增長(zhǎng)點(diǎn)。 人工智能領(lǐng)域同樣發(fā)展迅猛,
    發(fā)表于 07-09 10:29
    神木县| 读书| 昆明市| 丰都县| 兴隆县| 西藏| 溧水县| 洪泽县| 静安区| 牙克石市| 扎赉特旗| 彭州市| 新民市| 阿鲁科尔沁旗| 喀什市| 临颍县| 绥化市| 莎车县| 鸡东县| 马尔康县| 阿拉善右旗| 台北市| 商水县| 河东区| 沐川县| 民勤县| 当涂县| 荔浦县| 小金县| 镇坪县| 沙雅县| 房产| 嘉禾县| 昂仁县| 台北市| 海丰县| 陆丰市| 赤峰市| 工布江达县| 咸宁市| 射阳县|