日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)之后為何陷入了困境?

新機(jī)器視覺 ? 來源:datasciencecentral ? 2023-11-20 14:30 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

來源:datasciencecentral 編譯:Min

我們被困住了,或者說至少我們已經(jīng)停滯不前了。有誰還記得上一次一年沒有在算法、芯片或數(shù)據(jù)處理方面取得重大顯著進(jìn)展是什么時候?幾周前去參加Strata San Jose會議,卻沒有看到任何吸引眼球的新進(jìn)展,這太不尋常了。 正如我之前所報告的那樣,似乎我們已經(jīng)進(jìn)入了成熟期,現(xiàn)在我們的主要工作目標(biāo)是確保我們所有強(qiáng)大的新技術(shù)能夠很好地結(jié)合在一起(融合平臺),或者從那些大規(guī)模的VC投資中賺取相同的錢。

我不是唯一一個注意到這些的人。幾位與會者和參展商都和我說了非常類似的話。而就在前幾天,我收到了一個由知名研究人員組成的團(tuán)隊的說明,他們一直在評估不同高級分析平臺的相對優(yōu)點(diǎn),并得出結(jié)論:沒有任何值得報告的差異。

我們?yōu)槭裁春驮谀睦锵萑肜Ь常?/strong>

我們現(xiàn)在所處的位置其實(shí)并不差。我們過去兩三年的進(jìn)步都是在深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí)領(lǐng)域。深度學(xué)習(xí)在處理語音、文本、圖像和視頻方面給我們帶來了了不起的能力。再加上強(qiáng)化學(xué)習(xí),我們在游戲、自主車輛、機(jī)器人等方面都有了很大的進(jìn)步。 我們正處于商業(yè)爆炸的最早階段,基于諸如通過聊天機(jī)器人與客戶互動來節(jié)省大量資金、個人助理和Alexa等新的個人便利應(yīng)用、個人汽車中的二級自動化,比如自適應(yīng)巡航控制、事故避免制動和車道維護(hù)。 Tensorflow、Keras和其他深度學(xué)習(xí)平臺比以往任何時候都更容易獲得,而且由于GPU的存在,比以往任何時候都更高效。 但是,已知的缺陷清單根本沒有解決:

需要太多標(biāo)簽化的訓(xùn)練數(shù)據(jù)。

模型的訓(xùn)練時間太長或者需要太多昂貴的資源,而且還可能根本無法訓(xùn)練。

超參數(shù),尤其是圍繞節(jié)點(diǎn)和層的超參數(shù),仍然是神秘的。自動化甚至是公認(rèn)的經(jīng)驗(yàn)法則仍然遙不可及。

遷移學(xué)習(xí),意味著只能從復(fù)雜到簡單,而不是從一個邏輯系統(tǒng)到另一個邏輯系統(tǒng)。

我相信我們可以列一個更長的清單。正是在解決這些主要的缺點(diǎn)方面,我們已經(jīng)陷入了困境。

是什么阻止了我們

在深度神經(jīng)網(wǎng)絡(luò)中,目前的傳統(tǒng)觀點(diǎn)是,只要我們不斷地推動,不斷地投資,那么這些不足就會被克服。例如,從80年代到00年代,我們知道如何讓深度神經(jīng)網(wǎng)絡(luò)工作,只是我們沒有硬件。一旦趕上了,那么深度神經(jīng)網(wǎng)絡(luò)結(jié)合新的開源精神,就會打開這個新的領(lǐng)域。 所有類型的研究都有自己的動力。特別是一旦你在一個特定的方向上投入了大量的時間和金錢,你就會一直朝著這個方向前進(jìn)。如果你已經(jīng)投入了多年的時間來發(fā)展這些技能的專業(yè)知識,你就不會傾向于跳槽。 改變方向,即使你不完全確定應(yīng)該是什么方向。 有時候我們需要改變方向,即使我們不知道這個新方向到底是什么。最近,領(lǐng)先的加拿大和美國AI研究人員做到了這一點(diǎn)。他們認(rèn)為他們被誤導(dǎo)了,需要從本質(zhì)上重新開始。 這一見解在去年秋天被Geoffrey Hinton口頭表達(dá)出來,他在80年代末啟動神經(jīng)網(wǎng)絡(luò)主旨研究的過程中功不可沒。Hinton現(xiàn)在是多倫多大學(xué)的名譽(yù)教授,也是谷歌的研究員,他說他現(xiàn)在 "深深地懷疑 "反向傳播,這是DNN的核心方法。觀察到人腦并不需要所有這些標(biāo)簽數(shù)據(jù)來得出結(jié)論,Hinton說 "我的觀點(diǎn)是把這些數(shù)據(jù)全部扔掉,然后重新開始"。 因此,考慮到這一點(diǎn),這里是一個簡短的調(diào)查,這些新方向介于確定可以實(shí)現(xiàn)和幾乎不可能實(shí)現(xiàn)之間,但不是我們所知道的深度神經(jīng)網(wǎng)的增量改進(jìn)。 這些描述有意簡短,無疑會引導(dǎo)你進(jìn)一步閱讀以充分理解它們。

看起來像DNN卻不是的東西

有一條研究路線與Hinton的反向傳播密切相關(guān),即認(rèn)為節(jié)點(diǎn)和層的基本結(jié)構(gòu)是有用的,但連接和計算方法需要大幅修改。

我們從Hinton自己目前新的研究方向——CapsNet開始說起是很合適的。這與卷積神經(jīng)網(wǎng)絡(luò)的圖像分類有關(guān),問題簡單來說,就是卷積神經(jīng)網(wǎng)絡(luò)對物體的姿勢不敏感。也就是說,如果要識別同一個物體,在位置、大小、方向、變形、速度、反射率、色調(diào)、紋理等方面存在差異,那么必須針對這些情況分別添加訓(xùn)練數(shù)據(jù)。 在卷積神經(jīng)網(wǎng)絡(luò)中,通過大量增加訓(xùn)練數(shù)據(jù)和(或)增加最大池化層來處理這個問題,這些層可以泛化,但只是損失實(shí)際信息。 下面的描述是眾多優(yōu)秀的CapsNets技術(shù)描述之一,該描述來自Hackernoon。

Capsule是一組嵌套的神經(jīng)層。在普通的神經(jīng)網(wǎng)絡(luò)中,你會不斷地添加更多的層。在CapsNet中,你會在一個單層內(nèi)增加更多的層?;蛘邠Q句話說,把一個神經(jīng)層嵌套在另一個神經(jīng)層里面。capsule里面的神經(jīng)元的狀態(tài)就能捕捉到圖像里面一個實(shí)體的上述屬性。一個膠囊輸出一個向量來代表實(shí)體的存在。向量的方向代表實(shí)體的屬性。該向量被發(fā)送到神經(jīng)網(wǎng)絡(luò)中所有可能的父代。預(yù)測向量是基于自身權(quán)重和權(quán)重矩陣相乘計算的。哪個父代的標(biāo)量預(yù)測向量乘積最大,哪個父代就會增加膠囊的結(jié)合度。其余的父代則降低其結(jié)合度。這種通過協(xié)議的路由方式優(yōu)于目前的max-pooling等機(jī)制。

CapsNet極大地減少了所需的訓(xùn)練集,并在早期測試中顯示出卓越的圖像分類性能。

多粒度級聯(lián)森林

2月份,我們介紹了南京大學(xué)新型軟件技術(shù)國家重點(diǎn)實(shí)驗(yàn)室的周志華和馮霽的研究,展示了他們稱之為多粒度級聯(lián)森林的技術(shù)。他們的研究論文顯示,多粒度級聯(lián)森林在文本和圖像分類上都經(jīng)常擊敗卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)。效益相當(dāng)顯著。

只需要訓(xùn)練數(shù)據(jù)的一小部分。

在您的桌面CPU設(shè)備上運(yùn)行,無需GPU。

訓(xùn)練速度一樣快,在許多情況下甚至更快,適合分布式處理。

超參數(shù)少得多,在默認(rèn)設(shè)置下表現(xiàn)良好。

依靠容易理解的隨機(jī)森林,而不是完全不透明的深度神經(jīng)網(wǎng)。

簡而言之,gcForest(多粒度級聯(lián)森林)是一種決策樹集合方法,其中保留了深網(wǎng)的級聯(lián)結(jié)構(gòu),但不透明的邊緣和節(jié)點(diǎn)神經(jīng)元被隨機(jī)森林組與完全隨機(jī)的樹林配對取代。在我們的原文中閱讀更多關(guān)于gcForest的內(nèi)容。

Pyro and Edward

Pyro和Edward是兩種新的編程語言,它們?nèi)诤狭松疃葘W(xué)習(xí)框架和概率編程。Pyro是Uber和Google的作品,而Edward則來自哥倫比亞大學(xué),由DARPA提供資金。其結(jié)果是一個框架,允許深度學(xué)習(xí)系統(tǒng)衡量他們對預(yù)測或決策的信心。 在經(jīng)典的預(yù)測分析中,我們可能會通過使用對數(shù)損失作為健身函數(shù)來處理這個問題,懲罰有信心但錯誤的預(yù)測(假陽性)。到目前為止,還沒有用于深度學(xué)習(xí)的必然結(jié)果。 例如,這有望使用的地方是在自動駕駛汽車或飛機(jī)中,允許控制在做出關(guān)鍵或致命的災(zāi)難性決定之前有一些信心或懷疑感。這當(dāng)然是你希望你的自主Uber在你上車之前就知道的事情。 Pyro和Edward都處于開發(fā)的早期階段。

不像深網(wǎng)的方法

我經(jīng)常會遇到一些小公司,他們的平臺核心是非常不尋常的算法。在我追問的大多數(shù)案例中,他們都不愿意提供足夠的細(xì)節(jié),甚至讓我為你描述里面的情況。這種保密并不能使他們的效用失效,但是在他們提供一些基準(zhǔn)和一些細(xì)節(jié)之前,我無法真正告訴你里面發(fā)生了什么。當(dāng)他們最終揭開面紗的時候,就把這些當(dāng)作我們未來的工作臺吧。 目前,我所調(diào)查的最先進(jìn)的非DNN算法和平臺是這樣的。

層次時間記憶(HTM)

e5f986b4-8736-11ee-939d-92fbcf53809c.png

層次時間記憶(HTM)使用稀疏分布式表示法(SDR)對大腦中的神經(jīng)元進(jìn)行建模,并進(jìn)行計算,在標(biāo)量預(yù)測(商品、能源或股票價格等未來值)和異常檢測方面優(yōu)于CNN和RNN。 這是Palm Pilot名宿Jeff Hawkins在其公司Numenta的奉獻(xiàn)作品?;艚鹚乖趯Υ竽X功能進(jìn)行基礎(chǔ)研究的基礎(chǔ)上,追求的是一種強(qiáng)大的人工智能模型,而不是像DNN那樣用層和節(jié)點(diǎn)來結(jié)構(gòu)。 HTM的特點(diǎn)是,它發(fā)現(xiàn)模式的速度非??欤恍?,000次觀測。這與訓(xùn)練CNN或RNN所需的幾十萬或幾百萬次的觀測相比,簡直是天壤之別。 此外,模式識別是無監(jiān)督的,并且可以根據(jù)輸入的變化來識別和概括模式的變化。這使得系統(tǒng)不僅訓(xùn)練速度非??欤揖哂凶詫W(xué)習(xí)、自適應(yīng)性,不會被數(shù)據(jù)變化或噪聲所迷惑。

一些值得注意的漸進(jìn)式改進(jìn)

我們開始關(guān)注真正的游戲改變者,但至少有兩個漸進(jìn)式改進(jìn)的例子值得一提。這些顯然仍然是經(jīng)典的CNN和RNNs,具有反向支撐的元素,但它們工作得更好

使用Google Cloud AutoML進(jìn)行網(wǎng)絡(luò)修剪 谷歌和Nvidia的研究人員使用了一種名為網(wǎng)絡(luò)修剪的過程,通過去除對輸出沒有直接貢獻(xiàn)的神經(jīng)元,讓神經(jīng)網(wǎng)絡(luò)變得更小,運(yùn)行效率更高。這一進(jìn)步最近被推出,作為谷歌新的AutoML平臺性能的重大改進(jìn)。

Transformer

e60e745c-8736-11ee-939d-92fbcf53809c.png

Transformer是一種新穎的方法,最初在語言處理中很有用,比如語言到語言的翻譯,這一直是CNNs、RNNs和LSTMs的領(lǐng)域。去年夏末由谷歌大腦和多倫多大學(xué)的研究人員發(fā)布,它在各種測試中都表現(xiàn)出了顯著的準(zhǔn)確性改進(jìn),包括這個英語/德語翻譯測試。 RNNs的順序性使其更難充分利用現(xiàn)代快速計算設(shè)備(如GPU),因?yàn)镚PU擅長的是并行而非順序處理。CNN比RNN的順序性要差得多,但在CNN架構(gòu)中,隨著距離的增加,將輸入的遠(yuǎn)端部分的信息組合起來所需的步驟數(shù)仍然會增加。 準(zhǔn)確率的突破來自于 "自注意功能 "的開發(fā),它將步驟大幅減少到一個小的、恒定的步驟數(shù)。在每一個步驟中,它都應(yīng)用了一種自我關(guān)注機(jī)制,直接對一句話中所有詞之間的關(guān)系進(jìn)行建模,而不管它們各自的位置如何。 就像VC說的那樣,也許是時候該換換口味了。

編輯:黃飛

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    11332

    瀏覽量

    226005
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5283

    瀏覽量

    136105
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5610

    瀏覽量

    124656
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    356

    瀏覽量

    23558
  • 隨機(jī)森林
    +關(guān)注

    關(guān)注

    1

    文章

    22

    瀏覽量

    4449

原文標(biāo)題:深度學(xué)習(xí)之后會是啥?

文章出處:【微信號:vision263com,微信公眾號:新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    深度學(xué)習(xí)為什么還是無法處理邊緣場景?

    [首發(fā)于智駕最前沿微信公眾號]雖然自動駕駛車輛已經(jīng)完成了數(shù)百萬公里的行駛測試,深度學(xué)習(xí)也已被普遍應(yīng)用,但依然會在一些看似簡單的場景中犯下低級錯誤。比如在遇到一些從未見到過的邊緣場景時,系統(tǒng)可能會
    的頭像 發(fā)表于 05-04 10:16 ?1605次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>為什么還是無法處理邊緣場景?

    人工智能-Python深度學(xué)習(xí)進(jìn)階與應(yīng)用技術(shù):工程師高培解讀

    深度學(xué)習(xí)的工程化落地,早已不是紙上談兵的事。從卷積神經(jīng)網(wǎng)絡(luò)到Transformer,從目標(biāo)檢測到大模型私有化部署,技術(shù)棧不斷延伸,工程師面臨的知識體系也越來越龐雜?,F(xiàn)根據(jù)中際賽威工程師培訓(xùn)老師的一份
    的頭像 發(fā)表于 04-21 11:01 ?391次閱讀
    人工智能-Python<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>進(jìn)階與應(yīng)用技術(shù):工程師高培解讀

    群暉NAS+IPguard融合方案:破解企業(yè)數(shù)據(jù)存儲與安全的雙重困境

    企業(yè)陷入“存儲無序”與“安全薄弱”的雙重困境:要么存儲設(shè)備簡陋分散,數(shù)據(jù)丟失、誤刪風(fēng)險突出;要么安全防護(hù)與存儲體系脫節(jié),核心數(shù)據(jù)易通過U盤、郵件等渠道泄露,難以滿足合規(guī)要求。在此背景下,群暉NAS與IPguard的融合方
    的頭像 發(fā)表于 04-15 09:58 ?163次閱讀

    機(jī)器學(xué)習(xí)深度學(xué)習(xí)中需避免的 7 個常見錯誤與局限性

    無論你是剛?cè)腴T還是已經(jīng)從事人工智能模型相關(guān)工作一段時間,機(jī)器學(xué)習(xí)深度學(xué)習(xí)中都存在一些我們需要時刻關(guān)注并銘記的常見錯誤。如果對這些錯誤置之不理,日后可能會引發(fā)諸多麻煩!只要我們密切關(guān)注數(shù)據(jù)、模型架構(gòu)
    的頭像 發(fā)表于 01-07 15:37 ?368次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個常見錯誤與局限性

    穿孔機(jī)頂頭檢測儀 機(jī)器視覺深度學(xué)習(xí)

    LX01Z-DG626穿孔機(jī)頂頭檢測儀采用深度學(xué)習(xí)技術(shù),能夠?qū)崿F(xiàn)頂頭狀態(tài)的在線實(shí)時檢測,頂頭丟失報警,頂頭異常狀態(tài)報警等功能,響應(yīng)迅速,異常狀態(tài)視頻回溯,檢測頂頭溫度,配備吹掃清潔系統(tǒng),維護(hù)周期長
    發(fā)表于 12-22 14:33

    【團(tuán)購】獨(dú)家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實(shí)戰(zhàn)課(11大系列課程,共5000+分鐘)

    趨勢: 無監(jiān)督學(xué)習(xí)普及 當(dāng)前工業(yè)場景中80%的缺陷檢測項(xiàng)目面臨\"OK樣本充足而NG樣本稀缺\"的困境,傳統(tǒng)監(jiān)督學(xué)習(xí)方案難以落地。課程第11系列(無監(jiān)督缺陷檢測篇)提供無需標(biāo)注即可
    發(fā)表于 12-04 09:28

    【團(tuán)購】獨(dú)家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實(shí)戰(zhàn)課程(11大系列課程,共5000+分鐘)

    趨勢: 無監(jiān)督學(xué)習(xí)普及 當(dāng)前工業(yè)場景中80%的缺陷檢測項(xiàng)目面臨\"OK樣本充足而NG樣本稀缺\"的困境,傳統(tǒng)監(jiān)督學(xué)習(xí)方案難以落地。課程第11系列(無監(jiān)督缺陷檢測篇)提供無需標(biāo)注即可
    發(fā)表于 12-03 13:50

    從0到1,10+年資深LabVIEW專家,手把手教你攻克機(jī)器視覺+深度學(xué)習(xí)(5000分鐘實(shí)戰(zhàn)課)

    “告別檢測系統(tǒng)能力缺陷!10+年LabVIEW視覺資深專家手把手教你:5000+分鐘高清教程(含工具、算法原理、實(shí)戰(zhàn)操作、項(xiàng)目優(yōu)化全流程講解)”——從傳統(tǒng)視覺算法→深度學(xué)習(xí)建?!I(yè)級部署"
    的頭像 發(fā)表于 12-02 08:07 ?789次閱讀
    從0到1,10+年資深LabVIEW專家,手把手教你攻克機(jī)器視覺+<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>(5000分鐘實(shí)戰(zhàn)課)

    如何深度學(xué)習(xí)機(jī)器視覺的應(yīng)用場景

    深度學(xué)習(xí)視覺應(yīng)用場景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測:處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)化缺陷模式 非標(biāo)產(chǎn)品分類:對形狀、顏色、紋理多變的產(chǎn)品進(jìn)行智能分類 外觀質(zhì)量評估:基于學(xué)習(xí)的外觀質(zhì)量標(biāo)準(zhǔn)判定 精密
    的頭像 發(fā)表于 11-27 10:19 ?353次閱讀

    一條Pin針彎曲0.01mm,為何讓你賠了10萬?

    在消費(fèi)電子或汽車電子產(chǎn)線中,傳統(tǒng) 2D 視覺系統(tǒng)存在檢測盲區(qū),易導(dǎo)致連接器焊接不良等問題,陷入檢測困境,而單獨(dú)使用 3D 系統(tǒng)也有不足,上兩套成本等方面壓力大。維視智造 3DL 缺陷檢測系統(tǒng)采用
    的頭像 發(fā)表于 09-15 14:53 ?787次閱讀
    一條Pin針彎曲0.01mm,<b class='flag-5'>為何</b>讓你賠了10萬?

    如何在機(jī)器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測可定位已訓(xùn)練的目標(biāo)類別,并通過矩形框(邊界框)對其進(jìn)行標(biāo)識。 在討論人工智能(AI)或深度學(xué)習(xí)時,經(jīng)常會出現(xiàn)“神經(jīng)網(wǎng)絡(luò)”、“黑箱”、“標(biāo)注”等術(shù)語。這些概
    的頭像 發(fā)表于 09-10 17:38 ?1076次閱讀
    如何在機(jī)器視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    藍(lán)蜂藍(lán)牙模組:破解儀器儀表開發(fā)困境

    藍(lán)蜂藍(lán)牙模組:破解儀器儀表開發(fā)困境 在儀器儀表行業(yè),廠家們常常陷入各種開發(fā)困境。一方面,觸摸屏顯示精度差、操作不靈敏、畫面丑陋,影響產(chǎn)品形象和用戶體驗(yàn);另一方面,開發(fā)畫面顯示占用大量人力,導(dǎo)致產(chǎn)品
    的頭像 發(fā)表于 08-29 17:03 ?782次閱讀
    藍(lán)蜂藍(lán)牙模組:破解儀器儀表開發(fā)<b class='flag-5'>困境</b>

    深度學(xué)習(xí)對工業(yè)物聯(lián)網(wǎng)有哪些幫助

    、實(shí)施路徑三個維度展開分析: 一、深度學(xué)習(xí)如何突破工業(yè)物聯(lián)網(wǎng)的技術(shù)瓶頸? 1. 非結(jié)構(gòu)化數(shù)據(jù)處理:解鎖“沉睡數(shù)據(jù)”價值 傳統(tǒng)困境 :工業(yè)物聯(lián)網(wǎng)中70%以上的數(shù)據(jù)為非結(jié)構(gòu)化數(shù)據(jù)(如設(shè)備振動波形、紅外圖像、日志文本),傳統(tǒng)方法難以
    的頭像 發(fā)表于 08-20 14:56 ?1251次閱讀

    自動駕駛中Transformer大模型會取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號]近年來,隨著ChatGPT、Claude、文心一言等大語言模型在生成文本、對話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?4392次閱讀
    自動駕駛中Transformer大模型會取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    當(dāng)深度學(xué)習(xí)遇上嵌入式資源困境,特征空間如何破局?

    近年來,隨著人工智能(AI)技術(shù)的迅猛發(fā)展,深度學(xué)習(xí)(Deep Learning)成為最熱門的研究領(lǐng)域之一。在語音識別、圖像識別、自然語言處理等領(lǐng)域,深度學(xué)習(xí)取得了顯著成果。從原理上看
    發(fā)表于 07-14 14:50 ?1331次閱讀
    當(dāng)<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>遇上嵌入式資源<b class='flag-5'>困境</b>,特征空間如何破局?
    浦县| 四会市| 留坝县| 富平县| 普陀区| 乌鲁木齐市| 阜平县| 高青县| 柏乡县| 天等县| 芷江| 莒南县| 塔城市| 金华市| 汝南县| 宜宾县| 鸡东县| 祥云县| 元谋县| 郯城县| 伊川县| 会理县| 桐城市| 靖安县| 龙川县| 郴州市| 新绛县| 菏泽市| 会理县| 黎川县| 阳曲县| 神农架林区| 曲靖市| 旬邑县| 米脂县| 正定县| 蓬溪县| 固安县| 吉安县| 孝感市| 永兴县|