日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

圖神經(jīng)網(wǎng)絡(luò)在處理基于圖數(shù)據(jù)問(wèn)題方面取得了巨大的成功

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:深度學(xué)習(xí)自然語(yǔ)言處理 ? 作者:朱美琪 ? 2020-10-10 10:47 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1 引言 圖神經(jīng)網(wǎng)絡(luò)在處理基于圖數(shù)據(jù)問(wèn)題方面取得了巨大的成功,受到了廣泛的關(guān)注和應(yīng)用。GNNs通常是基于消息傳遞的方式設(shè)計(jì)的,本質(zhì)思想即迭代地聚合鄰居信息,而經(jīng)過(guò)次的迭代后, 層GNNs能夠捕獲節(jié)點(diǎn)的局部結(jié)構(gòu),學(xué)習(xí)來(lái)自跳鄰居的信息。因此更深層的GNN就能夠訪問(wèn)更多的鄰居信息,學(xué)習(xí)與建模遠(yuǎn)距離的節(jié)點(diǎn)關(guān)系,從而獲得更好的表達(dá)能力與性能。而在實(shí)際在做深層GNN操作時(shí),往往會(huì)面臨著兩類問(wèn)題:1. 隨著層數(shù)的增加,GNNs的性能會(huì)大幅下降;2. 隨著層數(shù)的增加,利用GNNs進(jìn)行訓(xùn)練與推斷時(shí)需要的計(jì)算量會(huì)指數(shù)上升。對(duì)于第一個(gè)問(wèn)題來(lái)說(shuō),現(xiàn)有的很多工作分析出深層GNNs性能下降的原因是受到了過(guò)平滑問(wèn)題的影響,并提出了緩解過(guò)平滑的解決方案;而對(duì)于第二個(gè)問(wèn)題來(lái)說(shuō),設(shè)計(jì)方案模擬深層GNNs的表現(xiàn)能力并減少GNNs的計(jì)算消耗也成了亟待解決的需求,比如用于實(shí)時(shí)系統(tǒng)的推斷。針對(duì)這兩個(gè)問(wèn)題,本文將分別介紹兩個(gè)在KDD 2020上的關(guān)于深度GNNs的最新工作。 第一個(gè)工作是Research Track的《Towards Deeper Graph Neural Networks》。該工作從另一個(gè)角度去解讀深度圖神經(jīng)網(wǎng)絡(luò)隨著層數(shù)增加性能下降的問(wèn)題,認(rèn)為影響性能下降的主要原因是Transformation和Propagation兩個(gè)過(guò)程的糾纏影響作用,并且基于分析結(jié)果設(shè)計(jì)了深度自適應(yīng)圖神經(jīng)網(wǎng)絡(luò)(Deep Adaptive Graph Neural Networks) 模型,能夠有效地緩解深層模型的性能快速下降問(wèn)題。 第二個(gè)工作是Research Track的《TinyGNN: Learning E?icient Graph Neural Networks》。該工作嘗試訓(xùn)練small GNN(淺層)去模擬Deep GNN(深層)的表達(dá)能力和表現(xiàn)效果,致力于應(yīng)用在實(shí)時(shí)系統(tǒng)推斷等對(duì)推斷速度有較高要求的場(chǎng)景。 2 Towards Deeper Graph Neural Networks 2.1 引言 1層的GCN只考慮了1跳鄰居的信息,而當(dāng)使用多層的圖卷積操作擴(kuò)大GCN的接受域之后,性能也會(huì)大幅下降。已有的一些工作[1,2]將這個(gè)性能大幅下降的原因歸根于圖神經(jīng)網(wǎng)絡(luò)的過(guò)平滑問(wèn)題(over-smoothing)。然而這篇文章保持一個(gè)不同的觀點(diǎn),并且從另一個(gè)角度去解讀深度圖神經(jīng)網(wǎng)絡(luò)性能下降的問(wèn)題。這篇文章認(rèn)為影響其性能快速下降的主要因素是表示變換(Transformation)和傳播(propagation)的糾纏作用,過(guò)平滑問(wèn)題只有在使用了非常大的接受域,也就是疊加非常多層的時(shí)候才會(huì)影響圖神經(jīng)網(wǎng)絡(luò)的表現(xiàn)效果。在進(jìn)行了理論和實(shí)驗(yàn)分析的基礎(chǔ)上,該文章提出了深度自適應(yīng)圖形神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)方案。代碼鏈接: https://github.com/mengliu1998/DeeperGNN 2.2實(shí)驗(yàn)與理論分析 2.2.1 圖卷積操作 通常圖卷積操作遵循一種鄰居聚合(或消息傳遞)的方式,通過(guò)傳播其鄰域的表示并在此之后進(jìn)行變化以學(xué)習(xí)節(jié)點(diǎn)表示。第層的操作一般可以描述為:

2.2.2 平滑度的定量度量 平滑度是反映節(jié)點(diǎn)表示相似程度的度量標(biāo)準(zhǔn)。通常兩個(gè)節(jié)點(diǎn)的歐氏距離值越小,兩個(gè)節(jié)點(diǎn)表示的相似性越高。本文作者提出了一種計(jì)算整張圖平滑度的指標(biāo):

它與圖中節(jié)點(diǎn)表示的整體平滑度呈負(fù)相關(guān),即越小,圖的平滑度越大。 2.2.3 深度GNN性能下降的原因 在評(píng)價(jià)指標(biāo)的基礎(chǔ)上,作者對(duì)GCN在cora數(shù)據(jù)集上進(jìn)行節(jié)點(diǎn)分類實(shí)驗(yàn)的準(zhǔn)確率、可視化以及指標(biāo)數(shù)值的變化情況進(jìn)行了統(tǒng)計(jì),結(jié)果如下:

并給出質(zhì)疑over-smoothing的兩點(diǎn)原因:(1) 過(guò)平滑問(wèn)題僅會(huì)發(fā)生在節(jié)點(diǎn)表示傳播很多層之后,而實(shí)驗(yàn)中cora的分類結(jié)果在10層之內(nèi)就大幅下降。(2)評(píng)價(jià)指標(biāo)的值與初始相比只有輕微下降,證明平滑程度只有一定的上升,而不足以導(dǎo)致過(guò)平滑。 而作者進(jìn)一步指出,是轉(zhuǎn)換(Transformation)和傳播(propagation)的糾纏作用嚴(yán)重?fù)p害了深度圖神經(jīng)網(wǎng)絡(luò)的性能。并且為了驗(yàn)證該假設(shè),作者將兩個(gè)過(guò)程分解出來(lái),設(shè)計(jì)了如下的一個(gè)簡(jiǎn)單模型:

并同樣給出在cora上的實(shí)驗(yàn)結(jié)果:

當(dāng)兩個(gè)過(guò)程分解后,50層內(nèi)的GCN準(zhǔn)確率基本能夠在80%左右,當(dāng)層數(shù)達(dá)到100+后才會(huì)陸續(xù)下降,對(duì)應(yīng)的值也在300層以后變得很低,說(shuō)明此時(shí)網(wǎng)絡(luò)受到過(guò)平滑的影響。以上兩個(gè)實(shí)驗(yàn)說(shuō)明了在GNN受過(guò)平滑影響之前,轉(zhuǎn)換(Transformation)和傳播(propagation)的糾纏作用確實(shí)會(huì)損害深度圖神經(jīng)網(wǎng)絡(luò)的性能,導(dǎo)致性能大幅下降。也證實(shí)了解耦轉(zhuǎn)換和傳播可以幫助構(gòu)建更深層次的模型,從而利用更大的可接受域來(lái)學(xué)習(xí)更多的信息。 2.2.4 理論證明 經(jīng)過(guò)變換與傳播的解耦,作者的理論分析可以更嚴(yán)格且溫和地描述過(guò)平滑問(wèn)題。在本節(jié)中,作者嚴(yán)格描述兩種典型傳播機(jī)制的過(guò)度平滑問(wèn)題,并推導(dǎo)出當(dāng)層數(shù)趨近于無(wú)窮時(shí),兩種(, 的收斂情況。并證明該種傳播模式是線性不可分的,利用它們作為傳播機(jī)制將產(chǎn)生難以區(qū)分表征,從而導(dǎo)致over-smoothing問(wèn)題。 2.3 模型

主要思想是將節(jié)點(diǎn)表示的變換與傳播過(guò)程解耦,并同時(shí)進(jìn)行至層傳播,最后利用學(xué)得的融合權(quán)重向量做一個(gè)自適應(yīng)調(diào)整融合。 2.4 實(shí)驗(yàn)

實(shí)驗(yàn)數(shù)據(jù)集

節(jié)點(diǎn)分類實(shí)驗(yàn)結(jié)果

cora數(shù)據(jù)集上不同訓(xùn)練集比例的分類準(zhǔn)確率 值得分析的有以下兩點(diǎn): (1)為什么低label rate的DAGNN表現(xiàn)要好?這些比較可觀的改進(jìn)主要?dú)w功于DAGNN的優(yōu)勢(shì): 通過(guò)消除表示轉(zhuǎn)換和傳播的糾纏,同時(shí)擴(kuò)展接受域的范圍,使得利用信息更豐富。 (2)和APPNP SGC的區(qū)別是什么?APPNP和SGC實(shí)際上都解耦了轉(zhuǎn)換和傳播,并且APPNP也擴(kuò)展了k階接受域。DAGNN比APPNP好,是因?yàn)樵O(shè)計(jì)了自適應(yīng)調(diào)整每個(gè)節(jié)點(diǎn)來(lái)自不同接收域的信息權(quán)重。

DAGNN在不同數(shù)據(jù)集上隨層數(shù)變化的表現(xiàn) 3 TinyGNN: Learning E?icient Graph Neural Networks 3.1 引言 經(jīng)過(guò)k次迭代后,k層GNN可以捕獲來(lái)自k-hop節(jié)點(diǎn)結(jié)構(gòu)信息。通過(guò)這種方式,一個(gè)更深層的GNN就有獲取更多鄰居信息的能力,從而取得更好的性能。舉例來(lái)說(shuō),下圖隨著GAT層數(shù)的增加,兩個(gè)數(shù)據(jù)集的分類準(zhǔn)確率都有大幅提升。

而相對(duì)應(yīng)的,當(dāng)GNN進(jìn)一步擴(kuò)展層數(shù)時(shí),鄰域的指數(shù)擴(kuò)增會(huì)導(dǎo)致GNNs模型需要大量的訓(xùn)練和推理計(jì)算消耗。這使得許多應(yīng)用程序(如實(shí)時(shí)系統(tǒng))無(wú)法使用更深層的GNN作為解決方案。舉例來(lái)說(shuō),同樣的兩個(gè)數(shù)據(jù),4層GAT的計(jì)算時(shí)間以指數(shù)級(jí)增長(zhǎng),導(dǎo)致計(jì)算消耗十分巨大。

因此這里就存在著一個(gè)困境,即采用深層的GNN就越容易取得高性能,但是從效率的角度又往往傾向于開發(fā)一個(gè)小而推斷迅速的GNN。但是較小的GNN與較深的GNN之間存在較大的鄰域信息差距,這也是需要考慮的。因此這篇文章旨在訓(xùn)練一個(gè)較小的GNN,既能很好地刻畫了局部結(jié)構(gòu)信息,與較深的GNN相比可以獲得相似性能,同時(shí)也能夠進(jìn)行快速的推斷??偨Y(jié)來(lái)說(shuō),貢獻(xiàn)如下: (1)提出了一種小型、高效的TinyGNN,能夠在短時(shí)間內(nèi)實(shí)現(xiàn)推斷出高性能的節(jié)點(diǎn)表示。 (2)利用對(duì)等感知模塊(PAM)和鄰居蒸餾策略(NDS),以顯式和隱式兩種方式對(duì)局部結(jié)構(gòu)建模,并解決小GNN和較深GNN之間的鄰居信息差距。 (3)大量的實(shí)驗(yàn)結(jié)果表明,TinyGNN可以實(shí)現(xiàn)與更深層次的GNN相似甚至更好的性能,并且在實(shí)驗(yàn)數(shù)據(jù)集上,推理過(guò)程能夠有7.73到126.59倍的提速。 3.2 模型 3.2.1 對(duì)等感知模塊 對(duì)等節(jié)點(diǎn)(peer nodes)指的是同一層GNN從同一個(gè)點(diǎn)源點(diǎn)采樣出的所有鄰居集合,在下圖(b)用相同的顏色表示。對(duì)等節(jié)點(diǎn)之間沒(méi)有通信,所有對(duì)等節(jié)點(diǎn)都能夠通過(guò)上層節(jié)點(diǎn)在兩跳內(nèi)相連。大量的對(duì)等節(jié)點(diǎn)是鄰居,來(lái)自底層的鄰居信息可以被對(duì)等節(jié)點(diǎn)直接配置。

PAM建模對(duì)等節(jié)點(diǎn)的方式如下,以兩個(gè)節(jié)點(diǎn)隱層表示的相似度作為融合權(quán)重。PAM能夠幫助探索同一層中的節(jié)點(diǎn)之間的新關(guān)系,并幫助建模較小的GNN從而避免由較低層的鄰居迭代聚集而導(dǎo)致的大量計(jì)算。

PAM可以被用于任何圖網(wǎng)絡(luò)結(jié)構(gòu)中,作為一個(gè)基礎(chǔ)的模塊,1層GNN+1層PAM的計(jì)算量要小于兩層GNN。 3.2.2 鄰居蒸餾策略 作者利用知識(shí)蒸餾設(shè)計(jì)了鄰居信息蒸餾方案,teacher GNN是深層模型,能夠建模更廣泛的鄰域。而student GNN采用淺層模型,能夠有更快的推斷速度。并且利用teacher GNN 教student GNN隱式地捕捉全局深層結(jié)構(gòu)信息,使得student GNN有深層GNN的表現(xiàn)效果。

teacher GNN的損失函數(shù):

student GNN的損失函數(shù),同時(shí)利用來(lái)自teacher網(wǎng)絡(luò)的軟標(biāo)簽和真實(shí)標(biāo)簽進(jìn)行學(xué)習(xí),T表示蒸餾溫度。

3.3 實(shí)驗(yàn)

實(shí)驗(yàn)數(shù)據(jù)集

節(jié)點(diǎn)分類實(shí)驗(yàn)結(jié)果

速度提升情況

責(zé)任編輯:lq
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4844

    瀏覽量

    108212
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1240

    瀏覽量

    26264
  • GNN
    GNN
    +關(guān)注

    關(guān)注

    1

    文章

    31

    瀏覽量

    6819

原文標(biāo)題:【KDD20】深度圖神經(jīng)網(wǎng)絡(luò)專題

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    神經(jīng)網(wǎng)絡(luò)的初步認(rèn)識(shí)

    日常生活中的智能應(yīng)用都離不開深度學(xué)習(xí),而深度學(xué)習(xí)則依賴于神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)。什么是神經(jīng)網(wǎng)絡(luò)?神經(jīng)網(wǎng)絡(luò)的核心思想是模仿生物神經(jīng)系統(tǒng)的結(jié)構(gòu),特別是大腦中神經(jīng)
    的頭像 發(fā)表于 12-17 15:05 ?492次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的初步認(rèn)識(shí)

    自動(dòng)駕駛中常提的卷積神經(jīng)網(wǎng)絡(luò)是個(gè)啥?

    自動(dòng)駕駛領(lǐng)域,經(jīng)常會(huì)聽(tīng)到卷積神經(jīng)網(wǎng)絡(luò)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò),簡(jiǎn)稱為CNN,是一種專門用來(lái)處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度學(xué)習(xí)模型。CNN
    的頭像 發(fā)表于 11-19 18:15 ?2279次閱讀
    自動(dòng)駕駛中常提的卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>是個(gè)啥?

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)原理及MCU200T上仿真測(cè)試

    數(shù)的提出很大程度的解決了BP算法優(yōu)化深層神經(jīng)網(wǎng)絡(luò)時(shí)的梯度耗散問(wèn)題。當(dāng)x&gt;0 時(shí),梯度恒為1,無(wú)梯度耗散問(wèn)題,收斂快;當(dāng)x&lt;0 時(shí),該層的輸出為0。 CNN
    發(fā)表于 10-29 07:49

    NMSIS神經(jīng)網(wǎng)絡(luò)庫(kù)使用介紹

    NMSIS NN 軟件庫(kù)是一組高效的神經(jīng)網(wǎng)絡(luò)內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡(luò)的性能并最??大限度地減少其內(nèi)存占用。 該庫(kù)分為多個(gè)功能,每個(gè)功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議

    整個(gè)模型非常巨大。所以要想實(shí)現(xiàn)輕量級(jí)的CNN神經(jīng)網(wǎng)絡(luò)模型,首先應(yīng)該避免嘗試單層神經(jīng)網(wǎng)絡(luò)。 2)減少卷積核的大?。篊NN神經(jīng)網(wǎng)絡(luò)是通過(guò)權(quán)值共享的方式,利用卷積運(yùn)算從圖像中提取線性紋理。
    發(fā)表于 10-28 08:02

    如何通過(guò)地址生成器實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)特征的padding?

    對(duì)于SiamFC網(wǎng)絡(luò)結(jié)構(gòu),我們?cè)O(shè)計(jì)的卷積核寬度為3*3,卷積步長(zhǎng)為1,則經(jīng)卷積過(guò)后,特征寬度會(huì)減少2,為了滿足我們所設(shè)計(jì)的pe陣列的計(jì)算要求,則需要對(duì)輸出特征外圍進(jìn)行補(bǔ)零處理,以擴(kuò)
    發(fā)表于 10-22 08:15

    Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    本帖欲分享Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)。我們采用jupyter notebook作為開發(fā)IDE,以TensorFlow2為訓(xùn)練框架,目標(biāo)是訓(xùn)練一個(gè)手寫數(shù)字識(shí)別的神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    完成神經(jīng)網(wǎng)絡(luò)量化后,需要將神經(jīng)網(wǎng)絡(luò)部署到硬件加速器上。首先需要將所有權(quán)重數(shù)據(jù)以及輸入數(shù)據(jù)導(dǎo)入到存儲(chǔ)器內(nèi)。
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    神經(jīng)元,但卻能產(chǎn)生復(fù)雜的行為。受此啟發(fā),與傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)相比,LNN旨在通過(guò)模擬大腦中神經(jīng)元之間的動(dòng)態(tài)連接來(lái)處理信息,這種網(wǎng)絡(luò)能夠順序
    的頭像 發(fā)表于 09-28 10:03 ?1605次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時(shí)間連續(xù)性與動(dòng)態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    神經(jīng)網(wǎng)絡(luò)的并行計(jì)算與加速技術(shù)

    問(wèn)題。因此,并行計(jì)算與加速技術(shù)神經(jīng)網(wǎng)絡(luò)研究和應(yīng)用中變得至關(guān)重要,它們能夠顯著提升神經(jīng)網(wǎng)絡(luò)的性能和效率,滿足實(shí)際應(yīng)用中對(duì)快速響應(yīng)和大規(guī)模數(shù)據(jù)處理的需求。
    的頭像 發(fā)表于 09-17 13:31 ?1338次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的并行計(jì)算與加速技術(shù)

    基于神經(jīng)網(wǎng)絡(luò)的數(shù)字預(yù)失真模型解決方案

    基于神經(jīng)網(wǎng)絡(luò)的數(shù)字預(yù)失真(DPD)模型中,使用不同的激活函數(shù)對(duì)整個(gè)系統(tǒng)性能和能效有何影響?
    的頭像 發(fā)表于 08-29 14:01 ?3701次閱讀

    無(wú)刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測(cè)方法的研究

    MATLAB/SIMULINK工具對(duì)該方法進(jìn)行驗(yàn)證,實(shí)驗(yàn)結(jié)果表明該方法全程速度下效果良好。 純分享帖,點(diǎn)擊下方附件免費(fèi)獲取完整資料~~~ *附件:無(wú)刷電機(jī)小波神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)子位置檢測(cè)方法的研究.pdf
    發(fā)表于 06-25 13:06

    神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)電機(jī)故障診斷中的應(yīng)用

    的診斷誤差。仿真結(jié)果驗(yàn)證了該算法的有效性。 純分享帖,需要者可點(diǎn)擊附件免費(fèi)獲取完整資料~~~*附件:神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)電機(jī)故障診斷中的應(yīng)用.pdf【免責(zé)聲明】本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版
    發(fā)表于 06-16 22:09

    神經(jīng)網(wǎng)絡(luò)RAS異步電機(jī)轉(zhuǎn)速估計(jì)中的仿真研究

    ,在一定程度上擴(kuò)展了轉(zhuǎn)速估計(jì)范圍。 純分享帖,需要者可點(diǎn)擊附件免費(fèi)獲取完整資料~~~*附件:神經(jīng)網(wǎng)絡(luò)RAS異步電機(jī)轉(zhuǎn)速估計(jì)中的仿真研究.pdf【免責(zé)聲明】本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權(quán)
    發(fā)表于 06-16 21:54

    基于FPGA搭建神經(jīng)網(wǎng)絡(luò)的步驟解析

    本文的目的是一個(gè)神經(jīng)網(wǎng)絡(luò)已經(jīng)通過(guò)python或者M(jìn)ATLAB訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型,將訓(xùn)練好的模型的權(quán)重和偏置文件以TXT文件格式導(dǎo)出,然后通過(guò)python程序?qū)xt文件轉(zhuǎn)化為coe文件,(coe
    的頭像 發(fā)表于 06-03 15:51 ?1548次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的步驟解析
    同德县| 昔阳县| 舞阳县| 磴口县| 怀化市| 习水县| 蒙自县| 九寨沟县| 黑山县| 阿勒泰市| 阿荣旗| 河池市| 绥阳县| 洛南县| 孝昌县| 会理县| 突泉县| 于都县| 泰宁县| 绥化市| 洪雅县| 灵台县| 海南省| 益阳市| 兴国县| 南开区| 沙雅县| 丽水市| 株洲县| 磴口县| 翁源县| 屯门区| 韩城市| 宣城市| 睢宁县| 吉安市| 长子县| 根河市| 新化县| 泾源县| 定西市|