日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

自壓縮神經(jīng)網(wǎng)絡

穎脈Imgtec ? 2022-11-02 17:16 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

過去十年,人工智能研究主要集中在探索深度神經(jīng)網(wǎng)絡的潛力。我們近年來看到的進步至少可以部分歸因于網(wǎng)絡規(guī)模的不斷擴大。從使用GPT-3 [1] 的文本生成到使用 Imagen [2] 的圖像生成,研究人員付出了相當大的努力來創(chuàng)建更大、更復雜的架構,以實現(xiàn)越來越令人印象深刻的壯舉。此外,現(xiàn)代神經(jīng)網(wǎng)絡的成功使其在各種應用中部署。就在我寫這篇文章的時候,一個神經(jīng)網(wǎng)絡正在施圖預測我即將寫的下一個單詞,盡管它不夠準確,不能很快取代我!

另一方面,性能優(yōu)化在該領域受到的關注相對較少,這是神經(jīng)網(wǎng)絡更廣泛部署的一個重大障礙。造成這種情況的一個可能原因是能夠同時在數(shù)千個GPU 或其他硬件上的數(shù)據(jù)中心中訓練大型神經(jīng)網(wǎng)絡。這與計算機圖形領域形成鮮明對比,例如,必須在單臺計算機上實時運行的限制產(chǎn)生了在不犧牲質量的情況下優(yōu)化算法的強大動力。

神經(jīng)網(wǎng)絡容量的研究表明,發(fā)現(xiàn)高精度解決方案所需的網(wǎng)絡容量大于表示這些解決方案所需的容量。Frankle和Carbin [3]在他們的論文《彩票假設:尋找稀疏、可訓練的神經(jīng)網(wǎng)絡》 [3] 中發(fā)現(xiàn),只需要網(wǎng)絡中權重的一小部分即可代表一個好的解決方案,但直接訓練容量減少的網(wǎng)絡并不能達到相樣的精度。同樣,Hinton等人。[4] 發(fā)現(xiàn),將“知識”從高精度網(wǎng)絡轉移到低容量網(wǎng)絡可以產(chǎn)生比使用、相同損失函數(shù)的高容量網(wǎng)絡更高精度的網(wǎng)絡。

在本篇博文中,我們查找是否可以在訓練時動態(tài)減少網(wǎng)絡參數(shù)。雖然這樣做具有挑戰(zhàn)性,但由于實現(xiàn)的復雜性( PyTorch不是為處理動態(tài)網(wǎng)絡架構而設計的,例如,在訓練期間移除整個通道),

我們希望實現(xiàn)以下優(yōu)點。

減少最終網(wǎng)絡中的權重數(shù)量。

減少剩余權重的位寬。

減少最終網(wǎng)絡的運行時間。

減少訓練時間。

降低設計網(wǎng)絡架構時選擇層寬度的復雜性。

  • 不需要特殊的硬件來優(yōu)化(例如,不需要稀疏矩陣乘法)。

在這項工作中,我們通過引入一種新穎的量化感知訓練(QAT)方案來實現(xiàn)這些目標,該方案平衡了最大化網(wǎng)絡精度和最小化網(wǎng)絡規(guī)模的要求。我們同時最大限度地提高精度并最大限度地減少權重位深度,從而消除不太重要或不必要的通道,從而以現(xiàn)有硬件可以輕松利用的方式降低計算和帶寬需求。


可微量化這是通過可微量化實現(xiàn)的,正如我在之前的文章[5]中介紹的那樣。簡而言之,可微量化允許您同時學習數(shù)字格式的參數(shù)和權重。這允許以與網(wǎng)絡中的權重完全相同的方式學習量化,并啟用諸如自壓縮網(wǎng)絡之類的新技術——本文的主題。量化函數(shù)量化為可變比特率有符號定點格式:

0097cc6a-57a9-11ed-b116-dac502259ad0.png

這可以描述為以下步驟順序:

  1. 使用指數(shù)縮放輸入值:00a99fc6-57a9-11ed-b116-dac502259ad0.png
  2. 使用位深度鉗位值:00b1525c-57a9-11ed-b116-dac502259ad0.png
  3. 四舍五入到最接近的整數(shù):00c129d4-57a9-11ed-b116-dac502259ad0.png

反轉步驟 1 中引入的縮放:00c6abc0-57a9-11ed-b116-dac502259ad0.png

其中 b 是位深度,e 是指數(shù),x 是被量化的值(或一組值) 。為了確保連續(xù)可微性,我們在訓練期間使用實值位深度參數(shù)。

上述函數(shù)使用舍入運算。通過它傳播可用梯度的常用方法是將四舍五入操作的梯度定義為1 而不是 0。這類似于“直通估計器” [6] 。要了解其工作原理,請考慮下圖:

00d7637a-57a9-11ed-b116-dac502259ad0.png

當我們從函數(shù)中“縮小”時,您可以看到它是如何實現(xiàn)的;舍入函數(shù)似乎接近y=x 線。我們將取整函數(shù)的后向傳遞(梯度)替換為函數(shù) y=x 的梯度,即常數(shù)1。


可微量化進行自壓縮

在這項工作中,我們使用可微量化(1)來減少訓練期間網(wǎng)絡參數(shù)的位寬(即壓縮),以及(2)發(fā)現(xiàn)哪些參數(shù)可以用 0 位表示。當神經(jīng)網(wǎng)絡中的參數(shù)可以用 0 位表示而不影響網(wǎng)絡的精度時,就沒必要使用該參數(shù)。當發(fā)現(xiàn)權重張量中的通道可以用0 位表示時,在訓練期間將其從網(wǎng)絡中刪除。這樣做的一個附加好處是訓練會隨著時間的推移而加速(見圖2)。

該過程可以描述如下:

  1. 將網(wǎng)絡的參數(shù)拆分為通道。
  2. 用位寬和指數(shù)的單個量化參數(shù)對每個通道進行量化。
  3. 為原始任務訓練網(wǎng)絡,同時最小化所有位寬參數(shù)。

當位寬參數(shù)達到 0 時,從網(wǎng)絡中移除該參數(shù)編碼的網(wǎng)絡權重通道。由于消除了整個輸出通道,這減少了相應卷積的大小以及消耗輸出張量的任何后續(xù)操作,而不會更改網(wǎng)絡輸出。

通過在訓練期間從網(wǎng)絡中移除空(即0 位)通道,我們可以顯著加速訓練而不改變訓練結果:訓練結果與我們在最后只移除空通道時得到的網(wǎng)絡相同。

盡管本文中描述的方法學習壓縮和消除通道,但它可以推廣到其他硬件可利用的學習稀疏模式。


網(wǎng)絡架構

選擇的網(wǎng)絡架構是David Page 的CIFAR-10[7]的DAWNbench條目,這是一個可以快速訓練的淺ResNet 。

使用快速訓練網(wǎng)絡有幾個優(yōu)點,包括:

  • 使算法設計迭代更快,
  • 縮短調(diào)試周期,
  • 使在合理的時間內(nèi)在單個 GPU 上執(zhí)行實驗變得容易,

幫助重現(xiàn)這項工作的結果。

該網(wǎng)絡由兩種主要類型的塊組成:卷積塊(卷積→批量歸一化→激活→池化)和殘差塊(殘差分支由兩個卷積塊組成)。

以下部分描述了如何對這些模塊應用可微量化以使其可壓縮。


優(yōu)化目標

這項工作的目標是減少神經(jīng)網(wǎng)絡的推理和訓練時間。為了實現(xiàn)這一點,應該在損失函數(shù)中體現(xiàn)推理時間,以便將其最小化,從而產(chǎn)生更快的網(wǎng)絡。在這種情況下使用的指標是網(wǎng)絡規(guī)模,定義為用于表示網(wǎng)絡中權重的總位數(shù)。作為網(wǎng)絡性能的體現(xiàn),計算層輸出所需的激活張量大小或操作數(shù)也可以最小化。單個權重張量的大小可以用四個張量維度的乘積表示:輸出通道、輸入通道、濾波器高度和濾波器寬度(0、I、H、W)。由于我們使用一個單獨的數(shù)字格式量化每個輸出通道,并為層提供一個可學習的位數(shù),因此用于表示張量的總位數(shù)由下式給出:

00e0f2e6-57a9-11ed-b116-dac502259ad0.png

00fb38d6-57a9-11ed-b116-dac502259ad0.png 為 0 時,ith通道變得不必要,減少了權重張量中的輸出通道總數(shù),以及下一個卷積的權重張量中相應的輸入通道數(shù)。因此最小化通過 01014ee2-57a9-11ed-b116-dac502259ad0.png 最小化輸出通道的數(shù)量,可以最小化權重張量中的元素數(shù)量。這有效地最小化了權重張量的輸出維度。認識到一層的輸入通道數(shù)等于前一層的輸出通道數(shù),可以使壓縮損失更好地反映網(wǎng)絡的大小。這樣一個權重張量的輸入維度也可以最小化:

0111c808-57a9-11ed-b116-dac502259ad0.png

一旦通道可以被壓縮到0 位,它就可能在訓練期間被刪除。然而,需要克服的實際問題是,從卷積層中移除一個輸出通道并不一定意味著可以從下一層的輸入中安全地移除相應的輸入通道,因為可以將偏差添加到層的輸出0中,在這種情況下刪除它可能會顯著改變網(wǎng)絡的輸出。為了處理這個問題,識別達到 0 位的加權通道(過濾器),并對其輸出應用L1 損耗,以將其推至 0 位。只有當偏差減少到0 時,這些過濾器才會被移除,因為此時移除這樣的通道不會改變網(wǎng)絡的輸出。

整個網(wǎng)絡的大小是所有層大小的總和:

01175db8-57a9-11ed-b116-dac502259ad0.png

為了平衡網(wǎng)絡的準確性和規(guī)模,我們簡單地使用兩項的線性組合:

012ba840-57a9-11ed-b116-dac502259ad0.png

其中L0是網(wǎng)絡的原始損失,0131dc9c-57a9-11ed-b116-dac502259ad0.png 是壓縮因子。較大的 0131dc9c-57a9-11ed-b116-dac502259ad0.png 會生成較小但不太準確的網(wǎng)絡。


處理分支

壓縮網(wǎng)絡時出現(xiàn)的另一個問題是網(wǎng)絡分支的處理,例如,在殘差塊中。解決這個問題最簡單的方法是分別考慮這兩個分支。


更新優(yōu)化器

實現(xiàn)細節(jié)涉及使優(yōu)化器隨著網(wǎng)絡的變化而更新的問題。優(yōu)化器跟蹤網(wǎng)絡中每個參數(shù)的信息(元參數(shù)),當網(wǎng)絡參數(shù)被動態(tài)刪除時,相應的元參數(shù)也必須從優(yōu)化器中刪除。


結果

自壓縮網(wǎng)絡允許在規(guī)模和精度之間進行權衡,可以在規(guī)模準確度圖中可視化(參見圖1)。該圖中的每個點都表示一個神經(jīng)網(wǎng)絡的大小和精度,該神經(jīng)網(wǎng)絡經(jīng)過隨機壓縮率,從覆蓋范圍的對數(shù)均勻分布中采樣 014c8376-57a9-11ed-b116-dac502259ad0.png 。圖1 顯示了在使用隨機壓縮率訓練網(wǎng)絡時,用于表示網(wǎng)絡權重的位數(shù)與32 位每權重基線(對應于 32 位浮點)之間的關系。這是通過保留權重的百分比乘以剩余權重的平均位寬來計算的。網(wǎng)絡的基線精度(未壓縮精度)為95.69 ± 0.22。

015b57a2-57a9-11ed-b116-dac502259ad0.png

圖 1:當使用隨機壓縮率訓練網(wǎng)絡時,用于表示網(wǎng)絡權重的位數(shù)與32位/權重基線之間的關系。

圖 2 僅顯示了網(wǎng)絡中使用的權重數(shù)量的減少。在不影響精度的情況下,可以移除大約 75% 的權重。

016b97e8-57a9-11ed-b116-dac502259ad0.png

圖 2 顯示了使用隨機壓縮率訓練網(wǎng)絡時,網(wǎng)絡中保留的權重百分比與精度之間的關系。

圖 3 顯示了通過在訓練期間移除權重對訓練時間的影響。一個世代的訓練時間不僅取決于網(wǎng)絡的大小,還取決于系統(tǒng)的其他部分,例如輸入數(shù)據(jù)通道。為了確定基線訓練開銷,對于同一網(wǎng)絡進行訓練,每個層僅使用一個通道。每個訓練世代大約需要7.5 秒。

018f3540-57a9-11ed-b116-dac502259ad0.png圖 3:隨著參數(shù)從網(wǎng)絡中移除,神經(jīng)網(wǎng)絡訓練時間加快。訓練結束時移除了 86% 的權重。圖 4 顯示了 01ba2746-57a9-11ed-b116-dac502259ad0.png 時使用壓縮率訓練的網(wǎng)絡架構。訓練將移除除殘差層中的快捷分支。其余九個通道在訓練結束時已經(jīng)達到 0 位,并且正在消除它們的偏差。預計它們會隨著更長的訓練而消失。第二個殘差層中的快捷分支與它相關的損失非常低(由于它對網(wǎng)絡規(guī)模的貢獻最?。虼怂臏p少速度太慢,無法在訓練結束時消失。01c920c0-57a9-11ed-b116-dac502259ad0.png01d0a638-57a9-11ed-b116-dac502259ad0.png圖 4:訓練前后的層大小和每層平均位寬的示例。這里刪除了 86% 的權重和 97.6% 的位。每個方塊代表一個卷積。方塊中的值表示卷積的輸出或輸入(“in”)通道的總數(shù),其中需要此類信息(在分支處)。

圖 5 顯示了整個訓練過程中的網(wǎng)絡規(guī)格。它在早期迅速收縮,然后逐漸減少。

01e30346-57a9-11ed-b116-dac502259ad0.png

圖 5:網(wǎng)絡規(guī)模在訓練早期快速縮小,之后逐漸減小。


優(yōu)化您的網(wǎng)絡

在本篇博文中,我們分享了一個通用框架,用于優(yōu)化神經(jīng)網(wǎng)絡的典型固定特征——通道數(shù)和位寬——以使網(wǎng)絡在訓練過程中學會自我壓縮。這樣做的主要優(yōu)點是更快的執(zhí)行時間和更快的生成網(wǎng)絡訓練。以前的許多工作都集中在通過創(chuàng)建稀疏層來減少網(wǎng)絡規(guī)模,這需要軟件和/或硬件的特殊支持才能更有效地運行。簡單地減少層的寬度不需要專門支持。通過減少 DRAM 帶寬,支持可變位寬可以提高多種架構的性能。

參考

[1] T. B. Brown and al, “Language Models are Few-Shot Learners,” 2020.

[2] C. Saharia and al, “Photorealistic Text-to-Image Diffusion Models with Deep Language Understanding,” 2022.

[3] J. Frankle and M. Carbin, “The Lottery Ticket Hypothesis: Finding Sparse, Trainable Neural Networks,” 2018.

[4] G. Hinton, O. Vinyals and J. Dean, “Distilling the Knowledge in a Neural Network,” 2015.

[5] Cséfalvay, S, “High-Fidelity Conversion of Floating-Point Networks for Low-Precision Inference using Distillation,” 25 May 2021. [Online]. Available: https://blog.imaginationtech.com/low-precision-inference-using-distillation/.

[6] G. Hinton, “Lecture 9.3 — Using noise as a regularizer [Neural Networks for Machine Learning],” 2012. [Online]. Available: https://www.youtube.com/watch?v=LN0xtUuJsEI&list=PLoRl3Ht4JOcdU872GhiYWf6jwrk_SNhz9.

[7] Page, D, “How to Train Your ResNet 8: Bag of Tricks,” 19 Aug 2019. [Online]. Available: https://myrtle.ai/how-to-train-your-resnet-8-bag-of-tricks/.


本文作者:Szabolcs Cséfalvay

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關注

    關注

    1821

    文章

    50370

    瀏覽量

    267081
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    為什么 VisionFive V1 板上的 JH7100 中并存 NVDLA 引擎和神經(jīng)網(wǎng)絡引擎?

    我想知道為什么 VisionFive V1 板上的 JH7100 中并存 NVDLA 引擎和神經(jīng)網(wǎng)絡引擎,請問?您能否舉一些關于他們的用例的例子?
    發(fā)表于 03-25 06:01

    面向嵌入式部署的神經(jīng)網(wǎng)絡優(yōu)化:模型壓縮深度解析

    1.為什么需要神經(jīng)網(wǎng)絡模型壓縮? 神經(jīng)網(wǎng)絡已經(jīng)成為解決復雜機器學習問題的強大工具。然而,這種能力往往伴隨著模型規(guī)模和計算復雜度的增加。當輸入維度較大(例如長時序窗口、高分辨率特征空間)時,模型需要
    的頭像 發(fā)表于 02-24 15:37 ?5501次閱讀
    面向嵌入式部署的<b class='flag-5'>神經(jīng)網(wǎng)絡</b>優(yōu)化:模型<b class='flag-5'>壓縮</b>深度解析

    神經(jīng)網(wǎng)絡的初步認識

    日常生活中的智能應用都離不開深度學習,而深度學習則依賴于神經(jīng)網(wǎng)絡的實現(xiàn)。什么是神經(jīng)網(wǎng)絡?神經(jīng)網(wǎng)絡的核心思想是模仿生物神經(jīng)系統(tǒng)的結構,特別是大腦中神經(jīng)
    的頭像 發(fā)表于 12-17 15:05 ?490次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡</b>的初步認識

    自動駕駛中常提的卷積神經(jīng)網(wǎng)絡是個啥?

    在自動駕駛領域,經(jīng)常會聽到卷積神經(jīng)網(wǎng)絡技術。卷積神經(jīng)網(wǎng)絡,簡稱為CNN,是一種專門用來處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度學習模型。CNN在圖像處理中尤其常見,因為圖像本身就可以看作是由像素排列成的二維網(wǎng)格。
    的頭像 發(fā)表于 11-19 18:15 ?2279次閱讀
    自動駕駛中常提的卷積<b class='flag-5'>神經(jīng)網(wǎng)絡</b>是個啥?

    NMSIS神經(jīng)網(wǎng)絡庫使用介紹

    NMSIS NN 軟件庫是一組高效的神經(jīng)網(wǎng)絡內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡的性能并最??大限度地減少其內(nèi)存占用。 該庫分為多個功能,每個功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    在Ubuntu20.04系統(tǒng)中訓練神經(jīng)網(wǎng)絡模型的一些經(jīng)驗

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓練神經(jīng)網(wǎng)絡模型的一些經(jīng)驗。我們采用jupyter notebook作為開發(fā)IDE,以TensorFlow2為訓練框架,目標是訓練一個手寫數(shù)字識別的神經(jīng)網(wǎng)絡
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡部署相關操作

    在完成神經(jīng)網(wǎng)絡量化后,需要將神經(jīng)網(wǎng)絡部署到硬件加速器上。首先需要將所有權重數(shù)據(jù)以及輸入數(shù)據(jù)導入到存儲器內(nèi)。 在仿真環(huán)境下,可將其存于一個文件,并在 Verilog 代碼中通過 readmemh 函數(shù)
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(LNN):時間連續(xù)性與動態(tài)適應性的神經(jīng)網(wǎng)絡

    1.算法簡介液態(tài)神經(jīng)網(wǎng)絡(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡架構,其設計理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲的神經(jīng)結構,盡管這種微生物的
    的頭像 發(fā)表于 09-28 10:03 ?1602次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡</b>(LNN):時間連續(xù)性與動態(tài)適應性的<b class='flag-5'>神經(jīng)網(wǎng)絡</b>

    神經(jīng)網(wǎng)絡的并行計算與加速技術

    隨著人工智能技術的飛速發(fā)展,神經(jīng)網(wǎng)絡在眾多領域展現(xiàn)出了巨大的潛力和廣泛的應用前景。然而,神經(jīng)網(wǎng)絡模型的復雜度和規(guī)模也在不斷增加,這使得傳統(tǒng)的串行計算方式面臨著巨大的挑戰(zhàn),如計算速度慢、訓練時間長等
    的頭像 發(fā)表于 09-17 13:31 ?1334次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡</b>的并行計算與加速技術

    基于神經(jīng)網(wǎng)絡的數(shù)字預失真模型解決方案

    在基于神經(jīng)網(wǎng)絡的數(shù)字預失真(DPD)模型中,使用不同的激活函數(shù)對整個系統(tǒng)性能和能效有何影響?
    的頭像 發(fā)表于 08-29 14:01 ?3698次閱讀

    利用自壓縮實現(xiàn)大型語言模型高效縮減

    隨著語言模型規(guī)模日益龐大,設備端推理變得越來越緩慢且耗能巨大。一個直接且效果出人意料的解決方案是剪除那些對任務貢獻甚微的完整通道(channel)。我們早期的研究提出了一種訓練階段的方法——自壓縮
    的頭像 發(fā)表于 07-28 09:36 ?683次閱讀
    利用<b class='flag-5'>自壓縮</b>實現(xiàn)大型語言模型高效縮減

    無刷電機小波神經(jīng)網(wǎng)絡轉子位置檢測方法的研究

    摘要:論文通過對無刷電機數(shù)學模型的推導,得出轉角:與三相相電壓之間存在映射關系,因此構建了一個以三相相電壓為輸人,轉角為輸出的小波神經(jīng)網(wǎng)絡來實現(xiàn)轉角預測,并采用改進遺傳算法來訓練網(wǎng)絡結構與參數(shù),借助
    發(fā)表于 06-25 13:06

    神經(jīng)網(wǎng)絡專家系統(tǒng)在電機故障診斷中的應用

    摘要:針對傳統(tǒng)專家系統(tǒng)不能進行自學習、自適應的問題,本文提出了基于種經(jīng)網(wǎng)絡專家系統(tǒng)的并步電機故障診斷方法。本文將小波神經(jīng)網(wǎng)絡和專家系統(tǒng)相結合,充分發(fā)揮了二者故障診斷的優(yōu)點,很大程度上降低了對電機
    發(fā)表于 06-16 22:09

    神經(jīng)網(wǎng)絡RAS在異步電機轉速估計中的仿真研究

    眾多方法中,由于其結構簡單,穩(wěn)定性好廣泛受到人們的重視,且已被用于產(chǎn)品開發(fā)。但是MRAS仍存在在低速區(qū)速度估計精度下降和對電動機參數(shù)變化非常敏感的問題。本文利用神經(jīng)網(wǎng)絡的特點,使估計更為簡單、快速
    發(fā)表于 06-16 21:54

    基于FPGA搭建神經(jīng)網(wǎng)絡的步驟解析

    本文的目的是在一個神經(jīng)網(wǎng)絡已經(jīng)通過python或者MATLAB訓練好的神經(jīng)網(wǎng)絡模型,將訓練好的模型的權重和偏置文件以TXT文件格式導出,然后通過python程序將txt文件轉化為coe文件,(coe
    的頭像 發(fā)表于 06-03 15:51 ?1545次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡</b>的步驟解析
    芒康县| 太原市| 方城县| 尚义县| 科尔| 东明县| 始兴县| 天台县| 塔河县| 林周县| 黑山县| 九台市| 日喀则市| 灵石县| 潜山县| 汤原县| 鲁山县| 麟游县| 都江堰市| 湘阴县| 绵竹市| 尚志市| 葵青区| 高州市| 姚安县| 南通市| 仙桃市| 嘉峪关市| 台中市| 濮阳县| 仁布县| 广东省| 奉化市| 邢台市| 锡林浩特市| 红桥区| 吐鲁番市| 晋宁县| 东源县| 昌邑市| 马鞍山市|