日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

通過FPGA實現(xiàn)深度神經(jīng)網(wǎng)絡的解決方案

電子設(shè)計 ? 來源:郭婷 ? 作者:電子設(shè)計 ? 2019-03-19 08:58 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

隨著“Alexa”、“Hey Siri”或“Hi Google”等多個產(chǎn)品成功響應關(guān)鍵詞,關(guān)鍵字檢測 (KWS) 已成為越來越多嵌入式應用的一項重要要求。雖然典型的先進 KWS 解決方案依賴于復雜的卷積神經(jīng)網(wǎng)絡 (CNN) 和其他深度神經(jīng)網(wǎng)絡 (DNN) 機器學習算法,但資源受限型產(chǎn)品的開發(fā)人員可以使用二值神經(jīng)網(wǎng)絡 (BNN) 獲得所需的準確結(jié)果。

本文介紹了將 KWS 添加到可穿戴設(shè)備和其他低功耗物聯(lián)網(wǎng)設(shè)備的優(yōu)勢,以及所面臨的各項挑戰(zhàn)。在描述 BNN 架構(gòu)及其為何適用于資源受限型 KWS 應用之后,本文還介紹了一種通過低功耗 FPGA 實現(xiàn) BNN 的可用解決方案。該解決方案將用于展示如何利用一小部分 CNN 資源要求,為低功耗 KWS 應用實現(xiàn) CNN 的高精度。

KWS 的起源和演進

KWS 也被也稱為關(guān)鍵詞檢測,多年來一直應用于信息處理應用。例如,在文檔處理中,KWS 提供了一種更有效的光學字符識別替代方法,可為大規(guī)模數(shù)字化文檔編制索引。隨著聲控服務在智能手機、手表、家用產(chǎn)品等設(shè)備中變得可用,基于語音的 KWS 方法在產(chǎn)品開發(fā)中迅速獲得關(guān)注。在這些產(chǎn)品中,“始終運行”功能允許產(chǎn)品連續(xù)處理音頻輸入,尋找可激活基于語音的用戶界面的關(guān)鍵字。

諸如 XMOS VocalFusion 4-Mic 套件之類板級產(chǎn)品可與 Amazon 語音服務完全集成,提供了一種即用型解決方案,可在許多應用中添加語音助手服務。但對于功率預算有限的可穿戴設(shè)備或其他電池供電型產(chǎn)品,開發(fā)人員很大程度上只能去尋找自己的 KWS 解決方案。

過去,實現(xiàn)自定義 KWS 機制要求開發(fā)人員不僅在音頻工程方面具有深厚背景,而且在時間模式識別的統(tǒng)計方法應用方面也具有同樣的要求。過去幾十年來,基于隱馬爾可夫模型和相關(guān)算法的統(tǒng)計方法為字識別解決方案提供了基礎(chǔ)。

最近,像卷積神經(jīng)網(wǎng)絡 (CNN) 這樣的 DNN 架構(gòu)已經(jīng)開始用作許多 KWS 應用的基礎(chǔ)。

滿足深度神經(jīng)網(wǎng)絡 (DNN) 要求

DNN 架構(gòu)基于多層神經(jīng)元,這些神經(jīng)元經(jīng)過訓練,可從輸入數(shù)據(jù)中提取特征,并預測輸入數(shù)據(jù)對應于訓練期間所用類之一的概率1。特別是得益于這些算法實現(xiàn)的高識別精度,CNN 架構(gòu)已成為圖像識別的卓越方法。

同樣,不同類型的 CNN 架構(gòu)已經(jīng)在包括 KWS 實現(xiàn)在內(nèi)的語音處理中取得了成功。“傳統(tǒng)”CNN 架構(gòu)的難點在于其尺寸和處理要求。例如,在圖像處理中,CNN 模型已經(jīng)增長到數(shù)百兆字節(jié)的大小。大存儲容量加上廣泛的數(shù)值計算要求,對模型處理平臺提出了很高的要求。

用于實現(xiàn)傳統(tǒng) CNN 架構(gòu)的方法提供的幫助很少。CNN 和其他 DNN 算法通過對網(wǎng)絡中每層的每個神經(jīng)元執(zhí)行通用矩陣乘法 (GEMM) 運算,實現(xiàn)其精度。在訓練期間,當模型可能需要處理數(shù)百萬個標記的特征向量以獲得預期結(jié)果時,GEMM 和其他矩陣計算的數(shù)量可以很容易地達到數(shù)十億,從而推動了圖形處理單元 (GPU) 在此模型開發(fā)階段加速處理的需求。當部署模型以在應用中執(zhí)行推理時,人們希望維持低延時和高精度,這繼續(xù)決定了在要求最為嚴苛的應用中對 GPU 的需求。

在具有較為適中的推理要求的應用中,開發(fā)人員可以通過犧牲延時和精度來部署傳統(tǒng) CNN,即使在 Raspberry Pi Foundation Raspberry Pi 3 等通用平臺上,或基于 Arm? Cortex?-M7 的 MCU(例如 Microchip Technology、NXP 或 STMicroelectronics 的 MCU)上亦如此2。

但是,對于對推理準確性和延時提出嚴格要求的應用,傳統(tǒng) CNN 算法在資源有限的平臺上根本不實用。CNN 提出的存儲器和處理要求遠遠超出了典型線路供電型消費產(chǎn)品內(nèi)置的嵌入式系統(tǒng)的資源范圍,更不用說電池供電型可穿戴設(shè)備或其他預期提供“始終運行”的KWS 功能的移動設(shè)計。模型壓縮技術(shù)的發(fā)展需要 DNN 算法能夠支持這些平臺。

高效的 DNN 方法

為了解決呈螺旋上升的模型尺寸問題,機器學習科學家已經(jīng)找到了在無顯著精度損失的情況下大幅降低存儲器需求的方法。例如,研究人員修剪了對結(jié)果貢獻很小的內(nèi)部網(wǎng)絡連接。他們還將內(nèi)部參數(shù)所需的精度降低到 8 位甚至 5 位值。通過應用上述方法和其他方法,他們在無明顯精度損失的情況下,將行業(yè)黃金標準 CNN 模型的尺寸減小 30 倍至 49 倍,從而減少了存儲器需求3。

除了降低存儲器需求外,模型壓縮技術(shù)還有助于降低處理要求:修剪減少了所需計算次數(shù),而精度降低則加快了計算速度。

但是,即使降低了精度,這些網(wǎng)絡仍需要大量屬于機器學習算法核心的 GEMM 運算。這些運算的范圍不僅推動了對推理平臺高性能硬件的需求,而且還直接影響了這些平臺的功率預算。饋送這些矩陣運算需要大量訪問存儲器,單是這方面的功耗,就輕易超過電池供電型設(shè)備的功率預算。

為了解決移動設(shè)備的存儲器、處理和功耗限制,研究人員已將模型壓縮的概念擴展到極致。研究人員將模型參數(shù)量化為 +1 或 -1(或 0)值,以建立稱為二值神經(jīng)網(wǎng)絡 (BNN) 的架構(gòu),而不是簡單地將內(nèi)部參數(shù)的精度降低到 8 位或更低位。

BNN 如何將 KWS 引入資源有限的設(shè)計

在基本拓撲方面,BNN 與 CNN 大致相同,并且所含層類型相同(包括卷積層、歸一化層、激活層和池化層)。這些層內(nèi)使用 1 位參數(shù)(權(quán)重與偏置值),在運算上差異巨大。

BNN 不是執(zhí)行傳統(tǒng) CNN 中所需的 32 位浮點 GEMM 運算,而是可以使用更簡單的按位 XNOR 運算。雖然這種方法可能導致訓練時間延長,但研究人員發(fā)現(xiàn),BNN 模型的準確率幾乎與使用 32 位浮點值的模型相當4。二進制化參數(shù)的使用不僅減少了 BNN 的存儲器占用空間,而且還減少了其存儲器訪問要求,因為可以在單字訪問周期中獲取多個 1 位參數(shù),并且饋送 XNOR 運算所需的參數(shù)更少。

BNN 的計算簡化后,處理要求也隨之顯著降低。因此,BNN 可以在不顯著影響精度的情況下,實現(xiàn)比先前方法更高的推理率。在一項研究中,研究人員比較了在 Xilinx XC7Z020 FPGA 片上系統(tǒng) (SoC) 上實現(xiàn) CNN 和 BNN 的性能,其中該片上系統(tǒng)在基于 XC7Z020 的開發(fā)平臺(如 Digilent 的 ZedBoard)上運行。使用 XC7Z020 FPGA 后,兩個 DNN 均實現(xiàn)了高效性能,但 CNN 實現(xiàn)了每瓦特 7.27 每秒十億次運算 (GOPS),而 BNN 在相同零件上的數(shù)據(jù)為 44.2 GOPS/瓦5。

由于其可編程性和高能效,F(xiàn)PGA 已成為使用 CNN 的應用(如嵌入式視覺)的熱門推理平臺6。先進的 FPGA 組合了嵌入式存儲器和多個并行處理數(shù)字信號處理 (DSP) 單元,可加快 GEMM 和其他矩陣計算。雖然 BNN 需要的 DSP 資源僅是 CNN 所需的一小部分,但 FPGA 仍然非常適合這些架構(gòu)。例如,開發(fā)人員可利用能夠加速此架構(gòu)中二進制卷積或其他按位運算的專用邏輯,來增強其基于 FPGA 的 BNN。

但是,對于專注于大型應用的典型開發(fā)人員而言,即使縮短項目日程以適應快速發(fā)展的應用領(lǐng)域(如可穿戴設(shè)備和其他聲控連接產(chǎn)品),只要對基于 FPGA 的 DNN 進行優(yōu)化設(shè)計,不論類型如何,都會造成拖延。Lattice Semiconductor 的 SensAI? 技術(shù)堆棧通過專門的 DNN IP、參考設(shè)計、設(shè)計服務以及用于實現(xiàn)推理模型的簡單 FPGA 開發(fā)工作流程消除了這一障礙。

基于 FPGA 的 BNN 解決方案

SensAI 將 DNN IP 與神經(jīng)網(wǎng)絡編譯器結(jié)合在一個工作流程中,旨在加快實現(xiàn)通過行業(yè)標準機器學習框架(包括 Caffe 和 TensorFlow)創(chuàng)建的神經(jīng)網(wǎng)絡模型(圖 1)。

通過FPGA實現(xiàn)深度神經(jīng)網(wǎng)絡的解決方案

圖 1:Lattice SensAI 技術(shù)堆??蓭椭_發(fā)人員使用通過標準機器學習框架創(chuàng)建的 CNN 和 BNN 模型,在 Lattice iCE40 UltraPlus 和 ECP5 FPGA 上實現(xiàn)低功耗推理引擎。(圖片來源:Lattice Semiconductor)

Lattice 的 CNN IP 旨在與 Lattice ECP5 FPGA 配合使用,支持在 Lattice 基于 ECP5 的嵌入式視覺開發(fā)套件上運行 1 W 或更低功耗的高性能圖像識別功能。但是,對于資源受限的設(shè)計,Lattice 的 BNN IP 使開發(fā)人員能夠充分利用這種高效架構(gòu),在低功耗 Lattice ICE40 UltraPlus FPGA 上實現(xiàn)推理引擎。

使用 Lattice BNN IP 后,這些基于 ICE40 UltraPlus 的推理引擎可以在顯著降低運行功耗、使用更少存儲器和處理資源的情況下實現(xiàn)高精度。Lattice 通過 KWS 推理模型的完整 ICE40 UltraPlus FPGA 實現(xiàn),展示了此 BNN IP 的效率,其中推理模型實現(xiàn)在 Lattice 移動開發(fā)平臺 (MDP) 上的運行功耗約為 1 mW。

Lattice SensAI BNN IP 包括實現(xiàn) BNN 推理解決方案所需的全套模塊(圖 2)。

通過FPGA實現(xiàn)深度神經(jīng)網(wǎng)絡的解決方案

圖 2:Lattice SensAI IP 提供了在 Lattice iCE40 UltraPlus FPGA 上實現(xiàn) BNN 解決方案所需的全套模型層、存儲器子系統(tǒng)、控制邏輯和系統(tǒng)接口。(圖片來源:Lattice Semiconductor)

除了支持卷積、池化和其他 DNN 層功能外,該 IP 還有多個存儲器子系統(tǒng),包括用于訓練期間所開發(fā)模型的固定參數(shù)和推理期間所執(zhí)行計算的中間結(jié)果的子系統(tǒng)。除了輸入、輸出和控制線的接口邏輯外,該 IP 還提供了一個控制子系統(tǒng),用于處理實現(xiàn)模型操作的命令序列。

對于新項目,開發(fā)人員使用 Lattice Radiant 軟件包中的一些簡單菜單為其特定設(shè)計生成基本 IP 內(nèi)核。這里,開發(fā)人員只需使用 Radiant IP 配置向?qū)е刑峁┑牟藛芜x項,為所需存儲器(8、16 或 64 KB)和二進制類型(+ 1/-1 或 +1/0)配置 BNN IP 塊。開發(fā)人員通過使用另一個 Radiant 菜單來完成此簡單設(shè)置過程,生成 RTL 和其他支持文件,Radiant FPGA 程序員使用這些文件,根據(jù)其所選 BNN 配置對設(shè)備進行編程。

雖然此 FPGA 編程工作流程為 BNN 模型提供了底層執(zhí)行平臺,但模型本身的編程遵循 SensAI 環(huán)境中的單獨路徑。

在 SensAI 工作流程的模型開發(fā)部分,開發(fā)人員使用 Lattice 神經(jīng)網(wǎng)絡編譯器將 Caffe 或 TensorFlow 模型轉(zhuǎn)換成相應文件,這些文件包含在所配置 BNN 核心上實現(xiàn)這些模型所需的模型參數(shù)和命令序列。在最后一步中,開發(fā)人員使用 Radiant 將模型文件和 FPGA 比特流文件加載到 FPGA 平臺中。

KWS 實現(xiàn)

Lattice 利用了一個旨在運行于 Lattice MDP 之上的基于 BNN 的完整 KWS 模型演示此 BNN 開發(fā)過程。MDP 本身就是一個出色的平臺,結(jié)合了 iCE40 UltraPlus FPGA 和一系列可能在典型低功耗移動應用中遇到的外設(shè)。

此開發(fā)板集成了四個 iCE40 UltraPlus 器件,在演示該板內(nèi)置的 1.54 英寸顯示屏、640 x 480 圖像傳感器和 RGB LED 的應用中,每個器件都有展示。該板還包含一整套傳感器,包括壓力傳感器、羅盤傳感器、3 軸線性加速計、3D 加速計和 3D 陀螺儀。針對像關(guān)鍵字檢測這樣的音頻應用,該電路板還包括兩個 I2S 麥克風和兩個 PDM 麥克風。對于要求更高的應用,開發(fā)人員可以將 Lattice 的 8 麥克風 LF-81AGG-EVN 子板插入 MDP,以支持音頻波束形成,從而在聲控應用中增強方向響應(圖 3)。

圖 3:Lattice 移動開發(fā)平臺 (MDP) 集成了一套廣泛的支持功能和外設(shè),同時為 8 麥克風陣列(圖中顯示為與 MDP 相連)等擴展組件提供連接器。(圖片來源:Lattice Semiconductor)

該開發(fā)板的內(nèi)置電源管理電路允許開發(fā)人員采用內(nèi)部鋰離子電池實現(xiàn)獨立操作,或采用外部電源為該板供電。在開發(fā)過程中,可通過主機開發(fā)平臺 USB 連接為該板供電。此主機可運行 Lattice iCEcube2,用于創(chuàng)建自定義設(shè)計,或運行 Lattice Radiant 編程器,以使用像 Lattice 關(guān)鍵詞檢測演示這樣預先建立的設(shè)計對板載 iCE40 FPGA 進行編程。

Lattice DNN 演示(包括用于關(guān)鍵字詞檢測的演示)提供了一整套常規(guī)情況下通過 SensAI 工作流生成的文件。因此,開發(fā)人員使用 Radiant 編程器即可加載這些文件,以評估模型的性能,例如關(guān)鍵字詞檢測演示中的 BNN 推理模型。

對于希望檢查實現(xiàn)細節(jié)的開發(fā)人員,演示項目還提供模型文件,包括 TensorFlow .pb 文件以及 Caffe .proto 和 .caffeemodel 文件。開發(fā)人員可以檢查這些模型以評估所提供的網(wǎng)絡設(shè)計。對于具有更多特殊要求的應用,這些模型可用作開發(fā)人員自有模型的起點。通常,設(shè)計人員會發(fā)現(xiàn)基于典型 CNN 類型設(shè)計的拓撲。

在 Lattice 關(guān)鍵詞檢測演示項目中,所提供的 BNN 網(wǎng)絡設(shè)計使用熟悉的拓撲結(jié)構(gòu),重復多個階段,每個階段包括卷積層、批量歸一化層、縮放層、ReLu 激活層和池化層(圖 4)。盡管與傳統(tǒng)的 CNN 設(shè)計在很大程度上無甚區(qū)別,但 Lattice BNN 實現(xiàn)采用內(nèi)部二值參數(shù)和相關(guān)機制,這是此高效架構(gòu)的核心。

通過FPGA實現(xiàn)深度神經(jīng)網(wǎng)絡的解決方案

圖 4:BNN 包含在 Lattice 演示項目中,使用一個由三個相似卷積模塊組成的流水線執(zhí)行關(guān)鍵詞檢測,每個卷積模塊包括卷積層、批量歸一化層、縮放層、ReLu 激活層和池化層。(圖片來源:Lattice/Ethereon)

Lattice 演示使用用于管理從外部閃存加載的音頻流和命令序列的模塊,將此 BNN 推理模型實現(xiàn)為嵌入 FPGA 中的 BNN 加速器引擎實現(xiàn)(圖 5)。

通過FPGA實現(xiàn)深度神經(jīng)網(wǎng)絡的解決方案

圖 5:Lattice 關(guān)鍵詞檢測演示在單個低功耗 Lattice iCE40 UltraPlus FPGA 上實現(xiàn)了一個完整的 KWS 系統(tǒng)。(圖片來源:Lattice Semiconductor)

這里,I2S 主模塊接受來自外部麥克風的音頻數(shù)據(jù),并將數(shù)據(jù)傳遞到音頻緩沖器。音頻到指紋塊進而從緩沖器中讀取音頻樣本,并使用從濾波器組存儲區(qū)讀取的濾波器生成基本音頻頻譜圖。此操作可提供合適的結(jié)果,且沒有傳統(tǒng) FFT 頻譜圖的計算復雜性。

最后,BNN 加速器引擎使用此經(jīng)處理的音頻流進行推理,產(chǎn)生三種可能的輸出:靜默、關(guān)鍵詞、無關(guān)鍵詞。

在配置好開發(fā)板并加載演示文件后,開發(fā)人員只需通過為 MDP 板供電并說出關(guān)鍵詞(在本例中為“seven”一詞)即可運行演示。當推理引擎檢測到關(guān)鍵詞時,F(xiàn)PGA 將打開 MDP 中的內(nèi)置 RGB LED。

總結(jié)

機器學習功能強大,可為增強可穿戴設(shè)備和其他移動應用提供強大的解決方案,例如與聲控用戶界面配合使用的關(guān)鍵字檢測。雖然像 CNN 這樣的機器學習模型架構(gòu)可以提供高度準確的結(jié)果,但是它們對存儲器、處理和功率的要求通常超出電池供電型設(shè)備的資源能力。

如本文所述,BNN 架構(gòu)解決了這些問題。使用 Lattice Semiconductor 的先進機器學習解決方案,開發(fā)人員可以借助這一功耗僅約 1 mW 的 KWS 模型快速增強其設(shè)計。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • FPGA
    +關(guān)注

    關(guān)注

    1664

    文章

    22509

    瀏覽量

    639579
  • 神經(jīng)網(wǎng)絡

    關(guān)注

    42

    文章

    4844

    瀏覽量

    108212
  • 機器學習
    +關(guān)注

    關(guān)注

    67

    文章

    8567

    瀏覽量

    137263
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    為什么 VisionFive V1 板上的 JH7100 中并存 NVDLA 引擎和神經(jīng)網(wǎng)絡引擎?

    我想知道為什么 VisionFive V1 板上的 JH7100 中并存 NVDLA 引擎和神經(jīng)網(wǎng)絡引擎,請問?您能否舉一些關(guān)于他們的用例的例子?
    發(fā)表于 03-25 06:01

    神經(jīng)網(wǎng)絡的初步認識

    日常生活中的智能應用都離不開深度學習,而深度學習則依賴于神經(jīng)網(wǎng)絡實現(xiàn)。什么是神經(jīng)網(wǎng)絡?神經(jīng)網(wǎng)絡
    的頭像 發(fā)表于 12-17 15:05 ?490次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡</b>的初步認識

    AMD利用可重構(gòu)FPGA設(shè)備Moku實現(xiàn)自定義激光探測解決方案

    摘要本文介紹了AdvancedMicroDevices,AMD公司如何基于可重構(gòu)FPGA設(shè)備自定義激光探測解決方案,替代傳統(tǒng)的儀器配置,通過靈活且可定制的FPGA設(shè)備Moku提供更高效
    的頭像 發(fā)表于 11-20 17:28 ?1935次閱讀
    AMD利用可重構(gòu)<b class='flag-5'>FPGA</b>設(shè)備Moku<b class='flag-5'>實現(xiàn)</b>自定義激光探測<b class='flag-5'>解決方案</b>

    自動駕駛中常提的卷積神經(jīng)網(wǎng)絡是個啥?

    在自動駕駛領(lǐng)域,經(jīng)常會聽到卷積神經(jīng)網(wǎng)絡技術(shù)。卷積神經(jīng)網(wǎng)絡,簡稱為CNN,是一種專門用來處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度學習模型。CNN在圖像處理中尤其常見,因為圖像本身就可以看作是由像素排列成的二維網(wǎng)格。
    的頭像 發(fā)表于 11-19 18:15 ?2278次閱讀
    自動駕駛中常提的卷積<b class='flag-5'>神經(jīng)網(wǎng)絡</b>是個啥?

    NMSIS神經(jīng)網(wǎng)絡庫使用介紹

    NMSIS NN 軟件庫是一組高效的神經(jīng)網(wǎng)絡內(nèi)核,旨在最大限度地提高 Nuclei N 處理器內(nèi)核上的神經(jīng)網(wǎng)絡的性能并最??大限度地減少其內(nèi)存占用。 該庫分為多個功能,每個功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    在Ubuntu20.04系統(tǒng)中訓練神經(jīng)網(wǎng)絡模型的一些經(jīng)驗

    , batch_size=512, epochs=20)總結(jié) 這個核心算法中的卷積神經(jīng)網(wǎng)絡結(jié)構(gòu)和訓練過程,是用來對MNIST手寫數(shù)字圖像進行分類的。模型將圖像作為輸入,通過卷積和池化層提取圖像的特征,然后通過全連接層進行分類預
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡部署相關(guān)操作

    在完成神經(jīng)網(wǎng)絡量化后,需要將神經(jīng)網(wǎng)絡部署到硬件加速器上。首先需要將所有權(quán)重數(shù)據(jù)以及輸入數(shù)據(jù)導入到存儲器內(nèi)。 在仿真環(huán)境下,可將其存于一個文件,并在 Verilog 代碼中通過 readmemh 函數(shù)
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(LNN):時間連續(xù)性與動態(tài)適應性的神經(jīng)網(wǎng)絡

    神經(jīng)元,但卻能產(chǎn)生復雜的行為。受此啟發(fā),與傳統(tǒng)的神經(jīng)網(wǎng)絡相比,LNN旨在通過模擬大腦中神經(jīng)元之間的動態(tài)連接來處理信息,這種網(wǎng)絡能夠順序處理數(shù)
    的頭像 發(fā)表于 09-28 10:03 ?1602次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡</b>(LNN):時間連續(xù)性與動態(tài)適應性的<b class='flag-5'>神經(jīng)網(wǎng)絡</b>

    神經(jīng)網(wǎng)絡的并行計算與加速技術(shù)

    隨著人工智能技術(shù)的飛速發(fā)展,神經(jīng)網(wǎng)絡在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和廣泛的應用前景。然而,神經(jīng)網(wǎng)絡模型的復雜度和規(guī)模也在不斷增加,這使得傳統(tǒng)的串行計算方式面臨著巨大的挑戰(zhàn),如計算速度慢、訓練時間長等
    的頭像 發(fā)表于 09-17 13:31 ?1333次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡</b>的并行計算與加速技術(shù)

    如何在機器視覺中部署深度學習神經(jīng)網(wǎng)絡

    圖 1:基于深度學習的目標檢測可定位已訓練的目標類別,并通過矩形框(邊界框)對其進行標識。 在討論人工智能(AI)或深度學習時,經(jīng)常會出現(xiàn)“神經(jīng)網(wǎng)絡”、“黑箱”、“標注”等術(shù)語。這些概
    的頭像 發(fā)表于 09-10 17:38 ?1076次閱讀
    如何在機器視覺中部署<b class='flag-5'>深度</b>學習<b class='flag-5'>神經(jīng)網(wǎng)絡</b>

    基于神經(jīng)網(wǎng)絡的數(shù)字預失真模型解決方案

    在基于神經(jīng)網(wǎng)絡的數(shù)字預失真(DPD)模型中,使用不同的激活函數(shù)對整個系統(tǒng)性能和能效有何影響?
    的頭像 發(fā)表于 08-29 14:01 ?3696次閱讀

    無刷電機小波神經(jīng)網(wǎng)絡轉(zhuǎn)子位置檢測方法的研究

    摘要:論文通過對無刷電機數(shù)學模型的推導,得出轉(zhuǎn)角:與三相相電壓之間存在映射關(guān)系,因此構(gòu)建了一個以三相相電壓為輸人,轉(zhuǎn)角為輸出的小波神經(jīng)網(wǎng)絡實現(xiàn)轉(zhuǎn)角預測,并采用改進遺傳算法來訓練網(wǎng)絡結(jié)
    發(fā)表于 06-25 13:06

    神經(jīng)網(wǎng)絡專家系統(tǒng)在電機故障診斷中的應用

    摘要:針對傳統(tǒng)專家系統(tǒng)不能進行自學習、自適應的問題,本文提出了基于種經(jīng)網(wǎng)絡專家系統(tǒng)的并步電機故障診斷方法。本文將小波神經(jīng)網(wǎng)絡和專家系統(tǒng)相結(jié)合,充分發(fā)揮了二者故障診斷的優(yōu)點,很大程度上降低了對電機
    發(fā)表于 06-16 22:09

    神經(jīng)網(wǎng)絡RAS在異步電機轉(zhuǎn)速估計中的仿真研究

    眾多方法中,由于其結(jié)構(gòu)簡單,穩(wěn)定性好廣泛受到人們的重視,且已被用于產(chǎn)品開發(fā)。但是MRAS仍存在在低速區(qū)速度估計精度下降和對電動機參數(shù)變化非常敏感的問題。本文利用神經(jīng)網(wǎng)絡的特點,使估計更為簡單、快速
    發(fā)表于 06-16 21:54

    基于FPGA搭建神經(jīng)網(wǎng)絡的步驟解析

    本文的目的是在一個神經(jīng)網(wǎng)絡已經(jīng)通過python或者MATLAB訓練好的神經(jīng)網(wǎng)絡模型,將訓練好的模型的權(quán)重和偏置文件以TXT文件格式導出,然后通過python程序?qū)xt文件轉(zhuǎn)化為coe
    的頭像 發(fā)表于 06-03 15:51 ?1541次閱讀
    基于<b class='flag-5'>FPGA</b>搭建<b class='flag-5'>神經(jīng)網(wǎng)絡</b>的步驟解析
    泉州市| 海林市| 枞阳县| 阜新市| 三都| 大田县| 库尔勒市| 怀化市| 武山县| 泗水县| 德化县| 霍林郭勒市| 孟州市| 彝良县| 屏东市| 新晃| 鄂尔多斯市| 南丰县| 仪陇县| 广河县| 武清区| 鸡西市| 芮城县| 安远县| 定边县| 日照市| 娱乐| 竹溪县| 鄯善县| 津市市| 平定县| 马关县| 隆子县| 和林格尔县| 曲靖市| 宣化县| 拜泉县| 弋阳县| 新闻| 太和县| 灵璧县|