日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

從直觀的理解上講解什么是神經網絡

倩倩 ? 來源:Mcix創(chuàng)客 ? 2020-04-17 14:29 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

什么是神經網絡

深度學習是指訓練神經網絡的過程,有的時候深度學習表示大規(guī)模的神經網絡的訓練,本節(jié)課程我們將從直觀的理解上講解什么是神經網絡。

我們還是通過舉例子的方式來解釋一下,究竟什么才是神經網絡,從經典的房價預測的例子開始講起。

假如我們有一個有關于房價的數(shù)據集,這個數(shù)據集中有6個樣本,每個樣本的特征是房屋的面積,而樣本的標簽就是房屋的價格,此時我們需要一個能夠擬合這個數(shù)據集的函數(shù),并且能夠通過這個函數(shù)根據房屋的面積來預測房價。

我們在機器學習的專欄中已經學習過了線性回歸,所以我們很清楚如何通過線性回歸來擬合出一條直線,于是我們可能得到這樣的一條直線來擬合我們的數(shù)據集。

但是此時的模型會有一些問題,我們將我們的直線繼續(xù)擴展,我們會發(fā)現(xiàn),當我們的房屋的面積小于a的時候,我們的房屋的價格就會為負數(shù),這是不現(xiàn)實的,因為我們知道房屋的價格永遠都不能為負數(shù),因此為了解決這個問題,我們需要把我們的直線彎曲一點,讓它最終在零結束,那么我們最終的函數(shù)就如下所示:

我們可以看出我們的模型在大于a的時候,也就是直線部分會擬合的很好。以上是我們通過線性回歸的方式來擬合我們的房屋的數(shù)據。

如果我們要通過神經網絡的方式來實現(xiàn)上面的模型的話,這可能是最簡單的神經網絡了。我們把房屋的面積作為神經網絡的輸入(x),通過一個神經元(小圓圈),最終輸出價格(y)。

我們通過上面的神經網絡就能擬合出線性回歸所擬合出來的函數(shù),而這個函數(shù)我們未來在深度學習的過程中會經常的見到,這個函數(shù)從趨近于0開始,然后變?yōu)橐粭l直線,這個函數(shù)被稱為RELU激活函數(shù),它的全稱就是Rectified Linear Unit(修正線性單元)。修正可以理解為max(0,x)。

所以我們當前的神經網絡可以做到和線性回歸一樣的功能,這個神經網絡的工作原理就是輸入房屋面積,然后直接使用RELU激活函數(shù)來對房屋的面積進行映射,然后我們就可以得出房屋的面積了,和線性回歸的效果是一樣的。

我們可以看出我們只通過一個神經元就完成了房價預測的任務,我們可以通過更多的神經元來搭建一個更大的神經網絡。我們再來看一個例子。

現(xiàn)在我們不僅使用單一的房屋的面積來預測房屋的價格,我們現(xiàn)在還有房屋的一些其它的特征,比如臥室的數(shù)量,郵政編碼(郵政編碼決定了你步行化的程度),地區(qū)富裕度。

{!-- PGC_COLUMN --}

這些特征能夠決定我們一個房子的價格,比如房子的大小和臥室的數(shù)量可以決定家庭的大小,郵政編碼可以決定步行化的程度,郵政編碼和地區(qū)富裕度還可以決定學校的質量,而又可以根據家庭的大小,步行化的程度,以及學校的質量可以決定最終的房屋的價格,所以我們可以根據這個邏輯建立如下所示的神經網絡。

該圖中的每一個神經元都可以是一個Relu,也就是修正線性單元,或者其它非線性的函數(shù)。

雖然我們已經描述出來了這樣的一個神經網絡,但是看起來家庭的大小,步行化的程度,以及學校的質量可能也需要我們得到,其實不用我們得到,我們只用像神經網絡中輸入房屋的大小,臥室的數(shù)量,郵政編碼,富裕度這四個特征x,就能得到價格y,這正是神經網絡神奇的地方,因為神經網絡自己可以計算你訓練集中樣本的數(shù)目以及所有的中間過程。這樣的話,我們就可以建立如下所示的神經網絡了:

所以我們要做的就是將房屋大小,臥室數(shù)量,郵政編碼,富裕度這四個特征(x1、x2、x3、x4)輸入到神經網絡中,輸入之后,神經網絡就會預測出對應的價格。

同時我們也要注意隱藏層的單元,我們可以看到隱藏層的單元都是從輸入的四個特征獲得自身的輸入,比如說隱藏層的第一個節(jié)點表示家庭人口,而家庭人口僅僅取決于特征x1和特征x2,神經網絡的厲害之處在于,雖然這個隱藏層的結點也在和特征x3和特征x4相連,但是神經網絡總是能夠通過權重參數(shù)的作用使得x3和x4對第一個隱藏層結點沒有作用,所以我們的特征x3和特征x4依然可以和這個隱藏層的結點相連(雖然x3和x4并不會對第一個隱藏層有什么意義)。

這樣的好處就是我們沒有必要去考慮很細節(jié)的東西,比如考慮第一個隱藏層和x1和x2有關,從而連接x1和x2,而與x3和x4無關,從而不連接x3和x4,如果我們考慮到如此細節(jié)的東西,那么我們的神經網絡的搭建會異常的麻煩,當我們喂給神經網絡足夠多的數(shù)據的時候,神經網絡總是能夠自動學習到相應的參數(shù),使得雖然與x3和x4相連,但是x3和x4卻不會對隱藏層第一個單元造成任何影響。

這里我們可以把神經網絡的隱藏層看成是特征的升級,比如一開始我們輸入的是房屋大小,臥室數(shù)量,郵政編碼,富裕度,經過隱藏層之后,我們的特征變?yōu)榱思彝サ拇笮?,步行化的程度,以及學校的質量(有可能)然后輸入到最后輸出層,相比來說家庭的大小,步行化的程度,以及學校的質量更能決定房價y,所以我們可以簡單的看成神經網絡的隱藏層就是對我們特征的升級。

至此我們就知道了什么是神經網絡,希望能夠通過本節(jié)課程能夠了解到神經網絡。神經網絡非常擅長從x到y(tǒng)的精準映射函數(shù)。它非常的強大,只要你輸入x,我們就可以將映射成y,就像我們上面的預測房價的例子一樣。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4844

    瀏覽量

    108288
  • 數(shù)據集
    +關注

    關注

    4

    文章

    1240

    瀏覽量

    26279
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    為什么 VisionFive V1 板的 JH7100 中并存 NVDLA 引擎和神經網絡引擎?

    我想知道為什么 VisionFive V1 板的 JH7100 中并存 NVDLA 引擎和神經網絡引擎,請問?您能否舉一些關于他們的用例的例子?
    發(fā)表于 03-25 06:01

    神經網絡的初步認識

    日常生活中的智能應用都離不開深度學習,而深度學習則依賴于神經網絡的實現(xiàn)。什么是神經網絡?神經網絡的核心思想是模仿生物神經系統(tǒng)的結構,特別是大腦中神經
    的頭像 發(fā)表于 12-17 15:05 ?508次閱讀
    <b class='flag-5'>神經網絡</b>的初步認識

    自動駕駛中常提的卷積神經網絡是個啥?

    在自動駕駛領域,經常會聽到卷積神經網絡技術。卷積神經網絡,簡稱為CNN,是一種專門用來處理網格狀數(shù)據(比如圖像)的深度學習模型。CNN在圖像處理中尤其常見,因為圖像本身就可以看作是由像素排列成的二維網格。
    的頭像 發(fā)表于 11-19 18:15 ?2300次閱讀
    自動駕駛中常提的卷積<b class='flag-5'>神經網絡</b>是個啥?

    CNN卷積神經網絡設計原理及在MCU200T仿真測試

    數(shù)的提出很大程度的解決了BP算法在優(yōu)化深層神經網絡時的梯度耗散問題。當x&gt;0 時,梯度恒為1,無梯度耗散問題,收斂快;當x&lt;0 時,該層的輸出為0。 CNN
    發(fā)表于 10-29 07:49

    NMSIS神經網絡庫使用介紹

    NMSIS NN 軟件庫是一組高效的神經網絡內核,旨在最大限度地提高 Nuclei N 處理器內核神經網絡的性能并最??大限度地減少其內存占用。 該庫分為多個功能,每個功能涵蓋特定類別
    發(fā)表于 10-29 06:08

    在Ubuntu20.04系統(tǒng)中訓練神經網絡模型的一些經驗

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓練神經網絡模型的一些經驗。我們采用jupyter notebook作為開發(fā)IDE,以TensorFlow2為訓練框架,目標是訓練一個手寫數(shù)字識別的神經網絡
    發(fā)表于 10-22 07:03

    CICC2033神經網絡部署相關操作

    在完成神經網絡量化后,需要將神經網絡部署到硬件加速器。首先需要將所有權重數(shù)據以及輸入數(shù)據導入到存儲器內。 在仿真環(huán)境下,可將其存于一個文件,并在 Verilog 代碼中通過 readmemh 函數(shù)
    發(fā)表于 10-20 08:00

    液態(tài)神經網絡(LNN):時間連續(xù)性與動態(tài)適應性的神經網絡

    1.算法簡介液態(tài)神經網絡(LiquidNeuralNetworks,LNN)是一種新型的神經網絡架構,其設計理念借鑒自生物神經系統(tǒng),特別是秀麗隱桿線蟲的神經結構,盡管這種微生物的
    的頭像 發(fā)表于 09-28 10:03 ?1646次閱讀
    液態(tài)<b class='flag-5'>神經網絡</b>(LNN):時間連續(xù)性與動態(tài)適應性的<b class='flag-5'>神經網絡</b>

    神經網絡的并行計算與加速技術

    隨著人工智能技術的飛速發(fā)展,神經網絡在眾多領域展現(xiàn)出了巨大的潛力和廣泛的應用前景。然而,神經網絡模型的復雜度和規(guī)模也在不斷增加,這使得傳統(tǒng)的串行計算方式面臨著巨大的挑戰(zhàn),如計算速度慢、訓練時間長等
    的頭像 發(fā)表于 09-17 13:31 ?1354次閱讀
    <b class='flag-5'>神經網絡</b>的并行計算與加速技術

    如何在機器視覺中部署深度學習神經網絡

    圖 1:基于深度學習的目標檢測可定位已訓練的目標類別,并通過矩形框(邊界框)對其進行標識。 在討論人工智能(AI)或深度學習時,經常會出現(xiàn)“神經網絡”、“黑箱”、“標注”等術語。這些概念對非專業(yè)
    的頭像 發(fā)表于 09-10 17:38 ?1105次閱讀
    如何在機器視覺中部署深度學習<b class='flag-5'>神經網絡</b>

    基于神經網絡的數(shù)字預失真模型解決方案

    在基于神經網絡的數(shù)字預失真(DPD)模型中,使用不同的激活函數(shù)對整個系統(tǒng)性能和能效有何影響?
    的頭像 發(fā)表于 08-29 14:01 ?3722次閱讀

    無刷電機小波神經網絡轉子位置檢測方法的研究

    摘要:論文通過對無刷電機數(shù)學模型的推導,得出轉角:與三相相電壓之間存在映射關系,因此構建了一個以三相相電壓為輸人,轉角為輸出的小波神經網絡來實現(xiàn)轉角預測,并采用改進遺傳算法來訓練網絡結構與參數(shù),借助
    發(fā)表于 06-25 13:06

    神經網絡專家系統(tǒng)在電機故障診斷中的應用

    摘要:針對傳統(tǒng)專家系統(tǒng)不能進行自學習、自適應的問題,本文提出了基于種經網絡專家系統(tǒng)的并步電機故障診斷方法。本文將小波神經網絡和專家系統(tǒng)相結合,充分發(fā)揮了二者故障診斷的優(yōu)點,很大程度上降低了對電機
    發(fā)表于 06-16 22:09

    神經網絡RAS在異步電機轉速估計中的仿真研究

    眾多方法中,由于其結構簡單,穩(wěn)定性好廣泛受到人們的重視,且已被用于產品開發(fā)。但是MRAS仍存在在低速區(qū)速度估計精度下降和對電動機參數(shù)變化非常敏感的問題。本文利用神經網絡的特點,使估計更為簡單、快速
    發(fā)表于 06-16 21:54

    基于FPGA搭建神經網絡的步驟解析

    本文的目的是在一個神經網絡已經通過python或者MATLAB訓練好的神經網絡模型,將訓練好的模型的權重和偏置文件以TXT文件格式導出,然后通過python程序將txt文件轉化為coe文件,(coe
    的頭像 發(fā)表于 06-03 15:51 ?1566次閱讀
    基于FPGA搭建<b class='flag-5'>神經網絡</b>的步驟解析
    嘉兴市| 溧水县| 定州市| 平武县| 射洪县| 宁安市| 红桥区| 宜宾县| 常州市| 广东省| 阿克苏市| 南宁市| 韶山市| 泊头市| 平泉县| 无锡市| 嵩明县| 昭平县| 临江市| 仁布县| 望江县| 华阴市| 邻水| 星子县| 广灵县| 乌拉特中旗| 高淳县| 明水县| 黄陵县| 鹤岗市| 桑植县| 云林县| 保德县| 陵川县| 桑植县| 阿拉善左旗| 普洱| 遵化市| 济宁市| 南昌市| 蕲春县|