日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

深度學習數(shù)學基礎(三)之簡單數(shù)學

電子設計 ? 來源:電子設計 ? 作者:電子設計 ? 2020-12-10 19:13 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

以下有部分公式,如果無法顯示,請訪問原文鏈接

從本文開始,之后的三四篇我們都將沐浴在數(shù)學的海洋里,拼命地撲騰,這個系列我會盡力以通俗易懂的方式來講述這些數(shù)學知識。

1 函數(shù)

1.1 一次函數(shù)

在數(shù)學函數(shù)中最基本、最重要的就是一次函數(shù)。也就是函數(shù)之基礎、根本。它在神經(jīng)網(wǎng)絡的世界里也同樣重要。

1.1.1 一元一次函數(shù)

這個函數(shù)可以用下面的式表示。$a$被稱為斜率(用來控制直線的方向),$b$被稱為截距(用來控制直線和原點的偏移)
$$y=ax+b(a、b為常數(shù),a/neq 0)$$

當x、y兩個變量滿足上述公式時,就稱為變量y和變量x是一次函數(shù)關系。

有兩個變量$x$和$y$,如果對每個$x$都有唯一確定的$y$與它對應,則稱$y$是$x$的函數(shù),用 $y=f(x)$ 表示。此時,稱$x$為自變量,$y$為因變量。

一次函數(shù)的圖像是直線,如下圖的直線所示。

示例:一次函數(shù)$y=2x+1$的圖像如下圖所示,截距為 1,斜率為 2。

1.1.2 多元一次函數(shù)

上面我們說的$y=ax+b$中有一個變量x,我們稱為一元,如果有多個變量,我們就稱為是多元的,比如下面的式子。(有幾個變量就是幾元的,也可以理解為維度)
$$y=ax_1+bx_2+...+c(a、b、c為常數(shù),a/neq 0,b/neq 0)$$

當多個變量滿足上述公式時,也稱為變量y與變量是一次函數(shù)關系。

就像我們之前說的神經(jīng)元的加權輸入$z$就可以表示為一次函數(shù)關系。如果把作為參數(shù)的權重$w_1、w_2、...、w_n$與偏置$b$看作常數(shù),那么加權輸入$z$h和$w_1、w_2、...、w_n$就是一次函數(shù)關系。
$$z=w_1x_1+w_2x_2+...+w_nx_n+b$$

1.2 二次函數(shù)

1.2.1 一元二次函數(shù)

剛剛我們接觸了一次函數(shù),下面說說二次函數(shù)。二次函數(shù)很重要,像我們經(jīng)常使用的代價函數(shù)平方誤差就是二次函數(shù)。二次函數(shù)由下面的式表示。
$$y=ax^2+bx+c(a、b、c為常數(shù),a/neq 0)$$

二次函數(shù)的圖像是拋物線,如下圖所示。我們會發(fā)現(xiàn)拋物線的凹凸(開口朝向)是通過上方式子中$a$的正負來決定的。

  1. 當$a>0$時,拋物線向上開口,向下凸起
  2. 當$a<0$時,拋物線向下開口,向上凸起。

所以當$a>0$時該函數(shù)的$y$存在最小值。(該性質(zhì)是后面講的最小二乘法的基礎)

示例:二次函數(shù)$y=(x-1)^2+2$的圖像如右圖所示。從圖像中可以看到,當$x=1$時,函數(shù)取得最小值$y=2$。

1.2.2 多元二次函數(shù)

在我們實際的神經(jīng)網(wǎng)絡中需要處理更多變量的二次函數(shù),這些二次函數(shù)統(tǒng)稱多元二次函數(shù),學會了一元二次函數(shù),那么多元二次函數(shù)就不會太難了,下面我們以一個二元二次函數(shù)進行舉例。

就像我們使用的代價函數(shù)平方誤差c就是多元二次函數(shù):
$$C=(x_1-t_1)^2$$

1.3 單位階躍函數(shù)

之前,我們已經(jīng)接觸過它了,還記得嗎,作為生物界神經(jīng)元的激活函數(shù)。下面我們再說一遍吧。

單位階躍函數(shù),在原點處不連續(xù),也就是在原點處不可導,由于這兩個性質(zhì),所以單位階躍函數(shù)不能成為主要的激活函數(shù)。

$$u(x)=/left//{ /begin{matrix} 0/quad (x<0) //// 1/quad (x/ge 0) /end{matrix} /right//} $$

單位階躍函數(shù)的圖像如下:

1.4 指數(shù)函數(shù)

什么是指數(shù)函數(shù)呢?我們之前講了一次函數(shù)和二次函數(shù),其實只要把變量放到冪的位置,其實就是指數(shù)函數(shù)了,具有以下形狀的函數(shù)稱為指數(shù)函數(shù),常數(shù)$a$被稱為函數(shù)的底數(shù)
$$y=a^x(a為正的常數(shù),a/neq 1)$$

指數(shù)函數(shù)的圖像是類似于撇的一種樣式,如下所示

上面說到底數(shù),就不得不說自然常數(shù)$e$,又叫納皮爾數(shù)或歐拉數(shù),它和派$/pi$類似,是一個無限不循環(huán)小數(shù),它的值如下
$$e/approx 2.71828...$$

1.4.1 sigmoid函數(shù)

上面說到自然常數(shù)e,那么就不得不提到大名鼎鼎的自然指數(shù)函數(shù)$e^x$,它在數(shù)學界有自己的標識expexp(x)

而我們這里所要講的是包含自然指數(shù)函數(shù)的復合函數(shù)sigmoid函數(shù),它是神經(jīng)網(wǎng)絡中很具有代表性的激活函數(shù)。它的公式如下
$$/sigma (x)=/frac { 1 }{ 1+{ e }^{ -x } } =/frac { 1 }{ 1+exp(-x) } $$

通過下方的圖像,我們可以看到,這個函數(shù)是光滑的,這就代表著這個函數(shù)處處可導,函數(shù)的取值在(0,1)區(qū)間內(nèi),那么這個函數(shù)值就可以用概率來解釋

1.5 正態(tài)分布的概率密度函數(shù)

在計算機實際確定神經(jīng)網(wǎng)絡時,我們需要首先給權重和偏置設定初始值,這樣神經(jīng)網(wǎng)絡才能進行計算。而這個初始值怎么取呢,這個時候我們就會用到一個非常有用的工具,叫做正態(tài)分布,這里就不長篇大論的解釋啥是正態(tài)分布了,它也沒什么高大上的地方,就是概率分布中的一種分布方式,但是這個分布方式是及其復合人類和自然界的,有興趣的朋友可以去深入了解下。在這里只說一下,我們在給神經(jīng)網(wǎng)絡分配權重和偏置時分配一個服從正態(tài)分布的隨機數(shù),會比較容易取得好的結果。

正態(tài)分布是服從下面的概率密度函數(shù)的概率分布。公式如下
$$f/left( x /right) =/frac { 1 }{ /sqrt { 2/pi /sigma } } { e }^{ -/frac { { (x-/mu ) }^{ 2 } }{ 2{ /sigma }^{ 2 } } }$$

  1. 常數(shù)$/mu$:期望值(平均值)
  2. $/sigma$:標注差

它的圖像如下,由于形狀像教堂的鐘,所以被稱為叫鐘形曲線

示例:試作出期望值$/mu$為0、標準差$/sigma$為1 的正態(tài)分布的概率密度函數(shù)的圖像。
$$f/left( x /right)=/frac { 1 }{ /sqrt { 2/pi } } e^{ -/frac { x^{ 2 } }{ 2 } }$$

2 數(shù)列

2.1 數(shù)列的含義

數(shù)列就是數(shù)的序列,比如下面就是偶數(shù)列的數(shù)列
$$2,4,6,8,...$$

數(shù)列中的每一個數(shù)都被稱為,排在第一位的項叫做首項,排在第二位的項叫做第2項,以此類推,排在第n位的項叫做第n項(是不是有點廢話),神經(jīng)網(wǎng)絡中出現(xiàn)的數(shù)列都是有限的數(shù)列,這種數(shù)列叫做有窮數(shù)列,在有窮數(shù)列中最后一項稱為末項,數(shù)列中的數(shù)量稱為項數(shù),而像上面的偶數(shù)列是無窮數(shù)列

示例:考察下面的有窮數(shù)列的首項,末項以及項數(shù)
$$1,3,5,7,9$$

這個數(shù)列的首項是1,末項是9,項數(shù)是5

2.2 數(shù)列的通項公式

數(shù)列中排在第$n$項的數(shù)通常用$a_n$表示,這里$a$是數(shù)列的名字,可隨意取。當想要表達整個數(shù)列時,使用集合的符號來表示,如$/left//{a_n/right//}$

將數(shù)列的第$n$項用一個關于$n$的式子標書出來,那么這個式子被稱為通項公式,比如偶數(shù)列的通項公式就是下方的式子
$$a_n=2n$$

示例:求以下數(shù)列$/left//{b_n/right//}$的通項公式
$$1,3,5,7,9$$
通項公式為$b_n=2n-1$

在神經(jīng)網(wǎng)絡中,神經(jīng)元的加權輸入和輸出可以看成數(shù)列,比如使用下方的展示方式:

  1. 加權輸入:第$l$層的第$j$個神經(jīng)元的加權輸入用$z_j^l$
  2. 輸出:第$l$層的第$j$個神經(jīng)元的輸出用$a_j^l$

2.3 數(shù)列與遞推關系式

除了通項公式外,數(shù)列還有另外一種表示方式,就是用相鄰的關系式來表示,這種表示法被稱為數(shù)列的遞歸定義

一般,如果已知首項$a_n$以及相鄰的兩項$a/_n、a/_{n+1}$的關系式,那么就可以確定這個序列,這個關系式叫遞推關系式

示例:已知首項$a_1=1$以及關系式$a/_{n+1}=a/_n+2$,可以確定以下數(shù)列,這個關系式就是數(shù)列的遞推關系式。
$$a/_{1}=1////a/_{2}=a/_{1+1}=a/_{1}+2=1+2=3////a/_{3}=a/_{2+1}=a/_{2}+2=3+2=5////a/_{4}=a/_{3+1}=a/_{3}+2=5+2=7////...////a/_{1}=1,a/_{n+1}=a/_{n}+2$$

2.4 聯(lián)立遞推關系式

下面我們演示一個問題,這個算法就是神經(jīng)網(wǎng)絡中的誤差反向傳播中所用到的數(shù)列的解題算法聯(lián)立遞推算法。

示例:求以下兩個地推關系是定義的數(shù)列前3項,其中$a_1=b_1=1$
$$/begin{cases} a/_{ n+1 }=a/_{ n }+2b/_{ n }+2 //// b/_{n+1}=2a/_{n}+3b/_{n}+1 /end{cases}$$

解題:
$$/begin{cases} a/_{ 2 }=a/_{ 1 }+2b/_{ 1 }+2=1+2/times 1=5 //// b/_2=2a/_1+3b/_1+1=2/times 1+3/times 1+1=6 /end{cases}$$
$$/begin{cases} a/_{ 3 }=a/_{ 2 }+2b/_{ 2 }+2=5+2/times 6+2=19 //// b/_{ 3 }=2a/_{ 2 }+3b/_{ 2 }+1=2/times 5+3/times 6+1=39 /end{cases}$$

像這樣,將多個數(shù)列的遞推關系式聯(lián)合起來組成一組,稱為聯(lián)立遞推關系式。在神經(jīng)網(wǎng)絡的世界中,所有神經(jīng)元的輸入和輸出在數(shù)學上都可以認為是用聯(lián)立遞推式聯(lián)系起來的。例如,我們來看看之前文章中看過的一個神經(jīng)元的圖片

在箭頭前端標記的是權重,神經(jīng)元的圓圈中標記的是神經(jīng)單元的輸出變量。于是,如果以$a(z)$為激活函數(shù),$b_1^3$、$b_2^3$為第3層各個神經(jīng)元的偏置,那么以下關系式成立:
$${ a }/_{ 1 }^{ 3 }=a({ w }/_{ 11 }^{ 3 }{ a }/_{ 1 }^{ 2 }+{ w }/_{ 12 }^{ 3 }{ a }/_{ 2 }^{ 2 }+{ w }/_{ 13 }^{ 3 }{ a }/_{ 3 }^{ 2 }+{ b }/_{ 1 }^{ 3 })$$
$${ a }/_{ 2 }^{ 3 }=a({ w }/_{ 21 }^{ 3 }{ a }/_{ 1 }^{ 2 }+{ w }/_{ 22 }^{ 3 }{ a }/_{ 2 }^{ 2 }+{ w }/_{ 23 }^{ 3 }{ a }/_{ 3 }^{ 2 }+{ b }/_{ 2 }^{ 3 })$$

根據(jù)這些關系式,第3層的輸出$a_1^3$和$a_2^3$由第2層的輸出$a_1^2$、$a_2^2$、$a_3^2$決定。也就是說,第2層的輸出與第3層的輸出由聯(lián)立遞推關系式聯(lián)系起來。我們之后學的誤差反向傳播就是將這種觀點應用在神經(jīng)網(wǎng)絡中。

為什么要將聯(lián)立遞推應用在神經(jīng)網(wǎng)絡中呢?

其實是因為對比計算冗長的偏導關系式,計算機更加擅長計算遞推關系。

評論請轉至原文鏈接
本文來自納蘭小筑,本文不予回復,評論請追溯原文

審核編輯:符乾江
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關注

    關注

    1821

    文章

    50366

    瀏覽量

    267056
  • 深度學習
    +關注

    關注

    73

    文章

    5610

    瀏覽量

    124654
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    深度學習為什么還是無法處理邊緣場景?

    [首發(fā)于智駕最前沿微信公眾號]雖然自動駕駛車輛已經(jīng)完成了數(shù)百萬公里的行駛測試,深度學習也已被普遍應用,但依然會在一些看似簡單的場景中犯下低級錯誤。比如在遇到一些從未見到過的邊緣場景時,系統(tǒng)可能會
    的頭像 發(fā)表于 05-04 10:16 ?323次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學習</b>為什么還是無法處理邊緣場景?

    熱分析(結構函數(shù))的數(shù)學基礎(上篇)

    個理想熱沉接觸。在其上表面施加一個單位的功率并均勻地分布在表面上,如圖1所示。我們將圖1中簡單的散熱結構等效構建成由單個熱阻和熱容構成的網(wǎng)絡模型如圖2,在圖2的模型中熱阻和熱容為并聯(lián)回路結構。 我們嘗試用圖2中這個簡單的熱模型描述
    的頭像 發(fā)表于 04-20 17:15 ?591次閱讀
    熱分析(結構函數(shù))的<b class='flag-5'>數(shù)學</b>基礎(上篇)

    通過對?數(shù)字音頻信號進行數(shù)學運算和算法處理的高性能Audio DSP-DU562

    高性能 Audio DSP(音頻數(shù)字信號處理器)的核心工作原理是通過對?數(shù)字音頻信號進行數(shù)學運算和算法處理?,實現(xiàn)音質(zhì)優(yōu)化、噪聲抑制、空間增強等效果。
    的頭像 發(fā)表于 04-03 09:26 ?308次閱讀
    通過對?數(shù)字音頻信號進行<b class='flag-5'>數(shù)學</b>運算和算法處理的高性能Audio DSP-DU562

    數(shù)學工程計算+失效分析,雙輪驅動電路可靠性

    數(shù)學計算驅動可靠設計在電子產(chǎn)品研發(fā)過程中,你是否經(jīng)常遇到以下問題:產(chǎn)品在測試中偶發(fā)失效,卻找不到根本原因?器件選型憑經(jīng)驗、靠感覺,缺乏量化依據(jù)?電路設計完成后,總是要經(jīng)歷多輪“試錯—改板—測試
    的頭像 發(fā)表于 02-27 17:44 ?410次閱讀
    <b class='flag-5'>數(shù)學</b>工程計算+失效分析,雙輪驅動電路可靠性

    學單片機編程對數(shù)學英語有要求嗎

    1. 單片機是什么? 答:單片機就是一個微型CPU,把程序燒錄芯片里面,通過控制不同的外圍電路實現(xiàn)不同產(chǎn)品的功能。 2. 學單片機編程對數(shù)學英語有要求嗎? 答:數(shù)學會基本的加減乘除就行,英語會認
    發(fā)表于 02-02 06:24

    避繁就簡!商湯日日新大模型靈性巧解數(shù)學難題,獲贊“機器的審美”

    大模型也能擁有某種數(shù)學家“直覺”! 在近日舉辦的第十屆世界華人數(shù)學家大會“人工智能與數(shù)學”夜話活動上,由菲爾茲獎得主丘成桐院士引領,集結國內(nèi)四大頂尖模型團隊,上海人工智能實驗室、商湯科技、阿里通義
    的頭像 發(fā)表于 01-12 11:41 ?435次閱讀
    避繁就簡!商湯日日新大模型靈性巧解<b class='flag-5'>數(shù)學</b>難題,獲贊“機器的審美”

    巨霖科技孫家鑫亮相ICCM 2025世界華人數(shù)學家大會

    2026年1月3日,以“數(shù)學新前沿:改造科學與人類的推動力”為主題的第十屆世界華人數(shù)學家大會在滬開幕。上海市委書記陳吉寧出席開幕式并致辭,上海市委副書記、市長龔正出席。
    的頭像 發(fā)表于 01-07 16:35 ?557次閱讀
    巨霖科技孫家鑫亮相ICCM 2025世界華人<b class='flag-5'>數(shù)學</b>家大會

    【乾芯QXS320F開發(fā)板試用】基于數(shù)學庫IQmath定點庫的調(diào)試

    )磁場同步旋轉的坐標系(d-q坐標系)中,從而把復雜的交流控制問題,簡化成類似直流電機的、簡單的直流控制問題。 下面我們來詳細解析涉及到的數(shù)學和相關公式。 1. Clarke 變換 (3s/2s
    發(fā)表于 12-08 22:48

    如何深度學習機器視覺的應用場景

    深度學習視覺應用場景大全 工業(yè)制造領域 復雜缺陷檢測:處理傳統(tǒng)算法難以描述的非標準化缺陷模式 非標產(chǎn)品分類:對形狀、顏色、紋理多變的產(chǎn)品進行智能分類 外觀質(zhì)量評估:基于學習的外觀質(zhì)量標準判定 精密
    的頭像 發(fā)表于 11-27 10:19 ?352次閱讀

    不止于數(shù)學:實際部署是筑牢后量子安全的關鍵環(huán)節(jié)

    院(NIST)已選定CRYSTALS-Kyber、CRYSTALS-Dilithium等算法推進標準化,這些算法均建立在研究充分、數(shù)學層面穩(wěn)健的基礎上。然而,僅有強大的算法設計還遠遠不夠,如果部署過程存在安全隱患,密碼系統(tǒng)仍將面臨風險——算法安全性并不等同于部署安全性。 縱觀密碼學的歷史
    的頭像 發(fā)表于 11-21 15:57 ?553次閱讀
    不止于<b class='flag-5'>數(shù)學</b>:實際部署是筑牢后量子安全的關鍵環(huán)節(jié)

    【EK-RA6E2開發(fā)指南】GPIO使用

    我相信大多數(shù)學習嵌入式的朋友學習單片機的第一個程序都是點燈,畢竟點燈簡單嘛,操作下GPIO即可。當然,本教程的第一個應用也從GPIO的使用開始。
    的頭像 發(fā)表于 09-23 18:13 ?3683次閱讀
    【EK-RA6E2開發(fā)指南】GPIO使用

    深度學習對工業(yè)物聯(lián)網(wǎng)有哪些幫助

    、實施路徑個維度展開分析: 一、深度學習如何突破工業(yè)物聯(lián)網(wǎng)的技術瓶頸? 1. 非結構化數(shù)據(jù)處理:解鎖“沉睡數(shù)據(jù)”價值 傳統(tǒng)困境 :工業(yè)物聯(lián)網(wǎng)中70%以上的數(shù)據(jù)為非結構化數(shù)據(jù)(如設備振動波形、紅外圖像、日志文本),傳統(tǒng)方法難以
    的頭像 發(fā)表于 08-20 14:56 ?1246次閱讀

    測量誤差溯源:系統(tǒng)誤差與隨機誤差的數(shù)學建模與分離方法

    校準不當或環(huán)境因素,具有重復性;而隨機誤差則由隨機噪聲引起,呈現(xiàn)離散分布。本文將通過數(shù)學建模揭示這些誤差的本質(zhì),并討論高效分離方法,為提升測量精度(如電流測量中的數(shù)值穩(wěn)定性)提供理論支持。接下來,我們將深入探討建模
    的頭像 發(fā)表于 07-25 09:36 ?1469次閱讀

    【微五科技CF5010RBT60開發(fā)板試用體驗】Cordic數(shù)學計算測試

    Cordic數(shù)學計算測試本文分享cordic硬件數(shù)學計算。 Xprintf.h配置支持浮點打印#define XF_USE_FP1 /* 1: Enable support for floating
    發(fā)表于 06-27 23:55

    相異步電機在SIMULINK下的建模與仿真

    摘要:異步電動機相原始動態(tài)數(shù)學模型相當復雜,分析和求解這組非線性方程十分困難,因此,要簡化數(shù)學模型,必須從簡化磁鏈關展入手,簡化的基本方法就是坐標變換。以異少電動機坐標變換為基礎推導出同步旋轉
    發(fā)表于 06-16 21:48
    富民县| 冀州市| 木兰县| 竹溪县| 应用必备| 绥棱县| 兴城市| 漯河市| 洪湖市| 商河县| 长岭县| 兰西县| 南涧| 佛教| 贡山| 封开县| 六安市| 绥芬河市| 宁海县| 开鲁县| 随州市| 铜陵市| 阳朔县| 依安县| 鲁山县| 绥化市| 泸州市| 二连浩特市| 广南县| 定州市| 牡丹江市| 星座| 绥德县| 车险| 鲜城| 宾川县| 海宁市| 教育| 东平县| 固原市| 舟山市|