日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

簡(jiǎn)單介紹了強(qiáng)化學(xué)習(xí)的基本概念

mK5P_AItists ? 來(lái)源:未知 ? 作者:李倩 ? 2018-06-26 09:10 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

由于Alpha Go的成功,強(qiáng)化學(xué)習(xí)始終是人們談?wù)摰慕裹c(diǎn)?,F(xiàn)在Thomas Simonini在國(guó)外blog網(wǎng)站上發(fā)布了系列強(qiáng)化學(xué)習(xí)教程,以下是本系列的第一篇,簡(jiǎn)單介紹了強(qiáng)化學(xué)習(xí)的基本概念。

An introduction to Reinforcement Learning

我們基于TensorFlow制作了一門(mén)深度強(qiáng)化學(xué)習(xí)的視頻課程【1】,主要介紹了如何使用TensorFlow實(shí)現(xiàn)強(qiáng)化學(xué)習(xí)問(wèn)題求解。

強(qiáng)化學(xué)習(xí)是機(jī)器學(xué)習(xí)的一種重要分支,通過(guò)“agent ”學(xué)習(xí)的方式,得出在當(dāng)前環(huán)境下所應(yīng)該采取的動(dòng)作,并觀察得到的結(jié)果。

最近幾年,我們見(jiàn)證了了許多研究領(lǐng)域的巨大進(jìn)展,例如包括2014年的“DeepMind and the Deep Q learning architecture”【2】,2016年的“beating the champion of the game of Go with AlphaGo”【3】,2017年的“OpenAI and the PPO”【4】

在這個(gè)系列文章中,我們將關(guān)注于深度學(xué)習(xí)問(wèn)題中各類(lèi)不同的求解方法。包括Q-learning,DeepQ-learning,策略梯度,ActorCritic,以及PPO。

在第一篇文章中,你將會(huì)學(xué)到:

強(qiáng)化學(xué)習(xí)是什么,為什么說(shuō)“獎(jiǎng)勵(lì)”是最重要的思想。

強(qiáng)化學(xué)習(xí)的三個(gè)方法。

深度強(qiáng)化學(xué)習(xí)中的“深度”是什么意思?

在進(jìn)入深度學(xué)習(xí)實(shí)現(xiàn)的主題之前,一定要把這些元素弄清楚。

強(qiáng)化學(xué)習(xí)背后的思想是,代理(agent)將通過(guò)與環(huán)境(environment)的動(dòng)作(action)交互,進(jìn)而獲得獎(jiǎng)勵(lì)(reward)。

從與環(huán)境的交互中進(jìn)行學(xué)習(xí),這一思想來(lái)自于我們的自然經(jīng)驗(yàn),想象一下當(dāng)你是個(gè)孩子的時(shí)候,看到一團(tuán)火,并嘗試接觸它。

火很溫暖,你感覺(jué)很開(kāi)心(獎(jiǎng)勵(lì)+1)。你就會(huì)覺(jué)得火是個(gè)好東西。

可一旦你嘗試去觸摸它。哎呦!火把你的手燒傷了(懲罰-1).你才明白只有與火保持一定距離,才會(huì)產(chǎn)生溫暖,才是個(gè)好東西,但如果太過(guò)靠近的話(huà),就會(huì)燒傷自己。

這一過(guò)程是人類(lèi)通過(guò)交互進(jìn)行學(xué)習(xí)的方式。強(qiáng)化學(xué)習(xí)是一種可以根據(jù)行為進(jìn)行計(jì)算的學(xué)習(xí)方法。

強(qiáng)化學(xué)習(xí)的過(guò)程

舉個(gè)例子,思考如何訓(xùn)練agent 學(xué)會(huì)玩超級(jí)瑪麗游戲。這一強(qiáng)化學(xué)習(xí)過(guò)程可以被建模為如下的一組循環(huán)過(guò)程。

agent從環(huán)境中接收到狀態(tài)S0。(此案例中,這句話(huà)意思是從超級(jí)瑪麗游戲中得到的第一幀信息)

基于狀態(tài)S0,agent執(zhí)行A0操作。(右移)

環(huán)境轉(zhuǎn)移至新?tīng)顟B(tài)S1。(新一幀)

環(huán)境給予R1獎(jiǎng)勵(lì)。(沒(méi)死:+1)

強(qiáng)化學(xué)習(xí)循環(huán)輸出狀態(tài)、行為、獎(jiǎng)勵(lì)的序列。整體的目標(biāo)是最大化全局reward的期望。

獎(jiǎng)勵(lì)假設(shè)是核心思想

在強(qiáng)化學(xué)習(xí)中,為了得到最好的行為序列,我們需要最大化累積reward期望。

每個(gè)時(shí)間步的累積reward可以寫(xiě)作:

等價(jià)于:

然而,在現(xiàn)實(shí)世界中,我們不能僅僅加入獎(jiǎng)勵(lì)。這種獎(jiǎng)勵(lì)來(lái)的太快,且發(fā)生的概率非常大,因此比起長(zhǎng)期獎(jiǎng)勵(lì)來(lái)說(shuō),更容易預(yù)測(cè)。

另一個(gè)例子中,agent 是老鼠,對(duì)手是貓,目標(biāo)是在被貓吃掉之前,先吃掉最多的奶酪。

從圖中可以看到,吃掉身邊的奶酪要比吃掉貓旁邊的奶酪,要容易許多。

由于一旦被貓抓住,游戲即將結(jié)束,因此,貓身邊的奶酪獎(jiǎng)勵(lì)會(huì)有衰減。

我們對(duì)折扣的處理如下所示(定義gamma為衰減比例,在0-1之間):

Gamma越大,衰減越小。這意味著agent 的學(xué)習(xí)過(guò)程更關(guān)注于長(zhǎng)期的回報(bào)。

另一方面,更小的gamma,會(huì)帶來(lái)更大的衰減。這意味著我們的agent 關(guān)心于短期的回報(bào)。

衰減后的累計(jì)獎(jiǎng)勵(lì)期望為:

每個(gè)時(shí)間步間的獎(jiǎng)勵(lì)將與gamma參數(shù)相乘,獲得衰減后的獎(jiǎng)勵(lì)值。隨著時(shí)間步驟的增加,貓距離我們更近,因此為未來(lái)的獎(jiǎng)勵(lì)概率將變得越來(lái)越小。

事件型或者持續(xù)型任務(wù)

任務(wù)是強(qiáng)化學(xué)習(xí)問(wèn)題中的基礎(chǔ)單元,我們可以有兩類(lèi)任務(wù):事件型與持續(xù)型。

事件型任務(wù)

在這一情況中,我們有一個(gè)起始點(diǎn)和終止點(diǎn)(終止?fàn)顟B(tài))。這會(huì)創(chuàng)建一個(gè)事件:一組狀態(tài)、行為、獎(jiǎng)勵(lì)以及新獎(jiǎng)勵(lì)。

對(duì)于超級(jí)瑪麗的情況來(lái)說(shuō),一個(gè)事件從游戲開(kāi)始進(jìn)行記錄,直到角色被殺結(jié)束。

持續(xù)型任務(wù)

持續(xù)型任務(wù)意味著任務(wù)不存在終止?fàn)顟B(tài)。在這一案例中,agent 將學(xué)習(xí)如何選擇最好的動(dòng)作,并與環(huán)境同步交互。

例如,通過(guò)agent 進(jìn)行自動(dòng)股票交易。在這個(gè)任務(wù)中,并不存在起始點(diǎn)和終止?fàn)顟B(tài),直到我們主動(dòng)終止之前,agent 將一直運(yùn)行下去。

蒙特卡洛與時(shí)間差分學(xué)習(xí)方法

接下來(lái)將學(xué)習(xí)兩種方法:

蒙特卡洛方法:在事件結(jié)束后收集獎(jiǎng)勵(lì),進(jìn)而計(jì)算未來(lái)獎(jiǎng)勵(lì)的最大期望。

時(shí)間差分學(xué)習(xí):在每一個(gè)時(shí)間步進(jìn)行估計(jì)計(jì)算。

蒙特卡洛方法

當(dāng)時(shí)間結(jié)束時(shí)(agent 達(dá)到“終止?fàn)顟B(tài)”),agent 將看到全部累積獎(jiǎng)勵(lì),進(jìn)而計(jì)算它將如何去做。在蒙特卡洛方法中,獎(jiǎng)勵(lì)只會(huì)在游戲結(jié)束時(shí)進(jìn)行收集。

從一個(gè)新游戲開(kāi)始,agent 將會(huì)隨著迭代的進(jìn)行,完成更好的決策。

舉例如下:

如果我們?cè)谌缟檄h(huán)境中:

總是從相同位置開(kāi)始

當(dāng)被貓抓到或者移動(dòng)超過(guò)20步時(shí),事件終止。

在事件的結(jié)尾,我們得到一組狀態(tài)、行為、獎(jiǎng)勵(lì)以及新?tīng)顟B(tài)。

agent 將對(duì)整體獎(jiǎng)勵(lì)Gt求和。

基于上面的公式對(duì)V(st)求和

根據(jù)更新的認(rèn)知開(kāi)始新的游戲

隨著執(zhí)行的事件越來(lái)越多,agent 學(xué)習(xí)的結(jié)果將越來(lái)越好。

時(shí)間查分學(xué)習(xí):每步更新

對(duì)于時(shí)序差分學(xué)習(xí),不需要等到每個(gè)事件終止便可以根據(jù)未來(lái)獎(jiǎng)勵(lì)的最大期望估計(jì)進(jìn)行更新。

這種方法叫做TD(0)或者單步TD方法(在每個(gè)步驟間隔進(jìn)行值函數(shù)更新)。

TD方法在每一步進(jìn)行值函數(shù)評(píng)估更新。在t+1時(shí),立刻觀察到獎(jiǎng)勵(lì)Rt+1,并得到當(dāng)前的評(píng)估值V(st+1)。

TD的目標(biāo)是得到評(píng)估值,并根據(jù)單步的估計(jì)值完成前一個(gè)估計(jì)值V(st)更新。

探索/開(kāi)發(fā)間的平衡

在繼續(xù)了解其他細(xì)節(jié)之前,我們必須介紹一個(gè)非常重要的主題:探索與開(kāi)發(fā)之間的平衡。

探索是為了發(fā)現(xiàn)環(huán)境的更多信息

開(kāi)發(fā)是為了根據(jù)已知信息去最大化獎(jiǎng)勵(lì)值。

記住,我們agent 的目標(biāo)是為了最大化累積獎(jiǎng)勵(lì)的期望,然而,我們可能陷入到一個(gè)常見(jiàn)的陷阱中。

在游戲中,老鼠可以獲得無(wú)限的小奶酪(1次獲得1個(gè)),但在迷宮的上部,有一個(gè)超大的奶酪包裹(1次可獲得1000個(gè))。

然而,如果我們只關(guān)注于獎(jiǎng)勵(lì),agent 將永遠(yuǎn)無(wú)法達(dá)到奶酪包裹處。并且,它將會(huì)僅去探索最近的獎(jiǎng)勵(lì)來(lái)源,即使這個(gè)獎(jiǎng)勵(lì)特別?。ㄩ_(kāi)發(fā),exploitation)。

但如果agent 進(jìn)行一點(diǎn)小小的探索工作,就有可能獲得更大的獎(jiǎng)勵(lì)。

這就是探索與開(kāi)發(fā)的平衡問(wèn)題。我們必須定義出一個(gè)規(guī)則,幫助agent 去解決這個(gè)平衡。我們將在未來(lái)文章中通過(guò)不同策略去解決這一問(wèn)題。

強(qiáng)化學(xué)習(xí)的三種方法

現(xiàn)在我們定義了強(qiáng)化學(xué)習(xí)的主要元素,接下來(lái)將介紹三種解決強(qiáng)化學(xué)習(xí)問(wèn)題的方法,包括基于值的方法、基于策略的方法與基于模型的方法。

基于值的方法

在基于值的強(qiáng)化學(xué)習(xí)方法中,目標(biāo)是優(yōu)化值函數(shù)V(s)。

值函數(shù)的作用是,告訴我們?cè)诿總€(gè)狀態(tài)下,未來(lái)最大化的獎(jiǎng)勵(lì)期望。

值是每個(gè)狀態(tài)條件下,從當(dāng)前開(kāi)始,在未來(lái)所能取得的最大總回報(bào)的值。

agent 將使用值函數(shù)去在每一步選擇采用哪個(gè)狀態(tài)。

在迷宮問(wèn)題中,在每一步將選擇最大值:-7,-6,-5等等。

基于策略的方法

在基于策略的強(qiáng)化學(xué)習(xí)方法中,我們希望能直接優(yōu)化策略函數(shù)π(s)。

策略的定義是,在給定時(shí)間的agent 行為。

通過(guò)學(xué)習(xí)到策略函數(shù),可以讓我們對(duì)每個(gè)狀態(tài)映射出最好的相關(guān)動(dòng)作。

兩種策略:

確定策略:在給定狀態(tài)下總是返回相同動(dòng)作。

隨機(jī)策略:輸出一個(gè)動(dòng)作的概率分布。

如同我們看到的,策略直接指出了每一步的最優(yōu)行為。

基于模型的方法

在基于模型的強(qiáng)化學(xué)習(xí)中,我們對(duì)環(huán)境建模,這意味著我們創(chuàng)造了環(huán)境的模型。

問(wèn)題是,每種行為都需要不同的模型表示,這就是為什么在接下來(lái)的文章中并沒(méi)有提及此類(lèi)方法的原因。

深度強(qiáng)化學(xué)習(xí)的介紹

深度強(qiáng)化學(xué)習(xí)采用深度神經(jīng)網(wǎng)絡(luò)以解決強(qiáng)化學(xué)習(xí)問(wèn)題。

在例子中,在下一篇文章我們將采用Q-learning與深度Q-learning。

你將會(huì)看到顯著地不同,在第一種方法中,我們將使用一個(gè)傳統(tǒng)算法那去創(chuàng)建Q值表,以幫助我們找到每種狀態(tài)下應(yīng)采用的行為。第二種方法中,我們將使用神經(jīng)網(wǎng)絡(luò)(得到某狀態(tài)下的近似獎(jiǎng)勵(lì):Q值)。

這篇文章里有很多信息,在繼續(xù)進(jìn)行之前,一定要真正掌握住基礎(chǔ)知識(shí)。

重點(diǎn):這篇文章是這一免費(fèi)的強(qiáng)化學(xué)習(xí)博文專(zhuān)欄的第一部分。關(guān)于更多的資源,見(jiàn)此鏈接【5】.

下一次我們將基于Q-learning訓(xùn)練agent 去玩FrozenLake游戲。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:【干貨】強(qiáng)化學(xué)習(xí)介紹

文章出處:【微信號(hào):AItists,微信公眾號(hào):人工智能學(xué)家】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    Momenta R7強(qiáng)化學(xué)習(xí)世界模型助力上汽大眾ID. ERA 9X正式上市

    2026年4月25日,上汽大眾全新旗艦SUV ID. ERA 9X于2026北京國(guó)際汽車(chē)展覽會(huì)期間正式上市,并將全球首發(fā)搭載Momenta R7強(qiáng)化學(xué)習(xí)世界模型。這意味著Momenta R7率先在全球強(qiáng)化學(xué)習(xí)+世界模型方向上取得量產(chǎn)突破——標(biāo)志著物理AI上車(chē)。
    的頭像 發(fā)表于 04-29 15:42 ?634次閱讀

    開(kāi)關(guān)電源的基本概念和分析方法

    開(kāi)關(guān)電源的基本概念和分析方法
    發(fā)表于 04-10 15:20 ?1次下載

    上汽奧迪E5 Sportback車(chē)型升級(jí)搭載全新Momenta強(qiáng)化學(xué)習(xí)大模型

    近日,上汽奧迪宣布旗下 E5 Sportback 車(chē)型升級(jí)搭載 全新Momenta 強(qiáng)化學(xué)習(xí)大模型。
    的頭像 發(fā)表于 04-09 09:33 ?240次閱讀

    上汽大眾ID. ERA 9X全球首發(fā)搭載Momenta R7強(qiáng)化學(xué)習(xí)世界模型

    3月30日,Momenta R7強(qiáng)化學(xué)習(xí)世界模型全球首發(fā)搭載車(chē)型——上汽大眾ID. ERA 9X正式開(kāi)啟預(yù)售。
    的頭像 發(fā)表于 03-31 13:48 ?412次閱讀

    Momenta R6強(qiáng)化學(xué)習(xí)大模型上車(chē)東風(fēng)日產(chǎn)NX8

    3月20日,東風(fēng)日產(chǎn)NX8技術(shù)暨預(yù)售發(fā)布會(huì)在廣州舉辦,官宣Momenta R6強(qiáng)化學(xué)習(xí)大模型正式上車(chē)東風(fēng)日產(chǎn)新能源SUV——NX8。以全球頂級(jí)大廠合力,融合先鋒科技力量,打造更適配全家出行的智能SUV,開(kāi)啟合資品牌智能化全新賽道。
    的頭像 發(fā)表于 03-24 09:08 ?888次閱讀

    Momenta強(qiáng)化學(xué)習(xí)大模型助力別克至境世家純電版正式上市

    3月17日,別克至境世家純電版正式上市,這是別克與Momenta強(qiáng)化學(xué)習(xí)大模型的又一次深度聯(lián)手。融合別克在MPV市場(chǎng)深耕27年的技術(shù)積淀,以更從容的智慧駕控,重新定義豪華與自在的出行體驗(yàn)。
    的頭像 發(fā)表于 03-18 15:48 ?343次閱讀

    Momenta R7強(qiáng)化學(xué)習(xí)世界模型即將推出

    3月16日,上汽大眾舉辦以“人本科技”為主題的ID. ERA技術(shù)發(fā)布會(huì),首次揭曉ID. ERA 系列包括智能輔助駕駛在內(nèi)的諸多核心技術(shù)亮點(diǎn)。會(huì)上,Momenta CEO曹旭東正式宣布:Momenta R7強(qiáng)化學(xué)習(xí)世界模型即將推出,并將全球首發(fā)搭載于上汽大眾全新旗艦SUV
    的頭像 發(fā)表于 03-17 13:57 ?1255次閱讀

    自動(dòng)駕駛中常提的離線(xiàn)強(qiáng)化學(xué)習(xí)是什么?

    [首發(fā)于智駕最前沿微信公眾號(hào)]在之前談及自動(dòng)駕駛模型學(xué)習(xí)時(shí),詳細(xì)聊過(guò)強(qiáng)化學(xué)習(xí)的作用,由于強(qiáng)化學(xué)習(xí)能讓大模型通過(guò)交互學(xué)到策略,不需要固定的規(guī)則,從而給自動(dòng)駕駛的落地創(chuàng)造更多可能。
    的頭像 發(fā)表于 02-07 09:21 ?370次閱讀
    自動(dòng)駕駛中常提的離線(xiàn)<b class='flag-5'>強(qiáng)化學(xué)習(xí)</b>是什么?

    強(qiáng)化學(xué)習(xí)會(huì)讓自動(dòng)駕駛模型學(xué)習(xí)更快嗎?

    [首發(fā)于智駕最前沿微信公眾號(hào)]在談及自動(dòng)駕駛大模型訓(xùn)練時(shí),有的技術(shù)方案會(huì)采用模仿學(xué)習(xí),而有些會(huì)采用強(qiáng)化學(xué)習(xí)。同樣作為大模型的訓(xùn)練方式,強(qiáng)化學(xué)習(xí)有何不同?又有什么特點(diǎn)呢? 什么是強(qiáng)化學(xué)習(xí)
    的頭像 發(fā)表于 01-31 09:34 ?850次閱讀
    <b class='flag-5'>強(qiáng)化學(xué)習(xí)</b>會(huì)讓自動(dòng)駕駛模型<b class='flag-5'>學(xué)習(xí)</b>更快嗎?

    多智能體強(qiáng)化學(xué)習(xí)(MARL)核心概念與算法概覽

    訓(xùn)練單個(gè)RL智能體的過(guò)程非常簡(jiǎn)單,那么我們現(xiàn)在換一個(gè)場(chǎng)景,同時(shí)訓(xùn)練五個(gè)智能體,而且每個(gè)都有自己的目標(biāo)、只能看到部分信息,還能互相幫忙。這就是多智能體強(qiáng)化學(xué)習(xí)
    的頭像 發(fā)表于 01-21 16:21 ?343次閱讀
    多智能體<b class='flag-5'>強(qiáng)化學(xué)習(xí)</b>(MARL)核心<b class='flag-5'>概念</b>與算法概覽

    上汽別克至境E7首發(fā)搭載Momenta R6強(qiáng)化學(xué)習(xí)大模型

    別克至境家族迎來(lái)新成員——大五座智能SUV別克至境E7首發(fā)。新車(chē)將搭載Momenta R6強(qiáng)化學(xué)習(xí)大模型,帶來(lái)全場(chǎng)景的智能出行體驗(yàn)。
    的頭像 發(fā)表于 01-12 16:23 ?522次閱讀

    今日看點(diǎn):智元推出真機(jī)強(qiáng)化學(xué)習(xí);美國(guó)軟件公司SAS退出中國(guó)市場(chǎng)

    智元推出真機(jī)強(qiáng)化學(xué)習(xí),機(jī)器人訓(xùn)練周期從“數(shù)周”減至“數(shù)十分鐘” ? 近日,智元機(jī)器人宣布其研發(fā)的真機(jī)強(qiáng)化學(xué)習(xí)技術(shù),已在與龍旗科技合作的驗(yàn)證產(chǎn)線(xiàn)中成功落地。據(jù)介紹,此次落地的真機(jī)強(qiáng)化學(xué)習(xí)
    發(fā)表于 11-05 09:44 ?1174次閱讀

    自動(dòng)駕駛中常提的“強(qiáng)化學(xué)習(xí)”是個(gè)啥?

    [首發(fā)于智駕最前沿微信公眾號(hào)]在談及自動(dòng)駕駛時(shí),有些方案中會(huì)提到“強(qiáng)化學(xué)習(xí)(Reinforcement Learning,簡(jiǎn)稱(chēng)RL)”,強(qiáng)化學(xué)習(xí)是一類(lèi)讓機(jī)器通過(guò)試錯(cuò)來(lái)學(xué)會(huì)做決策的技術(shù)。簡(jiǎn)單理解
    的頭像 發(fā)表于 10-23 09:00 ?919次閱讀
    自動(dòng)駕駛中常提的“<b class='flag-5'>強(qiáng)化學(xué)習(xí)</b>”是個(gè)啥?

    NVIDIA Isaac Lab可用環(huán)境與強(qiáng)化學(xué)習(xí)腳本使用指南

    Lab 是一個(gè)適用于機(jī)器人學(xué)習(xí)的開(kāi)源模塊化框架,其模塊化高保真仿真適用于各種訓(xùn)練環(huán)境,Isaac Lab 同時(shí)支持模仿學(xué)習(xí)(模仿人類(lèi))和強(qiáng)化學(xué)習(xí)(在嘗試和錯(cuò)誤中進(jìn)行學(xué)習(xí)),為所有機(jī)器
    的頭像 發(fā)表于 07-14 15:29 ?2671次閱讀
    NVIDIA Isaac Lab可用環(huán)境與<b class='flag-5'>強(qiáng)化學(xué)習(xí)</b>腳本使用指南

    第十三章 通訊的基本概念

    本章介紹通訊基本概念,包括串行/并行、全雙工/半雙工/單工、同步/異步通訊,還提及通訊速率中比特率與波特率的概念。
    的頭像 發(fā)表于 05-22 17:29 ?2389次閱讀
    第十三章 通訊的<b class='flag-5'>基本概念</b>
    潼关县| 武安市| 潜山县| 玉屏| 大英县| 安顺市| 南城县| 南溪县| 沙坪坝区| 宽甸| 江城| 陆河县| 潮安县| 巫山县| 福建省| 府谷县| 巴里| 伽师县| 墨江| 阳原县| 文水县| 潜山县| 隆回县| 德化县| 铜梁县| 鄄城县| 阿克苏市| 绥宁县| 通化县| 阜城县| 左贡县| 长汀县| 车险| 台中市| 庆阳市| 沧源| 阜康市| 五莲县| 太康县| 冀州市| 纳雍县|