日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

為什么要使用集成學(xué)習(xí) 機(jī)器學(xué)習(xí)建模的偏差和方差

2a37_sessdw ? 來(lái)源:偶數(shù)科技 ? 作者:小偶 ? 2021-08-14 09:52 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

我們?cè)谏钪凶龀龅脑S多決定都是基于其他人的意見(jiàn),而通常情況下由一群人做出的決策比由該群體中的任何一個(gè)成員做出的決策會(huì)產(chǎn)生更好的結(jié)果,這被稱為群體的智慧。集成學(xué)習(xí)(Ensemble Learning)類似于這種思想,集成學(xué)習(xí)結(jié)合了來(lái)自多個(gè)模型的預(yù)測(cè),旨在比集成該學(xué)習(xí)器的任何成員表現(xiàn)得更好,從而提升預(yù)測(cè)性能(模型的準(zhǔn)確率),預(yù)測(cè)性能也是許多分類和回歸問(wèn)題的最重要的關(guān)注點(diǎn)。

集成學(xué)習(xí)(Ensemble Learning)是將若干個(gè)弱分類器(也可以是回歸器)組合從而產(chǎn)生一個(gè)新的分類器。(弱分類器是指分類準(zhǔn)確率略好于隨機(jī)猜想的分類器,即error rate 《 0.5)。

集成機(jī)器學(xué)習(xí)涉及結(jié)合來(lái)自多個(gè)熟練模型的預(yù)測(cè),該算法的成功在于保證弱分類器的多樣性。而且集成不穩(wěn)定的算法也能夠得到一個(gè)比較明顯的性能提升。集成學(xué)習(xí)是一種思想。當(dāng)預(yù)測(cè)建模項(xiàng)目的最佳性能是最重要的結(jié)果時(shí),集成學(xué)習(xí)方法很受歡迎,通常是首選技術(shù)。

為什么要使用集成學(xué)習(xí)?

(1) 性能更好:與任何單個(gè)模型的貢獻(xiàn)相比,集成可以做出更好的預(yù)測(cè)并獲得更好的性能;

(2) 魯棒性更強(qiáng):集成減少了預(yù)測(cè)和模型性能的傳播或分散,平滑了模型的預(yù)期性能。

(3) 更加合理的邊界:弱分類器間存在一定差異性,導(dǎo)致分類的邊界不同。多個(gè)弱分類器合并后,就可以得到更加合理的邊界,減少整體的錯(cuò)誤率,實(shí)現(xiàn)更好的效果;

(4) 適應(yīng)不同樣本體量:對(duì)于樣本的過(guò)大或者過(guò)小,可分別進(jìn)行劃分和有放回的操作產(chǎn)生不同的樣本子集,再使用樣本子集訓(xùn)練不同的分類器,最后進(jìn)行合并;

(5) 易于融合:對(duì)于多個(gè)異構(gòu)特征數(shù)據(jù)集,很難進(jìn)行融合,可以對(duì)每個(gè)數(shù)據(jù)集進(jìn)行建模,再進(jìn)行模型融合。

機(jī)器學(xué)習(xí)建模的偏差和方差

機(jī)器學(xué)習(xí)模型產(chǎn)生的錯(cuò)誤通常用兩個(gè)屬性來(lái)描述:偏差和方差。

偏差是衡量模型可以捕獲輸入和輸出之間的映射函數(shù)的接近程度。它捕獲了模型的剛性:模型對(duì)輸入和輸出之間映射的函數(shù)形式的假設(shè)強(qiáng)度。

模型的方差是模型在擬合不同訓(xùn)練數(shù)據(jù)時(shí)的性能變化量。它捕獲數(shù)據(jù)的細(xì)節(jié)對(duì)模型的影響。

理想情況下,我們更喜歡低偏差和低方差的模型,事實(shí)上,這也是針對(duì)給定的預(yù)測(cè)建模問(wèn)題應(yīng)用機(jī)器學(xué)習(xí)的目標(biāo)。模型性能的偏差和方差是相關(guān)的,減少偏差通??梢酝ㄟ^(guò)增加方差來(lái)輕松實(shí)現(xiàn)。相反,通過(guò)增加偏差可以很容易地減少方差。

與單個(gè)預(yù)測(cè)模型相比,集成用在預(yù)測(cè)建模問(wèn)題上實(shí)現(xiàn)更好的預(yù)測(cè)性能。實(shí)現(xiàn)這一點(diǎn)的方式可以理解為模型通過(guò)添加偏差來(lái)減少預(yù)測(cè)誤差的方差分量(即權(quán)衡偏差-方差的情況下)。

集成學(xué)習(xí)之Bagging思想

Bagging又稱自舉匯聚法(Bootstrap Aggregating),涉及在同一數(shù)據(jù)集的不同樣本上擬合許多學(xué)習(xí)器并對(duì)預(yù)測(cè)進(jìn)行平均,通過(guò)改變訓(xùn)練數(shù)據(jù)來(lái)尋找多樣化的集成成員。

Bagging思想就是在原始數(shù)據(jù)集上通過(guò)有放回的抽樣,重新選擇出N個(gè)新數(shù)據(jù)集來(lái)分別訓(xùn)練N個(gè)分類器的集成技術(shù)。模型訓(xùn)練數(shù)據(jù)中允許存在重復(fù)數(shù)據(jù)。

使用Bagging方法訓(xùn)練出來(lái)的模型在預(yù)測(cè)新樣本分類的時(shí)候,會(huì)使用多數(shù)投票或者取平均值的策略來(lái)統(tǒng)計(jì)最終的分類結(jié)果。

基于Bagging的弱學(xué)習(xí)器(分類器/回歸器)可以是基本的算法模型,如Linear、Ridge、Lasso、Logistic、Softmax、ID3、C4.5、CART、SVM、KNN、Naive Bayes等。

隨機(jī)森林 (Random Forest)

1. 隨機(jī)森林算法原理

隨機(jī)森林是在Bagging策略的基礎(chǔ)上進(jìn)行修改后的一種算法,方法如下:(1) 使用Bootstrap策略從樣本集中進(jìn)行數(shù)據(jù)采樣;(2) 從所有特征中隨機(jī)選擇K個(gè)特征,構(gòu)建正常決策樹;(3) 重復(fù)1,2多次,構(gòu)建多棵決策樹;(4) 集成多棵決策樹,形成隨機(jī)森林,通過(guò)投票表決或取平均值對(duì)數(shù)據(jù)進(jìn)行決策。

2. 隨機(jī)森林OOB Error

在隨機(jī)森林中可以發(fā)現(xiàn)Bootstrap采樣每次約有1/3的樣本不會(huì)出現(xiàn)在Bootstrap所采樣的樣本集合中,當(dāng)然也沒(méi)有參加決策樹的建立,而這部分?jǐn)?shù)據(jù)稱之為袋外數(shù)據(jù)OOB(out of bag),它可以用于取代測(cè)試集誤差估計(jì)方法。

對(duì)于已經(jīng)生成的隨機(jī)森林,用袋外數(shù)據(jù)測(cè)試其性能,假設(shè)袋外數(shù)據(jù)總數(shù)為O,用這O個(gè)袋外數(shù)據(jù)作為輸入,帶進(jìn)之前已經(jīng)生成的隨機(jī)森林分類器,分類器會(huì)給出O個(gè)數(shù)據(jù)相應(yīng)的分類,因?yàn)檫@O條數(shù)據(jù)的類型是已知的,則用正確的分類與隨機(jī)森林分類器的結(jié)果進(jìn)行比較,統(tǒng)計(jì)隨機(jī)森林分類器分類錯(cuò)誤的數(shù)目,設(shè)為X,則袋外數(shù)據(jù)誤差大小為X/O。

優(yōu)點(diǎn):這已經(jīng)經(jīng)過(guò)證明是無(wú)偏估計(jì)的,所以在隨機(jī)森林算法中不需要再進(jìn)行交叉驗(yàn)證或者單獨(dú)的測(cè)試集來(lái)獲取測(cè)試集誤差的無(wú)偏估計(jì)。

缺點(diǎn):當(dāng)數(shù)據(jù)量較小時(shí),Bootstrap采樣產(chǎn)生的數(shù)據(jù)集改變了初始數(shù)據(jù)集的分布,這會(huì)引入估計(jì)偏差。

隨機(jī)森林算法變種

RF算法在實(shí)際應(yīng)用中具有比較好的特性,應(yīng)用也比較廣泛,主要應(yīng)用在:分類、歸回、特征轉(zhuǎn)換、異常點(diǎn)檢測(cè)等。

以下為常見(jiàn)的RF變種算法:

Extra Trees (ET)

Totally Random Trees Embedding (TRTE)

Isolation Forest (IForest)

1. Extra Trees (ET)

Extra-Trees(Extremely randomized trees,極端隨機(jī)樹)是由Pierre Geurts等人于2006年提出。是RF的一個(gè)變種,原理基本和RF一樣。

但該算法與隨機(jī)森林有兩點(diǎn)主要的區(qū)別:(1) 隨機(jī)森林會(huì)使用Bootstrap進(jìn)行隨機(jī)采樣,作為子決策樹的訓(xùn)練集,應(yīng)用的是Bagging模型;而ET使用所有的訓(xùn)練樣本對(duì)每棵子樹進(jìn)行訓(xùn)練,也就是ET的每個(gè)子決策樹采用原始樣本訓(xùn)練;(2) 隨機(jī)森林在選擇劃分特征點(diǎn)的時(shí)候會(huì)和傳統(tǒng)決策樹一樣(基于信息增益、信息增益率、基尼系數(shù)、均方差等),而ET是完全隨機(jī)的選擇劃分特征來(lái)劃分決策樹。

對(duì)于某棵決策樹,由于它的最佳劃分特征是隨機(jī)選擇的,因此它的預(yù)測(cè)結(jié)果往往是不準(zhǔn)確的,但是多棵決策樹組合在一起,就可以達(dá)到很好的預(yù)測(cè)效果。

當(dāng)ET構(gòu)建完成,我們也可以應(yīng)用全部訓(xùn)練樣本得到該ET的誤差。因?yàn)楸M管構(gòu)建決策樹和預(yù)測(cè)應(yīng)用的都是同一個(gè)訓(xùn)練樣本集,但由于最佳劃分屬性是隨機(jī)選擇的,所以我們?nèi)匀粫?huì)得到完全不同的預(yù)測(cè)結(jié)果,用該預(yù)測(cè)結(jié)果就可以與樣本的真實(shí)響應(yīng)值比較,從而得到預(yù)測(cè)誤差。如果與隨機(jī)森林相類比的話,在ET中,全部訓(xùn)練樣本都是OOB樣本,所以計(jì)算ET的預(yù)測(cè)誤差,也就是計(jì)算這個(gè)OOB誤差。

由于Extra Trees是隨機(jī)選擇特征值的劃分點(diǎn),會(huì)導(dǎo)致決策樹的規(guī)模一般大于RF所生成的決策樹。也就是說(shuō)Extra Trees模型的方差相對(duì)于RF進(jìn)一步減少。在某些情況下,ET具有比隨機(jī)森林更強(qiáng)的泛化能力。

2. Totally Random Trees Embedding (TRTE)

TRTE是一種非監(jiān)督學(xué)習(xí)的數(shù)據(jù)轉(zhuǎn)化方式。它將低維的數(shù)據(jù)映射到高維,從而讓映射到高維的數(shù)據(jù)更好的應(yīng)用于分類回歸模型。

TRTE算法的轉(zhuǎn)換過(guò)程類似RF算法的方法,建立T個(gè)決策樹來(lái)擬合數(shù)據(jù)。當(dāng)決策樹構(gòu)建完成后,數(shù)據(jù)集里的每個(gè)數(shù)據(jù)在T個(gè)決策子樹中葉子節(jié)點(diǎn)的位置就定下來(lái)了,將位置信息轉(zhuǎn)換為向量就完成了特征轉(zhuǎn)換操作。

例如,有3棵決策樹,每棵決策樹有5個(gè)葉子節(jié)點(diǎn),某個(gè)數(shù)據(jù)特征x劃分到第一個(gè)決策樹的第3個(gè)葉子節(jié)點(diǎn),第二個(gè)決策樹的第1個(gè)葉子節(jié)點(diǎn),第三個(gè)決策樹的第5個(gè)葉子節(jié)點(diǎn)。則x映射后的特征編碼為(0,0,1,0,0 1,0,0,0,0 0,0,0,0,1),有15維的高維特征。特征映射到高維之后,就可以進(jìn)一步進(jìn)行監(jiān)督學(xué)習(xí)。

3. Isolation Forest (IForest)IForest是一種異常點(diǎn)檢測(cè)算法,使用類似RF的方式來(lái)檢測(cè)異常點(diǎn)。

IForest算法和RF算法的區(qū)別在于:

(1) 在隨機(jī)采樣的過(guò)程中,一般只需要少量數(shù)據(jù)即可;

(2) 在進(jìn)行決策樹構(gòu)建過(guò)程中,IForest算法會(huì)隨機(jī)選擇一個(gè)劃分特征,并對(duì)劃分特征隨機(jī)選擇一個(gè)劃分閾值;

(3) IForest算法構(gòu)建的決策樹一般深度max_depth是比較小的。

IForest的目的是異常點(diǎn)檢測(cè),所以只要能夠區(qū)分異常數(shù)據(jù)即可,不需要大量數(shù)據(jù);另外在異常點(diǎn)檢測(cè)的過(guò)程中,一般不需要太大規(guī)模的決策樹。

對(duì)于異常點(diǎn)的判斷,則是將測(cè)試樣本x擬合到T棵決策樹上。計(jì)算在每棵樹上該樣本的葉子結(jié)點(diǎn)的深度ht(x)。從而計(jì)算出平均深度h(x);然后就可以使用下列公式計(jì)算樣本點(diǎn)x的異常概率值,p(s,m)的取值范圍為[0,1],越接近于1,則是異常點(diǎn)的概率越大。

1a9f287a-fca0-11eb-9bcf-12bb97331649.png

1ac7ec4c-fca0-11eb-9bcf-12bb97331649.png

m為樣本個(gè)數(shù),ξ 為歐拉常數(shù)

隨機(jī)森林優(yōu)缺點(diǎn)總結(jié)

本文我們一起了解了Bagging思想及其原理,以及基于Bagging的隨機(jī)森林相關(guān)知識(shí)。最后,讓我們一起總結(jié)下隨機(jī)森林的優(yōu)缺點(diǎn):

優(yōu)點(diǎn)

訓(xùn)練可以并行化,對(duì)于大規(guī)模樣本的訓(xùn)練具有速度的優(yōu)勢(shì);

由于進(jìn)行隨機(jī)選擇決策樹劃分特征列表,這樣在樣本維度比較高的時(shí)候,仍然具有比較好的訓(xùn)練性能;

由于存在隨機(jī)抽樣,訓(xùn)練出來(lái)的模型方差小,泛化能力強(qiáng);

實(shí)現(xiàn)簡(jiǎn)單;

對(duì)于部分特征缺失不敏感;

可以衡量特征的重要性。

缺點(diǎn)

在某些噪聲比較大的特征上,易過(guò)擬合;

取值比較多的劃分特征對(duì)RF的決策會(huì)產(chǎn)生更大的影響,從而有可能影響模型的效果。

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 集成學(xué)習(xí)
    +關(guān)注

    關(guān)注

    0

    文章

    11

    瀏覽量

    7550
  • 分類器
    +關(guān)注

    關(guān)注

    0

    文章

    153

    瀏覽量

    13846
  • 數(shù)據(jù)采樣
    +關(guān)注

    關(guān)注

    0

    文章

    11

    瀏覽量

    6811

原文標(biāo)題:機(jī)器學(xué)習(xí)建模中的Bagging思想

文章出處:【微信號(hào):sessdw,微信公眾號(hào):三星半導(dǎo)體互動(dòng)平臺(tái)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    機(jī)器學(xué)習(xí)中的數(shù)據(jù)質(zhì)量雙保障:從“驗(yàn)證”到“標(biāo)記”

    機(jī)器學(xué)習(xí)的世界里,有句老話尤為貼切:“garbagein,garbageout”(輸入垃圾,輸出垃圾)。無(wú)論模型架構(gòu)多先進(jìn)、算法多精妙,數(shù)據(jù)的質(zhì)量始終是決定模型性能的核心。本文聚焦數(shù)據(jù)處理中兩個(gè)
    的頭像 發(fā)表于 04-24 15:48 ?122次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>中的數(shù)據(jù)質(zhì)量雙保障:從“驗(yàn)證”到“標(biāo)記”

    人工智能與機(jī)器學(xué)習(xí)在這些行業(yè)的深度應(yīng)用

    自人工智能和機(jī)器學(xué)習(xí)問(wèn)世以來(lái),多個(gè)在線領(lǐng)域的數(shù)字化格局迎來(lái)了翻天覆地的變化。這些技術(shù)從誕生之初就為企業(yè)賦予了競(jìng)爭(zhēng)優(yōu)勢(shì),而在線行業(yè)正是受其影響最為顯著的領(lǐng)域。人工智能(AI)與機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 02-04 14:44 ?710次閱讀

    強(qiáng)化學(xué)習(xí)會(huì)讓自動(dòng)駕駛模型學(xué)習(xí)更快嗎?

    是一種讓機(jī)器通過(guò)“試錯(cuò)”學(xué)會(huì)決策的辦法。與監(jiān)督學(xué)習(xí)不同,監(jiān)督學(xué)習(xí)是有人提供示范答案,讓模型去模仿;而強(qiáng)化學(xué)習(xí)不會(huì)把每一步的“正確答案”都告訴你,而是把環(huán)境、動(dòng)作和結(jié)果連起來(lái),讓
    的頭像 發(fā)表于 01-31 09:34 ?860次閱讀
    強(qiáng)化<b class='flag-5'>學(xué)習(xí)</b>會(huì)讓自動(dòng)駕駛模型<b class='flag-5'>學(xué)習(xí)</b>更快嗎?

    機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中需避免的 7 個(gè)常見(jiàn)錯(cuò)誤與局限性

    無(wú)論你是剛?cè)腴T還是已經(jīng)從事人工智能模型相關(guān)工作一段時(shí)間,機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中都存在一些我們需要時(shí)刻關(guān)注并銘記的常見(jiàn)錯(cuò)誤。如果對(duì)這些錯(cuò)誤置之不理,日后可能會(huì)引發(fā)諸多麻煩!只要我們密切關(guān)注數(shù)據(jù)、模型架構(gòu)
    的頭像 發(fā)表于 01-07 15:37 ?368次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>和深度<b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個(gè)常見(jiàn)錯(cuò)誤與局限性

    基于ETAS嵌入式AI工具鏈將機(jī)器學(xué)習(xí)模型部署到量產(chǎn)ECU

    AI在汽車行業(yè)的應(yīng)用日益深化,如何將機(jī)器學(xué)習(xí)領(lǐng)域的先進(jìn)模型(如虛擬傳感器)集成到ECU軟件中,已成為業(yè)界面臨的核心挑戰(zhàn)。
    的頭像 發(fā)表于 12-24 10:55 ?6417次閱讀
    基于ETAS嵌入式AI工具鏈將<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>模型部署到量產(chǎn)ECU

    從0到1,10+年資深LabVIEW專家,手把手教你攻克機(jī)器視覺(jué)+深度學(xué)習(xí)(5000分鐘實(shí)戰(zhàn)課)

    “告別檢測(cè)系統(tǒng)能力缺陷!10+年LabVIEW視覺(jué)資深專家手把手教你:5000+分鐘高清教程(含工具、算法原理、實(shí)戰(zhàn)操作、項(xiàng)目?jī)?yōu)化全流程講解)”——從傳統(tǒng)視覺(jué)算法→深度學(xué)習(xí)建模→工業(yè)級(jí)部署"
    的頭像 發(fā)表于 12-02 08:07 ?789次閱讀
    從0到1,10+年資深LabVIEW專家,手把手教你攻克<b class='flag-5'>機(jī)器</b>視覺(jué)+深度<b class='flag-5'>學(xué)習(xí)</b>(5000分鐘實(shí)戰(zhàn)課)

    如何深度學(xué)習(xí)機(jī)器視覺(jué)的應(yīng)用場(chǎng)景

    檢測(cè)應(yīng)用 微細(xì)缺陷識(shí)別:檢測(cè)肉眼難以發(fā)現(xiàn)的微小缺陷和異常 紋理分析:對(duì)材料表面紋理進(jìn)行智能分析和缺陷識(shí)別 3D表面重建:通過(guò)深度學(xué)習(xí)進(jìn)行高精度3D建模和檢測(cè) 電子行業(yè)應(yīng)用 PCB板復(fù)雜缺陷檢測(cè):連焊、虛焊、漏焊等焊接質(zhì)量問(wèn)題 芯片
    的頭像 發(fā)表于 11-27 10:19 ?353次閱讀

    如何在機(jī)器視覺(jué)中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    人士而言往往難以理解,人們也常常誤以為需要扎實(shí)的編程技能才能真正掌握并合理使用這項(xiàng)技術(shù)。事實(shí)上,這種印象忽視了該技術(shù)為機(jī)器視覺(jué)(乃至生產(chǎn)自動(dòng)化)帶來(lái)的潛力,因?yàn)樯疃?b class='flag-5'>學(xué)習(xí)并非只屬于計(jì)算機(jī)科學(xué)家或程序員。 從頭開始:什么
    的頭像 發(fā)表于 09-10 17:38 ?1077次閱讀
    如何在<b class='flag-5'>機(jī)器</b>視覺(jué)中部署深度<b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    AI 驅(qū)動(dòng)三維逆向:點(diǎn)云降噪算法工具與機(jī)器學(xué)習(xí)建模能力的前沿應(yīng)用

    在三維逆向工程領(lǐng)域,傳統(tǒng)方法在處理復(fù)雜數(shù)據(jù)和構(gòu)建高精度模型時(shí)面臨諸多挑戰(zhàn)。隨著人工智能(AI)技術(shù)的發(fā)展,點(diǎn)云降噪算法工具與機(jī)器學(xué)習(xí)建模能力的應(yīng)用,為三維逆向工程帶來(lái)了創(chuàng)新性解決方案,顯著提升
    的頭像 發(fā)表于 08-20 10:00 ?886次閱讀
    AI 驅(qū)動(dòng)三維逆向:點(diǎn)云降噪算法工具與<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>建模</b>能力的前沿應(yīng)用

    FPGA在機(jī)器學(xué)習(xí)中的具體應(yīng)用

    隨著機(jī)器學(xué)習(xí)和人工智能技術(shù)的迅猛發(fā)展,傳統(tǒng)的中央處理單元(CPU)和圖形處理單元(GPU)已經(jīng)無(wú)法滿足高效處理大規(guī)模數(shù)據(jù)和復(fù)雜模型的需求。FPGA(現(xiàn)場(chǎng)可編程門陣列)作為一種靈活且高效的硬件加速平臺(tái)
    的頭像 發(fā)表于 07-16 15:34 ?3118次閱讀

    NVIDIA Isaac Lab可用環(huán)境與強(qiáng)化學(xué)習(xí)腳本使用指南

    Lab 是一個(gè)適用于機(jī)器人學(xué)習(xí)的開源模塊化框架,其模塊化高保真仿真適用于各種訓(xùn)練環(huán)境,Isaac Lab 同時(shí)支持模仿學(xué)習(xí)(模仿人類)和強(qiáng)化學(xué)習(xí)(在嘗試和錯(cuò)誤中進(jìn)行學(xué)習(xí)),為所有
    的頭像 發(fā)表于 07-14 15:29 ?2678次閱讀
    NVIDIA Isaac Lab可用環(huán)境與強(qiáng)化<b class='flag-5'>學(xué)習(xí)</b>腳本使用指南

    明晚開播 |數(shù)據(jù)智能系列講座第7期:面向高泛化能力的視覺(jué)感知系統(tǒng)空間建模與微調(diào)學(xué)習(xí)

    鷺島論壇數(shù)據(jù)智能系列講座第7期「面向高泛化能力的視覺(jué)感知系統(tǒng)空間建模與微調(diào)學(xué)習(xí)」明晚8點(diǎn)精彩開播期待與您云相聚,共襄學(xué)術(shù)盛宴!|直播信息報(bào)告題目面向高泛化能力的視覺(jué)感知系統(tǒng)空間建模與微調(diào)學(xué)習(xí)
    的頭像 發(fā)表于 06-24 08:01 ?1240次閱讀
    明晚開播 |數(shù)據(jù)智能系列講座第7期:面向高泛化能力的視覺(jué)感知系統(tǒng)空間<b class='flag-5'>建模</b>與微調(diào)<b class='flag-5'>學(xué)習(xí)</b>

    邊緣計(jì)算中的機(jī)器學(xué)習(xí):基于 Linux 系統(tǒng)的實(shí)時(shí)推理模型部署與工業(yè)集成!

    你好,旅行者!歡迎來(lái)到Medium的這一角落。在本文中,我們將把一個(gè)機(jī)器學(xué)習(xí)模型(神經(jīng)網(wǎng)絡(luò))部署到邊緣設(shè)備上,利用從ModbusTCP寄存器獲取的實(shí)時(shí)數(shù)據(jù)來(lái)預(yù)測(cè)一臺(tái)復(fù)古音頻放大器的當(dāng)前健康狀況。你將
    的頭像 發(fā)表于 06-11 17:22 ?1171次閱讀
    邊緣計(jì)算中的<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>:基于 Linux 系統(tǒng)的實(shí)時(shí)推理模型部署與工業(yè)<b class='flag-5'>集成</b>!

    直播預(yù)約 |數(shù)據(jù)智能系列講座第7期:面向高泛化能力的視覺(jué)感知系統(tǒng)空間建模與微調(diào)學(xué)習(xí)

    建模與微調(diào)學(xué)習(xí)報(bào)告簡(jiǎn)介構(gòu)建高效、物理一致且具備良好泛化能力的視覺(jué)感知系統(tǒng),是視覺(jué)智能、邊緣計(jì)算與具身機(jī)器人中的關(guān)鍵挑戰(zhàn)。為提升系統(tǒng)的泛化與適應(yīng)能力,一類方法致力于構(gòu)
    的頭像 發(fā)表于 05-29 10:04 ?769次閱讀
    直播預(yù)約 |數(shù)據(jù)智能系列講座第7期:面向高泛化能力的視覺(jué)感知系統(tǒng)空間<b class='flag-5'>建模</b>與微調(diào)<b class='flag-5'>學(xué)習(xí)</b>

    使用MATLAB進(jìn)行無(wú)監(jiān)督學(xué)習(xí)

    無(wú)監(jiān)督學(xué)習(xí)是一種根據(jù)未標(biāo)注數(shù)據(jù)進(jìn)行推斷的機(jī)器學(xué)習(xí)方法。無(wú)監(jiān)督學(xué)習(xí)旨在識(shí)別數(shù)據(jù)中隱藏的模式和關(guān)系,無(wú)需任何監(jiān)督或關(guān)于結(jié)果的先驗(yàn)知識(shí)。
    的頭像 發(fā)表于 05-16 14:48 ?1639次閱讀
    使用MATLAB進(jìn)行無(wú)監(jiān)督<b class='flag-5'>學(xué)習(xí)</b>
    华亭县| 郑州市| 紫阳县| 崇信县| 道孚县| 淳化县| 渝中区| 克拉玛依市| 建湖县| 桐柏县| 新宾| 广丰县| 博乐市| 石屏县| 福安市| 温泉县| 文成县| 安图县| 丽水市| 大洼县| 蚌埠市| 余江县| 滨海县| 新竹县| 喜德县| 阳朔县| 张家界市| 博兴县| 甘孜县| 民勤县| 东乌珠穆沁旗| 烟台市| 靖西县| 嘉鱼县| 和林格尔县| 邵阳县| 宣恩县| 施秉县| 蕉岭县| 醴陵市| 永吉县|