日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

對scikit-learn和numpy生成數(shù)據(jù)樣本的方法做一個總結(jié)

lviY_AI_shequ ? 來源:cc ? 2019-02-14 13:54 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

????在學(xué)習(xí)機器學(xué)習(xí)算法的過程中,我們經(jīng)常需要數(shù)據(jù)來驗證算法,調(diào)試參數(shù)。但是找到一組十分合適某種特定算法類型的數(shù)據(jù)樣本卻不那么容易。還好numpy, scikit-learn都提供了隨機數(shù)據(jù)生成的功能,我們可以自己生成適合某一種模型的數(shù)據(jù),用隨機數(shù)據(jù)來做清洗,歸一化,轉(zhuǎn)換,然后選擇模型與算法做擬合和預(yù)測。

1. numpy隨機數(shù)據(jù)生成API????

numpy比較適合用來生產(chǎn)一些簡單的抽樣數(shù)據(jù)。API都在random類中,常見的API有:

1)rand(d0,d1,...,dn) 用來生成d0×d1×...dn維的數(shù)組 。數(shù)組的值在[0,1)之間

例如:np.random.rand(3,2,2),輸出如下3×2×2的數(shù)組

array([[[ 0.49042678, 0.60643763], [ 0.18370487, 0.10836908]], [[ 0.38269728, 0.66130293], [ 0.5775944 , 0.52354981]],

[[ 0.71705929, 0.89453574], [ 0.36245334, 0.37545211]]])

2)randn((d0,d1,...,dn)也是用來生成d0xd1x...dn維的數(shù)組。不過數(shù)組的值服從N(0,1)的標(biāo)準(zhǔn)正態(tài)分布。

例如:np.random.randn(3,2),輸出如下3x2的數(shù)組,這些值是N(0,1)的抽樣數(shù)據(jù)。

array([[-0.5889483 , -0.34054626], [-2.03094528, -0.21205145], [-0.20804811, -0.97289898]])

如果需要服從的正態(tài)分布,只需要在randn上每個生成的值x上做變換即可 。

例如:2*np.random.randn(3,2) + 1,輸出如下3x2的數(shù)組,這些值是N(1,4)的抽樣數(shù)據(jù)。

array([[ 2.32910328, -0.677016 ], [-0.09049511, 1.04687598], [ 2.13493001, 3.30025852]])

3)randint(low[,high,size]),生成隨機的大小為size的數(shù)據(jù),size可以為整數(shù),為矩陣維數(shù),或者張量的維數(shù)。值位于半開區(qū)間 [low, high)。

例如:np.random.randint(3, size=[2,3,4])返回維數(shù)維2x3x4的數(shù)據(jù),取值范圍為最大值為3的整數(shù)。

array([[[2, 1, 2, 1],[0, 1, 2, 1],[2, 1, 0, 2]],[[0, 1, 0, 0],[1, 1, 2, 1],[1, 0, 1, 2]]])

再比如: np.random.randint(3, 6, size=[2,3]) 返回維數(shù)為2x3的數(shù)據(jù)。取值范圍為[3,6).

array([[4, 5, 3], [3, 4, 5]])

4)random_integers(low[,high,size]),和上面的randint類似,區(qū)別在于取值范圍是閉區(qū)間[low, high]。

5)random_sample([size]),返回隨機的浮點數(shù),在半開區(qū)間 [0.0, 1.0)。如果是其他區(qū)間[a,b),可以加以轉(zhuǎn)換(b - a) * random_sample([size]) + a

例如: (5-2)*np.random.random_sample(3)+2 返回[2,5)之間的3個隨機數(shù)。

array([ 2.87037573, 4.33790491, 2.1662832 ])

2. scikit-learn隨機數(shù)據(jù)生成API介紹

scikit-learn生成隨機數(shù)據(jù)的API都在datasets類之中,和numpy比起來,可以用來生成適合特定機器學(xué)習(xí)模型的數(shù)據(jù)。常用的API有:

1) 用make_regression生成回歸模型的數(shù)據(jù)

2) 用make_hastie_10_2,make_classification或者make_multilabel_classification生成分類模型數(shù)據(jù)

3) 用make_blobs生成聚類模型數(shù)據(jù)

4) 用make_gaussian_quantiles生成分組多維正態(tài)分布的數(shù)據(jù)

3. scikit-learn隨機數(shù)據(jù)生成實例

3.1回歸模型隨機數(shù)據(jù)

這里我們使用make_regression生成回歸模型數(shù)據(jù)。幾個關(guān)鍵參數(shù)有n_samples(生成樣本數(shù)), n_features(樣本特征數(shù)),noise(樣本隨機噪音)和coef(是否返回回歸系數(shù))。例子代碼如下:

import numpy as npimport matplotlib.pyplot as pltfrom sklearn.datasets.samples_generator import make_regression # X為樣本特征,y為樣本輸出, coef為回歸系數(shù),共1000個樣本,每個樣本1個特征X, y, coef =make_regression(n_samples=1000, n_features=1,noise=10, coef=True)# 畫圖plt.scatter(X, y, color='black')plt.plot(X, X*coef, color='blue',linewidth=3)plt.xticks(())plt.yticks(())plt.show()

輸出的圖如下:

3.2 分類模型隨機數(shù)據(jù)

這里我們用make_classification生成三元分類模型數(shù)據(jù)。幾個關(guān)鍵參數(shù)有n_samples(生成樣本數(shù)), n_features(樣本特征數(shù)), n_redundant(冗余特征數(shù))和n_classes(輸出的類別數(shù)),例子代碼如下:

import numpy as npimport matplotlib.pyplot as pltfrom sklearn.datasets.samples_generator import make_classification # X1為樣本特征,Y1為樣本類別輸出, 共400個樣本,每個樣本2個特征,輸出有3個類別,沒有冗余特征,每個類別一個簇X1, Y1 = make_classification(n_samples=400, n_features=2, n_redundant=0, n_clusters_per_class=1, n_classes=3)plt.scatter(X1[:, 0], X1[:, 1], marker='o', c=Y1)plt.show()

輸出的圖如下:

3.3 聚類模型隨機數(shù)據(jù)

這里我們用make_blobs生成聚類模型數(shù)據(jù)。幾個關(guān)鍵參數(shù)有n_samples(生成樣本數(shù)), n_features(樣本特征數(shù)),centers(簇中心的個數(shù)或者自定義的簇中心) 和 cluster_std(簇數(shù)據(jù)方差,代表簇的聚合程度)。例子如下:

import numpy as npimport matplotlib.pyplot as pltfrom sklearn.datasets.samples_generator import make_blobs # X為樣本特征,Y為樣本簇類別, 共1000個樣本,每個樣本2個特征,共3個簇,簇中心在[-1,-1], [1,1], [2,2], 簇方差分別為[0.4, 0.5, 0.2]X, y = make_blobs(n_samples=1000, n_features=2, centers=[[-1,-1], [1,1], [2,2]], cluster_std=[0.4, 0.5, 0.2])plt.scatter(X[:, 0], X[:, 1], marker='o', c=y)plt.show()

輸出的圖如下:

3.4 分組正態(tài)分布混合數(shù)據(jù)

我們用make_gaussian_quantiles生成分組多維正態(tài)分布的數(shù)據(jù)。幾個關(guān)鍵參數(shù)有n_samples(生成樣本數(shù)),n_features(正態(tài)分布的維數(shù)),mean(特征均值),cov(樣本協(xié)方差的系數(shù)), n_classes(數(shù)據(jù)在正態(tài)分布中按分位數(shù)分配的組數(shù))。 例子如下:

import numpy as npimport matplotlib.pyplot as pltfrom sklearn.datasets import make_gaussian_quantiles#生成2維正態(tài)分布,生成的數(shù)據(jù)按分位數(shù)分成3組,1000個樣本,2個樣本特征均值為1和2,協(xié)方差系數(shù)為2X1, Y1 = make_gaussian_quantiles(n_samples=1000, n_features=2, n_classes=3, mean=[1,2],cov=2)plt.scatter(X1[:, 0], X1[:, 1], marker='o', c=Y1)

輸出圖如下:

以上就是生產(chǎn)隨機數(shù)據(jù)的一個總結(jié),希望可以幫到學(xué)習(xí)機器學(xué)習(xí)算法的朋友們。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:機器學(xué)習(xí)算法的隨機數(shù)據(jù)生成

文章出處:【微信號:AI_shequ,微信公眾號:人工智能愛好者社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    RK3588做一個8層DEMO板大概要多少銀子?

    個人學(xué)習(xí)PCB,想做一個RK3588的DEMO八層PCB板,有做過的網(wǎng)友嗎?大概需要幾多銀子?
    發(fā)表于 03-19 12:06

    算法工程師需要具備哪些技能?

    開發(fā)(如NumPy、Pandas、Scikit-learn)。C++/Java:高性能場景(如大規(guī)模矩陣運算、分布式系統(tǒng)開發(fā))。 開發(fā)工具Linux命令行:文件操作、進程管理、日志分析等。Shell腳本
    發(fā)表于 02-27 10:53

    突破傳統(tǒng)限制:OxygenREC--基于指令跟隨的“快慢思考”電商生成式推薦框架

    在電商推薦系統(tǒng)中,推薦模型長期面臨著兩核心矛盾:方面,傳統(tǒng)的多階段級聯(lián)推薦系統(tǒng)存在目標(biāo)不致和誤差累積的問題;另方面,直接引入大型語言模型LLM雖然能帶來強大的推理能力,但其高昂
    的頭像 發(fā)表于 02-25 17:08 ?1212次閱讀
    突破傳統(tǒng)限制:OxygenREC--<b class='flag-5'>一</b><b class='flag-5'>個</b>基于指令跟隨的“快慢思考”電商<b class='flag-5'>生成</b>式推薦框架

    MCU之間快速傳輸數(shù)據(jù)方法

    的開銷會形成很大的矛盾,處理不好會導(dǎo)致系統(tǒng)整體性能急劇下降。這種方法只能用于通信量極少的場合。 4、口對口并行通信 利用單片機的口線直接相連,加上1~2條握手信號線。這種方式的特點是通信速度快,1次
    發(fā)表于 01-19 07:07

    CIE全國RISC-V創(chuàng)新應(yīng)用大賽 人臉識別系統(tǒng)介紹與移植

    、scikit-learn 等依賴的編譯需求,執(zhí)行以下命令(需管理員權(quán)限): 打開命令行,不要進入venv環(huán)境,直接輸入: sudo apt update && sudo apt
    發(fā)表于 11-08 11:19

    ?ADS8661W 數(shù)據(jù)手冊總結(jié)

    ADS8661Wis 是款基于逐次逼近 (SAR) 模數(shù)轉(zhuǎn)換器 (ADC) 拓撲的集成數(shù)據(jù)采集系統(tǒng)。該器件具有高速、高精度 SAR ADC、集成差分模擬前端 (AFE) 輸入驅(qū)動電路。該ADS8661W包括
    的頭像 發(fā)表于 10-23 09:17 ?688次閱讀
    ?ADS8661W <b class='flag-5'>數(shù)據(jù)</b>手冊<b class='flag-5'>總結(jié)</b>

    模板驅(qū)動 無需訓(xùn)練數(shù)據(jù) SmartDP解決小樣本AI算法模型開發(fā)難題

    。但是這個平臺不適用于小樣本AI模型開發(fā),特別是些特殊行業(yè),數(shù)據(jù)本來就不多,但又有著需求,因此陷于兩難。面臨這種市場困境,慧視光電推出了
    的頭像 發(fā)表于 09-09 17:57 ?1576次閱讀
    模板驅(qū)動  無需訓(xùn)練<b class='flag-5'>數(shù)據(jù)</b>  SmartDP解決小<b class='flag-5'>樣本</b>AI算法模型開發(fā)難題

    NVIDIA GR00T-Dreams助力光輪智能革新合成數(shù)據(jù)

    人工演示或遙操作的數(shù)據(jù)收集方式,效率低下且受限于物理世界的諸多約束。而如今,光輪智能借助 NVIDIA GR00T-Dreams,成功開創(chuàng)了全新的合成數(shù)據(jù)
    的頭像 發(fā)表于 08-20 14:29 ?1758次閱讀

    yolov11轉(zhuǎn)kmodel,numpy是要降級為1.x嗎?

    python3.9,yolo是最新的穩(wěn)定版,和yolo捆綁pip安裝的numpy是2.0.1 錯誤日志
    發(fā)表于 08-11 08:16

    如何使用WaveDac8設(shè)置簡單的數(shù)據(jù)采集系統(tǒng),以生成不同持續(xù)時間的脈沖?

    我目前正在嘗試使用 WaveDac8 設(shè)置簡單的數(shù)據(jù)采集系統(tǒng),以生成不同持續(xù)時間的脈沖,并應(yīng)用于 RC 簡單電路。我成功生成了 250
    發(fā)表于 07-25 07:55

    破解數(shù)據(jù)瓶頸:智能汽車合成數(shù)據(jù)架構(gòu)與應(yīng)用實踐

    成數(shù)據(jù)因可控等特性,已成為智能汽車感知系統(tǒng)數(shù)據(jù)成本高、場景覆蓋不足等困境的突破方向!。本文探討其體系原則、分層結(jié)構(gòu),聚焦艙外道路感知與艙內(nèi)乘員識別場景,闡述生成流程與實踐,助力感知系統(tǒng)開發(fā)!
    的頭像 發(fā)表于 07-16 10:31 ?1233次閱讀
    破解<b class='flag-5'>數(shù)據(jù)</b>瓶頸:智能汽車合<b class='flag-5'>成數(shù)據(jù)</b>架構(gòu)與應(yīng)用實踐

    破解數(shù)據(jù)瓶頸:智能汽車合成數(shù)據(jù)架構(gòu)與應(yīng)用實踐

    智能汽車感知系統(tǒng)面臨數(shù)據(jù)困境,如結(jié)構(gòu)復(fù)雜、成本高昂、覆蓋受限、合規(guī)性與隱私風(fēng)險突出。合成數(shù)據(jù)作為新型數(shù)據(jù)生成方式,以高度可配置性、自動化、可復(fù)現(xiàn)為特點,有望解決這些問題。
    的頭像 發(fā)表于 07-15 11:48 ?795次閱讀
    破解<b class='flag-5'>數(shù)據(jù)</b>瓶頸:智能汽車合<b class='flag-5'>成數(shù)據(jù)</b>架構(gòu)與應(yīng)用實踐

    51Sim利用NVIDIA Cosmos提升輔助駕駛合成數(shù)據(jù)場景的泛化性

    51Sim 利用 NVIDIA Cosmos 的生成式世界基礎(chǔ)模型,對現(xiàn)有的合成數(shù)據(jù)進行大規(guī)模泛化,在確保物理真實性的前提下,大幅提升了數(shù)據(jù)的豐富度。同時依托 NVIDIA Issac Sim,將
    的頭像 發(fā)表于 06-26 09:09 ?1668次閱讀

    嵌入式AI技術(shù)漫談:怎么為訓(xùn)練AI模型采集樣本數(shù)據(jù)

    Q 需要為嵌入式AI模型提供多少樣本數(shù)據(jù)? 我在向客戶介紹如何使用AI方法設(shè)計款客戶產(chǎn)品時,客戶理解,AI嵌入式項目的開發(fā)都是圍繞數(shù)據(jù)展開的,如此,我經(jīng)常會被問到這樣的問題:客戶的工
    的頭像 發(fā)表于 06-11 16:30 ?1576次閱讀

    [Actor] 通過actor創(chuàng)建控制中心與數(shù)據(jù)采集工作站來看操作者架構(gòu)

    隊列”+“發(fā)送該隊列消息” 注:這里很重要,本人也是反復(fù)使用后才明白此處的功能。timer方法是被反復(fù)定時調(diào)用的,在該方法每次調(diào)用生成數(shù)據(jù),在生成
    發(fā)表于 05-14 18:44
    乳山市| 苗栗市| 隆昌县| 塔城市| 枝江市| 舟曲县| 兴和县| 麻阳| 渑池县| 保定市| 兴山县| 普兰店市| 石楼县| 宝坻区| 铜陵市| 南木林县| 博客| 冀州市| 五大连池市| 六安市| 房产| 西充县| 小金县| 会东县| 锦屏县| 从江县| 德保县| 威信县| 乌鲁木齐县| 韩城市| 勐海县| 大同市| 长寿区| 原阳县| 沾化县| 龙南县| 特克斯县| 湟源县| 玛多县| 安图县| 米脂县|