目录
0.前言
在学习机器算法的过程中,我经常需要数据来验证算法,调试参数。但是找到一组十分合适某种特定算法类型的数据样本却不那么容易。numpy和scikit- learn都提供了随机数据生成功能,我们可以自己生成适合某一种模型的数据,用随机数据来做清洗,归一化,转换,然后选择模型与算法做拟合和预测。
1.numpy随机数据生成API
numpy比较适合用来生产一些简单的抽样数据。API都在random类中,常见的API有:
(1) rand(d0, d1, ..., dn) 用来生成d0xd1x...dn维的数组。数组的值在[0,1)之间,例如:np.random.rand(3,2,2),输出如下3x2x2的数组;
import matplotlib
from mistune import InlineParser
import numpy as np
import matplotlib.pyplot as plt
np.random.rand(3,3,2)
(2)randn(d0,d1,...,dn),也是用来生成d0xd1x...dn的数组,不过数组的值服从N(0,1)的标准正态分布。例如:np.random.randn(3,2),输出如下3x2的数组,这些值是N(0,1)的抽样数据。
如果需要服从N(𝜇,)的正态分布,只需在randn上每个生成的值x上做变换𝜎𝑥+μ即可,例如:2*np.random.randn(3,2)+1,输出如下3x2的数组,这些值是N(1,4)的抽样数据。
(3)randint(low[,high,size]),生成随机的大小为size的数据,size可以为整数,为矩阵维数,或者张量的维数。值位于半开区间[low,high)例如:np.random.randint(3, size=[2,3,4])返回维数为2x3x4的数据。取值范围为最大值为3的整数。
再比如:np.random.randint(3,6,size=[2,3])返回维数为2x3的数据。取值范围为[3,6).
(4)random_integers(low[,high,size]) ,和上面的randint类似,区别在于取值范围是闭区间[low,high].
(5)random_sample([size]),返回随机的浮点数,在半开区间[0.0,1.0),如果是其他区间[a,b),可以加以转换(b-a) * random_sample([size]) + a;例如: (5-2)*np.random.random_sample(3)+2 返回[2,5)之间的3个随机数。
2.scikit-learn 随机数据生成API介绍
scikit-learn生成随机数据的API都在datasets类之中,和numpy比起来,可以用来生成适合特定机器学习模型的数据。常用的API有:
(1)用make_regression生成回归模型的数据;
(2)make_hastie_10_2,make_classification make_multilabel_classification
(3)make_blobs
(4)make_gaussian_quantiles
3.scikit-learn随机数据生成实例
3.1回归模型随机数据
使用make_regression生成回归模型的数据,关键参数:n_samples(生成样本数),n_features(样本特征数),noise(样本随机噪音)和coef(是否返回回归系数)。
3.1.1代码实例
X为样本特征,y为样本输出,coef为回归系数,共1000个样本,每个样本1个特征。
from tkinter import N, Y
import numpy as np
import matplotlib.pyplot as plt
from sklearn.datasets._samples_generator import make_regression
X为样本特征,y为样本输出,coef为回归系数,共1000个样本,每个样本1个特征
X, y, coef = make_regression(n_samples = 10000, n_features = 1, noise = 10, coef = True)
#画图
plt.scatter(X,y, color='black')
plt.plot(X,X*coef, color='blue', linewidth=3)
plt.xticks(())
plt.yticks(())
plt.show()
3.1.2输出图像
3.2分类模型随机数据
这里我们用make_classification生成三元分类模型数据,关键参数:n_samples(生成样本数),n_features(样本特征数),n_redundant(冗余特征数),n_class(输出的类别数)
3.2.1代码实例
X1为样本特征,Y1为样本类别输出,共400个样本,每个样本个特征,输出有3个类别,没有冗余特征,每个类别一个醋。
import numpy as np
import matplotlib.pyplot as plt
from sklearn.datasets._samples_generator import make_classification
X1,Y1 = make_classification(n_samples = 400, n_features = 2, n_redundant = 0,
n_clusters_per_class = 1, n_classes = 3)
plt.scatter(X1[:, 0], X1[:,1], marker = 'o', c = Y1)
plt.show
3.2.2输出图像
3.3聚类模型随机数据
我们用make_blobs生成聚类模型数据,关键参数:n_samples(生成样本数),n_features(样本特征数),centers(蔟中心的个数或者自定义的蔟中心)和cluster_std(蔟数据方差,代表蔟的聚合程度)。
3.3.1代码实例
X为样本特征,Y为样本簇类别, 共1000个样本,每个样本2个特征,共3个簇,簇中心在[-1,-1], [1,1], [2,2], 簇方差分别为[0.4, 0.5, 0.2]。
from tkinter import Y
import numpy as np
import matplotlib.pyplot as plt
from sklearn.datasets._samples_generator import make_blobs
x,y = make_blobs(n_samples=1000, n_features = 2, centers = [[-1,-1],[1,1],[2,2]],cluster_std=[0.4,0.5,0.2])
plt.scatter(x[:,0],x[:,1],marker='o', c=y)
plt.show()
3.3.2输出图像
3.4分组正态分布混合数据
用make_gaussian_quantiles生成分组多维正态分布的数据,关键参数:n_samples(生成样本数),n_features(正态分布的维数), mean(特征均值),cov(样本协方差的系数) ,n_classes(数据在正态分布中按分位数分配的组数)
3.4.1代码实例
生成2维正态分布,生成的数据按分位数分成3组,1000个样本,2个样本特征均值为1和2,协方差系数为2。
from re import X
from tkinter import Y
import numpy as np
import matplotlib.pyplot as plt
from sklearn.datasets import make_gaussian_quantiles
X1,Y1 = make_gaussian_quantiles(n_samples=1000, n_features=2, n_classes=3, mean=[1,2],cov=2)
plt.scatter(X1[:,0],X1[:,1],marker='o',c=Y1)
3.4.2输出图像