python的自带数据集_sklearn提供的自带的数据集

sklearn 的数据集有好多个种

自带的小数据集(packaged dataset):sklearn.datasets.load_

可在线下载的数据集(Downloaded Dataset):sklearn.datasets.fetch_

计算机生成的数据集(Generated Dataset):sklearn.datasets.make_

svmlight/libsvm格式的数据集:sklearn.datasets.load_svmlight_file(...)

从买了data.org在线下载获取的数据集:sklearn.datasets.fetch_mldata(...)

①自带的数据集

其中的自带的小的数据集为:sklearn.datasets.load_

578330-20170610195748356-1518693081.png

578330-20170610200352700-252034786.png

from sklearn.datasets importload_iris

#加载数据集

iris=load_iris()

iris.keys()  #dict_keys(['target', 'DESCR', 'data', 'target_names', 'feature_names'])

#数据的条数和维数

n_samples,n_features=iris.data.shapeprint("Number of sample:",n_samples) #Number of sample: 150print("Number of feature",n_features)  #Number of feature 4

#第一个样例print(iris.data[0])      #[ 5.1 3.5 1.4 0.2]print(iris.data.shape)    #(150, 4)print(iris.target.shape)  #(150,)print(iris.target)

"""

[0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1

1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2 2

2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2

2 2]

"""importnumpy as npprint(iris.target_names)  #['setosa' 'versicolor' 'virginica']

np.bincount(iris.target)  #[50 50 50]importmatplotlib.pyplot as plt

#以第3个索引为划分依据,x_index的值可以为0,1,2,3

x_index=3color=['blue','red','green']for label,color inzip(range(len(iris.target_names)),color):

plt.hist(iris.data[iris.target==label,x_index],label=iris.target_names[label],color=color)

plt.xlabel(iris.feature_names[x_index])

plt.legend(loc="Upper right")

plt.show()

#画散点图,第一维的数据作为x轴和第二维的数据作为y轴

x_index=0

y_index=1colors=['blue','red','green']for label,color inzip(range(len(iris.target_names)),colors):

plt.scatter(iris.data[iris.target==label,x_index],

iris.data[iris.target==label,y_index],

label=iris.target_names[label],

c=color)

plt.xlabel(iris.feature_names[x_index])

plt.ylabel(iris.feature_names[y_index])

plt.legend(loc='upper left')

plt.show()

578330-20170610204035481-1423707134.png

578330-20170610204045981-1189786688.png

手写数字数据集load_digits():用于多分类任务的数据集

from sklearn.datasets importload_digits

digits=load_digits()print(digits.data.shape)importmatplotlib.pyplot as plt

plt.gray()

plt.matshow(digits.images[0])

plt.show()from sklearn.datasets importload_digits

digits=load_digits()

digits.keys()

n_samples,n_features=digits.data.shapeprint((n_samples,n_features))print(digits.data.shape)print(digits.images.shape)importnumpy as npprint(np.all(digits.images.reshape((1797,64))==digits.data))

fig=plt.figure(figsize=(6,6))

fig.subplots_adjust(left=0,right=1,bottom=0,top=1,hspace=0.05,wspace=0.05)#绘制数字:每张图像8*8像素点

for i in range(64):

ax=fig.add_subplot(8,8,i+1,xticks=[],yticks=[])

ax.imshow(digits.images[i],cmap=plt.cm.binary,interpolation='nearest')#用目标值标记图像

ax.text(0,7,str(digits.target[i]))

plt.show()

578330-20170610211136200-792444698.png

578330-20170610211158965-245014452.png

乳腺癌数据集load-barest-cancer():简单经典的用于二分类任务的数据集

糖尿病数据集:load-diabetes():经典的用于回归认为的数据集,值得注意的是,这10个特征中的每个特征都已经被处理成0均值,方差归一化的特征值,

波士顿房价数据集:load-boston():经典的用于回归任务的数据集

体能训练数据集:load-linnerud():经典的用于多变量回归任务的数据集,其内部包含两个小数据集:Excise是对3个训练变量的20次观测(体重,腰围,脉搏),physiological是对3个生理学变量的20次观测(引体向上,仰卧起坐,立定跳远)

svmlight/libsvm的每一行样本的存放格式:

:: ....

这种格式比较适合用来存放稀疏数据,在sklearn中,用scipy sparse CSR矩阵来存放X,用numpy数组来存放Y

from sklearn.datasets importload_svmlight_file

x_train,y_train=load_svmlight_file("/path/to/train_dataset.txt","")#如果要加在多个数据的时候,可以用逗号隔开

②生成数据集

生成数据集:可以用来分类任务,可以用来回归任务,可以用来聚类任务,用于流形学习的,用于因子分解任务的

用于分类任务和聚类任务的:这些函数产生样本特征向量矩阵以及对应的类别标签集合

make_blobs:多类单标签数据集,为每个类分配一个或多个正太分布的点集

make_classification:多类单标签数据集,为每个类分配一个或多个正太分布的点集,提供了为数据添加噪声的方式,包括维度相关性,无效特征以及冗余特征等

make_gaussian-quantiles:将一个单高斯分布的点集划分为两个数量均等的点集,作为两类

make_hastie-10-2:产生一个相似的二元分类数据集,有10个维度

make_circle和make_moom产生二维二元分类数据集来测试某些算法的性能,可以为数据集添加噪声,可以为二元分类器产生一些球形判决界面的数据

#生成多类单标签数据集

importnumpy as npimportmatplotlib.pyplot as pltfrom sklearn.datasets.samples_generator importmake_blobs

center=[[1,1],[-1,-1],[1,-1]]

cluster_std=0.3X,labels=make_blobs(n_samples=200,centers=center,n_features=2,

cluster_std=cluster_std,random_state=0)print('X.shape',X.shape)print("labels",set(labels))

unique_lables=set(labels)

colors=plt.cm.Spectral(np.linspace(0,1,len(unique_lables)))for k,col inzip(unique_lables,colors):

x_k=X[labels==k]

plt.plot(x_k[:,0],x_k[:,1],'o',markerfacecolor=col,markeredgecolor="k",

markersize=14)

plt.title('data by make_blob()')

plt.show()

#生成用于分类的数据集from sklearn.datasets.samples_generator importmake_classification

X,labels=make_classification(n_samples=200,n_features=2,n_redundant=0,n_informative=2,

random_state=1,n_clusters_per_class=2)

rng=np.random.RandomState(2)

X+=2*rng.uniform(size=X.shape)

unique_lables=set(labels)

colors=plt.cm.Spectral(np.linspace(0,1,len(unique_lables)))for k,col inzip(unique_lables,colors):

x_k=X[labels==k]

plt.plot(x_k[:,0],x_k[:,1],'o',markerfacecolor=col,markeredgecolor="k",

markersize=14)

plt.title('data by make_classification()')

plt.show()

#生成球形判决界面的数据from sklearn.datasets.samples_generator importmake_circles

X,labels=make_circles(n_samples=200,noise=0.2,factor=0.2,random_state=1)print("X.shape:",X.shape)print("labels:",set(labels))

unique_lables=set(labels)

colors=plt.cm.Spectral(np.linspace(0,1,len(unique_lables)))for k,col inzip(unique_lables,colors):

x_k=X[labels==k]

plt.plot(x_k[:,0],x_k[:,1],'o',markerfacecolor=col,markeredgecolor="k",

markersize=14)

plt.title('data by make_moons()')

plt.show()

578330-20170614092558400-862303581.png

578330-20170614092526337-990734199.png

578330-20170614092711775-820515198.png

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值