sklearn K近邻法类库使用小结

 

1. scikit-learn 中KNN相关的类库概述

        在scikit-learn 中,与近邻法这一大类相关的类库都在sklearn.neighbors包之中。KNN分类树的类是KNeighborsClassifier,KNN回归树的类是KNeighborsRegressor。除此之外,还有KNN的扩展,即限定半径最近邻分类树的类RadiusNeighborsClassifier和限定半径最近邻回归树的类RadiusNeighborsRegressor, 以及最近质心分类算法NearestCentroid。

        在这些算法中,KNN分类和回归的类参数完全一样。限定半径最近邻法分类和回归的类的主要参数也和KNN基本一样。

        比较特别是的最近质心分类算法,由于它是直接选择最近质心来分类,所以仅有两个参数,距离度量和特征选择距离阈值,比较简单,因此后面就不再专门讲述最近质心分类算法的参数。

        另外几个在sklearn.neighbors包中但不是做分类回归预测的类也值得关注。kneighbors_graph类返回用KNN时和每个样本最近的K个训练集样本的位置。radius_neighbors_graph返回用限定半径最近邻法时和每个样本在限定半径内的训练集样本的位置。NearestNeighbors是个大杂烩,它即可以返回用KNN时和每个样本最近的K个训练集样本的位置,也可以返回用限定半径最近邻法时和每个样本最近的训练集样本的位置,常常用在聚类模型中。

 

2. K近邻法和限定半径最近邻法类库参数小结

        本节对K近邻法和限定半径最近邻法类库参数做一个总结。包括KNN分类树的类KNeighborsClassifier,KNN回归树的类KNeighborsRegressor, 限定半径最近邻分类树的类RadiusNeighborsClassifier和限定半径最近邻回归树的类RadiusNeighborsRegressor。这些类的重要参数基本相同,因此我们放到一起讲。

参数KNeighborsClassifierKNeighborsRegressorRadiusNeighborsClassifierRadiusNeighborsRegressor
KNN中的K值n_neighbors K值的选择与样本分布有关,一般选择一个较小的K值,可以通过交叉验证来选择一个比较优的K值,默认值是5。如果数据是三维一下的,如果数据是三维或者三维以下的,可以通过可视化观察来调参。不适用于限定半径最近邻法
限定半径最近邻法中的半radius 不适用于KNN半径的选择与样本分布有关,可以通过交叉验证来选择一个较小的半径,尽量保证每类训练样本其他类别样本的距离较远,默认值是1.0。如果数据是三维或者三维以下的,可以通过可视化观察来调参。
近邻权weights 

主要用于标识每个样本的近邻样本的权重,如果是KNN,就是K个近邻样本的权重,如果是限定半径最近邻,就是在距离在半径以内的近邻样本的权重。可以选择"uniform","distance" 或者自定义权重。选择默认的"uniform",意味着所有最近邻样本权重都一样,在做预测时一视同仁。如果是"distance",则权重和距离成反比例,即距离预测目标更近的近邻具有更高的权重,这样在预测类别或者做回归时,更近的近邻所占的影响因子会更加大。当然,我们也可以自定义权重,即自定义一个函数,输入是距离值,输出是权重值。这样我们可以自己控制不同的距离所对应的权重。

		<p>&nbsp;</p>

		<p>一般来说,如果样本的分布是比较成簇的,即各类样本都在相对分开的簇中时,我们用默认的"uniform"就可以了,如果样本的分布比较乱,规律不好寻找,选择"distance"是一个比较好的选择。如果用"distance"发现预测的效果的还是不好,可以考虑自定义距离权重来调优这个参数。</p>
		</td>
	</tr><tr><td>KNN和限定半径最近邻法使用的算法algorithm&nbsp;</td>
		<td colspan="4" rowspan="1">
		<p>算法一共有三种,第一种是蛮力实现,第二种是KD树实现,第三种是球树实现。对于这个参数,一共有4种可选输入,‘brute’对应第一种蛮力实现,‘kd_tree’对应第二种KD树实现,‘ball_tree’对应第三种的球树实现, ‘auto’则会在上面三种算法中做权衡,选择一个拟合最好的最优算法。<span style="color:#f33b45;">需要注意的是,如果输入样本特征是稀疏的时候,无论我们选择哪种算法,最后sklearn都会去用蛮力实现‘brute’</span>。</p>

		<p>&nbsp;</p>

		<p>个人的经验,如果样本少特征也少,使用默认的&nbsp;‘auto’就够了。 如果数据量很大或者特征也很多,用"auto"建树时间会很长,效率不高,建议选择KD树实现‘kd_tree’,此时如果发现‘kd_tree’速度比较慢或者已经知道样本分布不是很均匀时,可以尝试用‘ball_tree’。而如果输入样本是稀疏的,无论你选择哪个算法最后实际运行的都是‘brute’。</p>
		</td>
	</tr><tr><td>停止建子树的叶子节点阈值leaf_size</td>
		<td colspan="4" rowspan="1">
		<p>这个值控制了使用KD树或者球树时, 停止建子树的叶子节点数量的阈值。这个值越小,则生成的KD树或者球树就越大,层数越深,建树时间越长,反之,则生成的KD树或者球树会小,层数较浅,建树时间较短。默认是30. 这个值一般依赖于样本的数量,<span style="color:#e579b6;">随着样本数量的增加,这个值必须要增加,否则不光建树预测的时间长,还容易过拟合</span>。可以通过交叉验证来选择一个适中的值。</p>

		<p>&nbsp;</p>

		<p>如果使用的算法是蛮力实现,则这个参数可以忽略。</p>
		</td>
	</tr><tr><td>距离度量metric</td>
		<td colspan="4" rowspan="1">
		<p>&nbsp;K近邻法和限定半径最近邻法类可以使用的距离度量较多,一般来说默认的欧式距离(即p=2的闵可夫斯基距离)就可以满足我们的需求。可以使用的距离度量参数有:</p>

		<p>a) 欧式距离&nbsp;“euclidean”:&nbsp;&nbsp;<img alt="\sqrt_{\sum \limits_{i=1}^n(x_i-y_i)^2}" class="mathcode" src="https://private.codecogs.com/gif.latex?%5Csqrt_%7B%5Csum%20%5Climits_%7Bi%3D1%7D%5En%28x_i-y_i%29%5E2%7D"></p>

		<p>&nbsp;</p>

		<p>b)&nbsp;曼哈顿距离 “manhattan”:<img alt="\sum \limits_{i=1}^n |x_i- y_i|" class="mathcode" src="https://private.codecogs.com/gif.latex?%5Csum%20%5Climits_%7Bi%3D1%7D%5En%20%7Cx_i-%20y_i%7C"></p>

		<p>&nbsp;</p>

		<p>&nbsp;</p>

		<p>c)&nbsp;切比雪夫距离“chebyshev”:<img alt="max|x_i - y_i| )(i = 1,2,\dots,n)" class="mathcode" src="https://private.codecogs.com/gif.latex?max%7Cx_i%20-%20y_i%7C%20%29%28i%20%3D%201%2C2%2C%5Cdots%2Cn%29"></p>

		<p>d)&nbsp;闵可夫斯基距离&nbsp;“minkowski”(默认参数):<img alt="\sqrt[p]{\sum\limits_{i=1}^n(|x_i-y_i|)^p}" class="mathcode" src="https://private.codecogs.com/gif.latex?%5Csqrt%5Bp%5D%7B%5Csum%5Climits_%7Bi%3D1%7D%5En%28%7Cx_i-y_i%7C%29%5Ep%7D">&nbsp;, p =1 为曼哈顿距离,p =2 为欧式距离</p>

		<p>e)&nbsp;带权重闵可夫斯基距离&nbsp;“wminkowski”:<img alt="\sqrt[p]{\sum\limits_{i=1}^n (w *|x_i-y_i|)^p}" class="mathcode" src="https://private.codecogs.com/gif.latex?%5Csqrt%5Bp%5D%7B%5Csum%5Climits_%7Bi%3D1%7D%5En%20%28w%20*%7Cx_i-y_i%7C%29%5Ep%7D">&nbsp;, w 为特征权重</p>

		<p>&nbsp;</p>

		<p>&nbsp;</p>

		<p>f)&nbsp;&nbsp;标准化欧式距离&nbsp;“seuclidean”:即对于各特征维度做了归一化以后的欧式距离。此时各样本特征维度的均值为0,方差为1。</p>

		<p>&nbsp;</p>

		<p>g)&nbsp;马氏距离“mahalanobis”:<img alt="\sqrt{(x-y)^TS^{-1}(x-y)}" class="mathcode" src="https://private.codecogs.com/gif.latex?%5Csqrt%7B%28x-y%29%5ETS%5E%7B-1%7D%28x-y%29%7D">,其中,<img alt="S^{-1}" class="mathcode" src="https://private.codecogs.com/gif.latex?S%5E%7B-1%7D">为样本协方差矩阵的逆矩阵。当样本分布独立时, S为单位矩阵,此时马氏距离等同于欧式距离.</p>

		<p>&nbsp;</p>

		<p>还有一些其他不是实数的距离度量,一般在KNN之类的算法用不上,这里也就不列了。</p>
		</td>
	</tr><tr><td>距离度量附属参数p</td>
		<td colspan="4" rowspan="1">p是使用距离度量参数 metric 附属参数,只用于闵可夫斯基距离和带权重闵可夫斯基距离中p值的选择,p=1为曼哈顿距离, p=2为欧式距离。默认为2</td>
	</tr><tr><td>距离度量其他附属参数metric_params</td>
		<td colspan="4" rowspan="1">&nbsp;一般都用不上,主要是用于带权重闵可夫斯基距离的权重,以及其他一些比较复杂的距离度量的参数。</td>
	</tr><tr><td>并行处理任务数n_jobs</td>
		<td colspan="2" rowspan="1">主要用于多核CPU时的并行处理,加快建立KNN树和预测搜索的速度。一般用默认的-1就可以了,即所有的CPU核都参与计算。</td>
		<td colspan="2" rowspan="1">适用于限定半径最近邻法</td>
	</tr><tr><td>异常点类别选择outlier_label</td>
		<td colspan="2" rowspan="1">不适用于KNN</td>
		<td>主要用于预测时,如果目标点半径内没有任何训练集的样本点时,应该标记的类别,不建议选择默认值 none,因为这样遇到异常点会报错。一般设置为训练集里最多样本的类别。</td>
		<td>不适用于限定半径最近邻回归</td>
	</tr></tbody></table></div><h3><a name="t2"></a><a name="t2"></a>&nbsp;</h3>

3. 使用KNeighborsClassifier做分类的实例

3.1 生成随机数据

        首先,我们生成我们分类的数据,代码如下:


 
 
  1. import matplotlib.pyplot as plt
  2. from sklearn.datasets.samples_generator import make_classification
  3. # X 为样本特征,y 为样本类别输出,共1000个样本,每个样本2个特征,输出有3个类别,没有冗余特征,每一个类别一个簇
  4. X, Y = make_classification(n_samples= 1000, n_features= 2, n_redundant= 0, n_classes= 3, n_clusters_per_class= 1)
  5. plt.scatter(X[:, 0], X[:, 1], marker= "o", c=Y)
  6. plt.show()

        先看看我们生成的数据图如下。由于是随机生成,如果你也跑这段代码,生成的随机数据分布会不一样。下面是我某次跑出的原始数据图。

        接着我们用KNN来拟合模型,我们选择K=15,权重为距离远近。得到了目标的K个最近邻,然后根据多数表决法,如果是KNN分类,预测为K个最近邻里面有最多类别数的类别。如果是KNN回归,用K个最近邻样本输出的平均值作为回归预测值。代码如下: 


 
 
  1. from sklearn import neighbors
  2. clf = neighbors.KNeighborsClassifier(n_neighbors = 15 , weights= 'distance')
  3. clf.fit(X, Y)

        最后,我们可视化一下看看我们预测的效果如何,代码如下: 


 
 
  1. from matplotlib.colors import ListedColormap
  2. # 可视化一下看看我们预测的效果
  3. cmap_light = ListedColormap([ '#FFAAAA', '#AAFFAA', '#AAAAFF'])
  4. cmap_bold = ListedColormap([ '#FF0000', '#00FF00', '#0000FF'])
  5. # 确认训练集的边界
  6. x_min, x_max = X[:, 0].min() - 1, X[:, 0].max() + 1
  7. y_min, y_max = X[:, 1].min() - 1, X[:, 1].max() + 1
  8. # 生成随机数据来做测试集,然后作预测
  9. xx, yy = np.meshgrid(np.arange(x_min, x_max, 0.02), np.arange(y_min, y_max, 0.02))
  10. data = np.c_[xx.ravel(), yy.ravel()]
  11. Z = clf.predict(data)
  12. # 画出测试集数据
  13. Z = Z.reshape(xx.shape)
  14. plt.figure()
  15. # plt.contourf(xx, yy, Z, alpha=0.2)
  16. plt.pcolormesh(xx, yy, Z, cmap=cmap_light)
  17. # 也画出所有的训练集数据
  18. plt.scatter(X[:, 0], X[:, 1], c=Y, cmap=cmap_bold)
  19. plt.xlim(xx.min(), xx.max())
  20. plt.ylim(yy.min(), yy.max())
  21. plt.title( "3-Class classification (k = 15, weights = 'distance')")
  22. plt.show()

         生成的图如下,可以看到大多数数据拟合不错,仅有少量的异常点不在范围内。

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值