Scikit-learn section12 for cvpytorch

英文官方教程链接:

https://scikit-learn.org/stable/modules/neighbors.htmlhttps://scikit-learn.org/stable/modules/neighbors.html我深知最近几次所展现的文章内容水平不行,因为我现在也不会,同时也不太明白官网到底是什么意思,后面我会结合中文教程做进一步的改进,还望谅解。


sklearn.neighbors 提供了无监督和基于近邻的监督学习方法。无监督近邻是许多其他学习方法的基础。

最近邻方法的原理是找到距离新点最近的预定义训练样本,并预测它们的标签。样本数量可以是用户定义的常量,或者根据点的局部密度而变化。一般来说,距离可以是任何度量单位,例如标准的欧几里得距离。


 sklearn.neighbors.NearestNeighbors()

参数描述
n_neighborsint,default=5,默认使用的 neighbors 的数量
radiusfloat,default=1.0,默认使用的参数空间的范围
algorithm{'auto','ball_tree','kd_tree','brute'},default='auto',用于计算最近邻的算法
leaf_sizeint,default=30,传给 BallTree or KDTree 的叶子尺寸
metricstr or callable,default='minkowski',树的距离量度
pint,default=2,Minkowski 量度的参数
metric_paramsdict,default=None,度量函数的其他关键字参数
n_jobs

int,fault=None,neighbors 搜寻的平行 jobs 的数量

类属性
.effective_metric_str,用来计算 neighbors 距离的量度
.effective_metric_params_dict,上一个的参数
.n_features_in_int,特征的数量
.feature_names_in_ndarray of shape ('n_features_in_',),特征的名称
.n_samples_fit_int,拟合数据的样本数量
from sklearn.neighbors import NearestNeighbors
import numpy as np
X = np.array([[-1, -1], [-2, -1], [2, 1], [3, 2]])
nbrs = NearestNeighbors(n_neighbors=1).fit(X)
distances, indices = nbrs.kneighbors(np.array([[0,0]]))
#这里需要传入的数组shape的后一个元素相同
print(distances,indices)
#[[1.41421356]] [[0]]
#第一个代表最近的距离,第二个代表最近距离在拟合数据里的元素索引,本例为第1个

官方的代码我没看懂,这是源码中另外一个例子,还是可以理解的。

sklearn.neighbors.KDTree() 和 sklearn.neighbors.BallTree() 有相似的效果。


下面还有 sklearn.neighbors.KNeighborsClassifier()、 sklearn.neighbors.KNeighborsRegressor()、 sklearn.neighbors.NeraestCentroid()、sklearn.neighbors.KNeighborsTransformer() 等,由于我的水平有限,也就不细说了,大家自己去学习一下吧。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值