K近邻算法:
对新的输入数据,在训练数据上找到与该实例最邻近的k个实例,k个实例的多数属于的类别作为输入数据的类别。
用于分监督学习的k近邻算法:
sklearn.neighbors.NearestNeighbors(n_neighbors=5,radius=1.0,algorithm='auto',leaf_size=30,
metric='minkowski',p=2,metric_params=None,n_jobs=1,**kwargs)
n_neighbors:int,默认为5
对输入数据进行投票的训练数据个数,即k的大小
对新的输入数据,在训练数据上找到与该实例最邻近的k个实例,k个实例的多数属于的类别作为输入数据的类别。
用于分监督学习的k近邻算法:
sklearn.neighbors.NearestNeighbors(n_neighbors=5,radius=1.0,algorithm='auto',leaf_size=30,
metric='minkowski',p=2,metric_params=None,n_jobs=1,**kwargs)
n_neighbors:int,默认为5
对输入数据进行投票的训练数据个数,即k的大小
radius:float,默认1.0
radius_neighbors查询时默认的参数空间范围,即半径。给定目标点及半径r,在目标点为圆心,r为半径的圆中的点距目标点更近
radius_neighbors查询时默认的参数空间范围,即半径。给定目标点及半径r,在目标点为圆心,r为半径的圆中的点距目标点更近
algorithm:{'auto','ball_tree','kd_tree','brute'}
计算最近邻使用的算法,输入为稀疏表示时会强制使用brute
计算最近邻使用的算法,输入为稀疏表示时会强制使用brute
leaf_size:int,默认30
BallTree或KDTree的叶节点数,即子区域个数。会影响树结构建立和查询的速度以及耗费的内存。
BallTree或KDTree的叶节点数,即子区域个数。会影响树结构建立和查询的速度以及耗费的内存。
metric:string或函数调用,默认'minkowsik'。
![](https://i-blog.csdnimg.cn/blog_migrate/027612dd4b52ad49ed30820508fd7806.png)
计算距离的方式。可以使用scikit-learn或者scipy.spatial.distance定义个任意方式.
p:int,默认2
minkowski的参数。p=1时为曼哈顿距离,p=2为欧式距离。
minkowski的参数。p=1时为曼哈顿距离,p=2为欧式距离。
metric_params:字典,默认None。对metric的追加参数
n_jobs:int ,默认1
并行计算的工作数,即CPU的占用个数
并行计算的工作数,即CPU的占用个数
方法:
fit(X[,y])
X:{array-like,sparse matrix,BallTree,KDTree}
训练数据,X为array 或matrix,shape(n_samples,n_features)。或者直接传入构建完成的数结构
fit(X[,y])
X:{array-like,sparse matrix,BallTree,KDTree}
训练数据,X为array 或matrix,shape(n_samples,n_features)。或者直接传入构建完成的数结构
get_params(deep=True):获取模型的参数映射关系
kneighbors(X=None,n_neighbors=None,return_distance=True)
寻找点的k个最近邻,返回每个最近邻点的索引和距
寻找点的k个最近邻,返回每个最近邻点的索引和距