1. 基本原理
K最近邻(K-Nearest Neighbor,KNN)分类算法是最简单的机器学习算法之一,其基本思路与“近朱者赤,近墨者黑”的原理类似,当对未分类样本进行分类时,首先判断其与已分类样本之间的特征相似度,然后将其划分到大多数已分类样本所属类别之中。
已知训练样本集中每个样本对应的类别,当对新样本进行分类时,首先将新样本的特征与训练样本集中的样本特征进行比较,进而提取K个与其最相似(即在特征空间中最邻近)的已知类别的样本,然后将K个已知类别样本中包含样本数最多的类别标识分配给新样本。
2. 求解步骤
(1)计算新样本与所有已分类样本之间的特征距离(距离类型可为欧氏距离、曼哈顿距离等);
(2)按照递增次序对特征距离进行排序;
(3)选择K个特征距离最相近的已分类样本(值一般选择为奇数)。
(4)确定K个已分类样本所属类别出现的次数(投票法)。
(5)将K个已分类样本所属类别出现频率最高的类别作为新样本的预测分类。
对于k值的选择,是knn算法的重中之重
如图所示,如果k=3,圆球属于红色所示类别;而当k=5时圆球则属于蓝色所示类别。
3. 易出现的问题