K-近邻算法优缺点
K-近邻算法采用测量不同特征值之间的距离方法进行分类。
- 优点:精度高、对异常值不敏感、无数据输入假定。
- 缺点:计算复杂度高、空间复杂度高。
- 适用数据范围:数值型和标称型。
原理
存在一个样本数据集合,也称作训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一数据与所属分类的对应关系。输入没有标签的新数据后,将新数据的每个特征和样本集中数据对应的特征进行比较,然后算法提取样本集中特征最相似数据(最近邻)的分类标签。一般来说,我们只选择样本数据集中前K个最相似的数据,这就是K-近邻算法中K的出处,通常K是不大于20的整数。最后,选择K个最相似数据中出现次数最多的分类,作为新数据的分类。
例子
电影名称 | 打斗镜头 | 接吻镜头 | 电影类型(Tag) |
---|---|---|---|
California Man | 3 | 104 | 爱情片 |
He is Not Really into Dudes | 2 | 100 | 爱情片 |
Kevin Longblade | 101 | 10 | 动作片 |
…
输入一部电影A的信息,我们不知道这部电影是爱情片还是动作片,那么我们可以通过打斗镜头和接吻镜头两个特征,算出电影A与已知电影类型信息(样本集)的距离,取出前K(不大于20)个距离最近的电影样本,看看K个样本中类型最多的,即是电影A的类型。
距离的算法可以根据权重等,将特征标注在坐标中,比如打斗镜头是Y坐标,接吻镜头是X坐标,即可算出距离。
实际中的应用——手写识别系统(识别0 ~ 9)
将手写数据转换成32*32像素图片。0~9每个数有200个带标签的样本,通过将手写数的32*32像素与2000个样本比较,得出向量距离,取前K个,可以得出手写数字的值。
源码Python
略