第二章 k近邻法
2.1 概念
2.1.1 k近邻法简介
k近邻法(k-nearest neighbor, k-NN)是1967年由Cover T和Hart P提出的一种基本分类与回归方法。它的工作原理是:存在一个样本数据集合,也称作为训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一个数据与所属分类的对应关系。输入没有标签的新数据后,将新的数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本最相似数据(最近邻)的分类标签。一般来说,我们只选择样本数据集中前k个最相似的数据,这就是k-近邻算法中k的出处,通常k是不大于20的整数。最后,选择k个最相似数据中出现次数最多的分类,作为新数据的分类。
K近邻算法
优 点 :精度高、对异常值不敏感、无数据输入假定。
缺点:计算复杂度高、空间复杂度高。
适用数据范围:数值型和标称型
举个例子,我们来使用k近邻法来分类爱情片和动作片。有人曾统计过很多电影的打斗镜头和接吻镜头,那么如何确定一部没看过的电影是爱情片还是动作片呢?我们可以使用k-nn来解决这个问题。
电影名称 | 打斗镜头 | 接吻镜头 | 电影类型 |
---|---|---|---|
California Man | 3 | 104 | 爱情片 |
He’s Not Really into Dudes | 2 | 100 | 爱情片 |
Robo Slayer 3000 | 99 | 5 | 动作片 |
Amped ll | 98 | 2 | 动作片 |
? | 18 | 90 | 未知 |
每部电影的打斗镜头数、接吻镜头数以及电影评估类型
现在我们如何判断该电影的类型呢?当然是通过最近邻居来判断啦~如何判断邻居的距离呢,首先我们需要定义距离。
2.1.2 距离度量
我们一般运用欧氏距离:
∥AB||=(x1−x2)2+(y1−y