K近邻算法原理与实践
K近邻算法原理
k近邻算法(k-nearest neighbor,k-NN)是1967年由Cover T和Hart
P提出的一种基本分类与回归方法。它的工作原理是:存在一个样本数据集合,也称作为训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一个数据与所属分类的对应关系。输入没有标签的新数据后,将新的数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本最相似数据(最近邻)的分类标签。一般来说,我们只选择样本数据集中前k个最相似的数据,这就是k-近邻算法中k的出处,通常k是不大于20的整数。最后,选择k个最相似数据中出现次数最多的分类,作为新数据的分类,k近邻算法样本相似程度是通过样本之间的距离进行度量的。
我举个栗子
我们可以使用k-近邻算法分类一个电影是爱情片,动作片还是混合片,我们有训练样本集如表1所示
表1:训练样本集
电影名称 | 动作镜头 | 亲密镜头 | 电影类别 |
---|---|---|---|
电影一 | 100 | 8 | 动作片 |
电影二 | 2 | 120 | 爱情片 |
电影三 | 150 | 4 | 动作片 |
电影四 | 3 | 134 | 爱情片 |
电影五 | 56 | 78 | 混和片 |
电影六 | 88 | 82 | 混和片 |
这个数据集有2个特征,分别为feature 1 — 动作镜头,feature 2 — 亲密镜头,根据我们的经验将样本集打上分类标签,动作镜头远远大于亲密镜头的电影我们打上动作片的标签,亲密镜头远远大于动作镜头的电影我们打上爱情片的标签,动作镜头数量与亲密镜头数量差不多的电影我们打上混合片的标签。
训练样本准备完毕,接下来就可以进行电影分类了,假设目前我们有3个待分类样本,其特征分别如表2所示
表2:待分类样本集
电影名称 | 动作镜头 | 亲密镜头 |
---|---|---|
待分类电影一 | 125 | 2 |
待分类电影二 | 3 | 156 |
待分类电影三 | 78 | 85 |
则通过k-NN算法可以做出如下分类
表3:k-NN分类结果
电影名称 | 动作镜头 | 亲密镜头 | 电影类别 |
---|---|---|---|
待分类电影一 | 125 | 2 | 动作片 |
待分类电影二 | 3 | 156 | 爱情片 |
待分类电影三 | 78 | 85 | 混合片 |
常用距离公式
欧式距离
曼哈顿距离
切比雪夫距离
闵可夫斯基距离
标准化欧氏距离
马氏距离
夹角余弦
汉明距离
杰卡德距离
杰卡德相似系数
相关系数
相关距离
信息熵
K近邻算法实践
电影分类实战
取表1作为训练样本集,表2为待分类样本集
- scikit-learn 实现
//导入numpy
import numpy as np
//从sklearn导入KNN分类器
from sklearn.neighbors import KNeighborsClassifier
//创建样本集
group = np.array([[100, 8],[2, 120],[150, 4], [3, 134], [56, 78], [88, 82]])
//给样本集打上标签
label = ['动作片', '爱情片', '动作片', '爱情片', '混和片', '混和片']
//指定近邻数为2
clf = KNeighborsClassifier(n_neighbors = 2)
//训练样本集
clf.fit(group, label)
//待分类的样本
predict = np.array([[125, 2], [3, 156], [78, 85]])
//预测结果
clf.predict(predict)
//预测结果:array(['动作片', '爱情片', '混和片'], dtype='<U3')