K近邻算法原理与实践

K近邻算法原理

k近邻算法(k-nearest neighbor,k-NN)是1967年由Cover T和Hart
P提出的一种基本分类与回归方法。它的工作原理是:存在一个样本数据集合,也称作为训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一个数据与所属分类的对应关系。输入没有标签的新数据后,将新的数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本最相似数据(最近邻)的分类标签。一般来说,我们只选择样本数据集中前k个最相似的数据,这就是k-近邻算法中k的出处,通常k是不大于20的整数。最后,选择k个最相似数据中出现次数最多的分类,作为新数据的分类,k近邻算法样本相似程度是通过样本之间的距离进行度量的。

我举个栗子
我举个栗子
我们可以使用k-近邻算法分类一个电影是爱情片,动作片还是混合片,我们有训练样本集如表1所示
表1:训练样本集

电影名称动作镜头亲密镜头电影类别
电影一1008动作片
电影二2120爱情片
电影三1504动作片
电影四3134爱情片
电影五5678混和片
电影六8882混和片

这个数据集有2个特征,分别为feature 1 — 动作镜头,feature 2 — 亲密镜头,根据我们的经验将样本集打上分类标签,动作镜头远远大于亲密镜头的电影我们打上动作片的标签,亲密镜头远远大于动作镜头的电影我们打上爱情片的标签,动作镜头数量与亲密镜头数量差不多的电影我们打上混合片的标签。
训练样本准备完毕,接下来就可以进行电影分类了,假设目前我们有3个待分类样本,其特征分别如表2所示
表2:待分类样本集

电影名称动作镜头亲密镜头
待分类电影一1252
待分类电影二3156
待分类电影三7885

则通过k-NN算法可以做出如下分类
表3:k-NN分类结果

电影名称动作镜头亲密镜头电影类别
待分类电影一1252动作片
待分类电影二3156爱情片
待分类电影三7885混合片

常用距离公式

欧式距离

曼哈顿距离

切比雪夫距离

闵可夫斯基距离

标准化欧氏距离

马氏距离

夹角余弦

汉明距离

杰卡德距离

杰卡德相似系数

相关系数

相关距离

信息熵

K近邻算法实践

电影分类实战

取表1作为训练样本集,表2为待分类样本集

  1. scikit-learn 实现
//导入numpy
import numpy as np
//从sklearn导入KNN分类器
from sklearn.neighbors import KNeighborsClassifier
//创建样本集
group = np.array([[100, 8],[2, 120],[150, 4], [3, 134], [56, 78], [88, 82]])
//给样本集打上标签
label = ['动作片', '爱情片', '动作片', '爱情片', '混和片', '混和片']
//指定近邻数为2
clf = KNeighborsClassifier(n_neighbors = 2)
//训练样本集
clf.fit(group, label)
//待分类的样本
predict = np.array([[125, 2], [3, 156], [78, 85]])
//预测结果
clf.predict(predict)
//预测结果:array(['动作片', '爱情片', '混和片'], dtype='<U3')
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值