最近读了《机器学习实战》,本文是一些读后笔记.
K-邻近算法描述:
简单来说,k-邻近算法才用测量不同特征值之间的距离方法进行分类。
优点:进度高,对异常值不敏感,无数据输入假定。
缺点:计算复杂度高,空间复杂度高
适用数据范围:数值型和标称型。
工作原理:存在一个样本数据集合,也称作训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一数据与所属分类的对应关系,输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本集中特征最相似数据(最近邻)的分类标签。一般来说,我们只选择样本数据集中前k个最相似的数据,这就是k-近邻算法中k的出处,通常k是不大于20的整数。最后,选择k个最大相似数据中出现次数最多的分类,作为新数据的分类。
距离一般按是欧式距离:d=sqrt((x1-x2)^2+(y1-y2)^2+(z1-z2)^2)
下面代码在pycharm上运行通过的
KNN.py
from numpy import * def createDataSet(): group = array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]]) labels = ['A','A','B','B'] return group,labels
结果输出B;