关闭

Machine Learning in Action 学习笔记-(2)kNN k近邻算法

197人阅读 评论(-1) 收藏 举报
分类:

kNN是最常见的聚类算法,通过比较待测被试特征与训练样本之间的欧式距离,选取k个最近的点,然后找出出现概率最高的label作为我们的预测结果。

其中k的值,随机选择训练样本的方案,训练样本数目的变化都将会影响到我们最终的聚类准确率。

这种基于实例的算法将会使我们无法知道平均实例样本,也将会影响到我们对于典型实例样本特征的理解。

最大的收获是学会了更多的Python命令(在numPy)下的

.argsort() 返回数组中从小到大排列的索引

reload() 重新载入module

line.strip() 去掉所有的回车字符

tile为numPy函数,可以将前面的数组以相同元素扩充成和后面数组相同的维度

dataset.min(0)返回dataset中第一小的值

dataset.max(0)返回dataset中第一大的值

strline.append(A)将A添加到strline的最后作为新元素加入


在面试题中,也会有比如伐木场地址选择等问题,这时候就需要立刻能想到,用kNN算法可能是很好的解决方案


如果想要方便调试程序,可以在spyder的File explorer中选择我们程序所在的文件夹(比如说kNN.py)所在的文件夹然后右击-open Ipython here,这样就可以在这个目录下建立一个Ipython进程了

0
0

查看评论
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
    个人资料
    • 访问:21244次
    • 积分:556
    • 等级:
    • 排名:千里之外
    • 原创:24篇
    • 转载:7篇
    • 译文:10篇
    • 评论:10条
    最新评论