机器学习----降维与度量学习(k邻近学习)

本文介绍了k-Nearest Neighbor(kNN)算法,作为懒惰学习的代表,kNN通过计算测试样本与训练集的最近邻进行预测。随着k值的变化,预测结果可能不同。同时,文章指出kNN的错误率不超过贝叶斯最优分类器的两倍。为了应对高维度数据带来的计算挑战,文章提出了降维的重要性,并预告将探讨经典的PCA(主成分分析)算法。
摘要由CSDN通过智能技术生成

kNN

k邻近,k-Nearest Neighbor,kNN;是懒惰学习(lazy learning)的代表。所谓懒惰学习就是没有没有显式训练过程,只是把训练数据保存起来,用的时候直接再算出结果就行了。具体算法如下:
给定测试样本,基于某种距离度量找出训练集中与最靠近的k个训练样本,然后基于这k个“邻居”的信息来进行预测;若是分类问题就可以用投票法确定最后的结果,若是回归问题就可以用平局法。但是最后结果跟k选取有关系:
这里写图片描述
可以看出k=1的时候,判定为+,为3的时候判定为-,为5的时候判定又为+。
给定测试样本x,若其最近邻样本为z,则最近邻分类器的出错概率为:

P(err)=1cYP(c|x)P(c|z)

假设样本独立同分布,且对任意x和任意小的正数 δ ,在x附近 δ
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值