机器学习 K近邻之KD树基本概念、绘制KD树

K近邻算法回顾

K近邻法模型的三要素:

距离度量: L^{_{}}p

K值的选取:K值的选取一般可以采用交叉验证法,且一般小于训练集样本量的平方根

分类决策规则:多数表决等价于误分类数最小

关于K近邻的问题:

1.简述K近邻算法的基本步骤

2.简述K近邻算法的三要素

答:距离度量 L^{_{}}p、K值的选取、分类决策规则

3.简述L^{_{}}p距离的定义,以及欧氏距离、曼哈顿距离以及切比雪夫距离的定义

欧氏距离

曼哈顿距离:计算所有特征下的绝对距离,再求和

切比雪夫距离:找到所有特征下的绝对距离最大值

4.K值选取遵循的一般原则是什么?K值选择过大或者过小会对K近邻法的结果产生何种影响

答:K值的选取一般可以采用交叉验证法,且一般小于训练集样本量的平方根。

较小的k值,学习的近似误差减小,但估计误差会增大,敏感性增强,而且模型复杂,容易过拟合。较大的k值,减少学习的估计误差,但近似误差增大,而且模型简单。

正题切入:KD数

为什么要引入KD数:当数据集中的训练实例非常多且密集,并且一个实例也有很多的特征,那么就要计算出千上万个距离,运算量极大的,就需要一种快速的K近邻的搜索方法,提高搜索效率;一般考虑使用特殊的结构存储训练数据,以减少计算距离的次数。KD树就是一种这样的数据结构。

1.KD树的概念

KD树是一种对k维空间中的实例点进行存储以便对其进行快速检索的树型数据结构。

本质:二叉树,表示对k维空间的一个划分

构造过程:不断地用垂直于坐标轴的超平面将k维空间切分,形成k维超矩形区域

kd树的每个节点对应于一个K维超矩形区域

注意:KD 树这里的K代表的是数据的特征维度,而k近邻中的k指的是距离新实例点最近的k个邻居。

最优切割特征选 择的原则是什么?

要让数据划分成两部分之后,系统整体的信息熵降低。

𝒍 = 𝒋 𝒎𝒐𝒅 𝒌 + 𝟏 怎么 理解?
问题暂留

绘制KD树

  

参考文献

[1]孙立东,吉孟宇.基于K近邻算法的平面结构变形场实时测量方法[J/OL].应用科技:1-7[2022-12-22].

[2]李航著.统计学习方法.北京:清华大学出版社.

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

碳水小王子

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值