机器学习笔记十-- 由kNN引入维度灾难并进行降维改善

专业词汇k 近邻(k-Nearest Neighbor)密采样" (dense sample)维数灾难 (curse of dimensionality)降维(dimension red uction)"子空间" (subspace)"多维缩放" (Multiple Dimensional Scaling)kNNk近邻学习概述超参数:k的选则监督学习方法给定测试样本–>(基于某种距离度量)最靠近这个样本的 k 个训练样本,然后基于这 k 个"邻居"的信息来进行预测分类任务中
摘要由CSDN通过智能技术生成

专业词汇

k 近邻(k-Nearest Neighbor)
密采样" (dense sample)
维数灾难 (curse of dimensionality)
降维(dimension red uction)
"子空间" (subspace)
"多维缩放" (Multiple Dimensional Scaling)

kNN

k近邻学习概述

  • 超参数:k的选则
  • 监督学习方法
  • 给定测试样本–>(基于某种距离度量)最靠近这个样本的 k 个训练样本,然后基于这 k 个"邻居"的信息来进行预测
  • 分类任务中可使用"投票法"
  • 回归任务中时使用"平均法"
  • 基于距离远近进行加权平均或加权投票

假设1:样本独立同分布
假设2:任意测试样本 a 附近任意小的距离范围内总能找到一个训练样本,训练样本的来样密度足够大(密采样)(这个假设怎么做到呢?:归一化!)

它是一种懒惰学习,此类学习技术在训练阶段仅仅是把样本保存起来,训练时间开销为零,待收到 测试样本后再进行处理
之前的算法,那些在训练阶段就对样本进行学习处理的方法,称为急切学习

研究完贝叶斯分类器再回来分析kNN的错误率

kNN算法第二个假设实现的讨论

    • 0
      点赞
    • 2
      收藏
      觉得还不错? 一键收藏
    • 1
      评论

    “相关推荐”对你有帮助么?

    • 非常没帮助
    • 没帮助
    • 一般
    • 有帮助
    • 非常有帮助
    提交
    评论 1
    添加红包

    请填写红包祝福语或标题

    红包个数最小为10个

    红包金额最低5元

    当前余额3.43前往充值 >
    需支付:10.00
    成就一亿技术人!
    领取后你会自动成为博主和红包主的粉丝 规则
    hope_wisdom
    发出的红包
    实付
    使用余额支付
    点击重新获取
    扫码支付
    钱包余额 0

    抵扣说明:

    1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
    2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

    余额充值