统计学习--02 KNN

k近邻 是一种快速分类方法,没有显式的学习过程
其思想类似于俗语”物以类聚,人以群分“,想知道一个人如何,那么可以从他经常打交道的人群间接得知。
k近邻分类也是这样:
在这里插入图片描述
在NLP中计算词向量时候,也有一个分布式假设:一个词的意思可以由它周边的词表示,与KNN 可以说是有异曲同工之妙

a word is characterized by the company it keeps"
在这里插入图片描述

为了提高搜索效率(避免O(N)),knn 在实现上,一般用kd树来实现

kd 树

kd 树 是二叉树
注意,k是维度的意思
提到快速搜索,在一维时候,可以使用BST二分查找树,但是由于训练语料数据一般维度>1,所以要引入kd tree
在这里插入图片描述

搜索最近邻

在这里插入图片描述
图解如下:

先找到最接近的叶子节点,然后回溯更新;并且,只要与节点的超平面相交,就要进入另一个分支节点判断
在这里插入图片描述

疑问

上面 只是返回单一的最近邻,如何返回 前top K结果呢??

参考

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值