KD-Tree的原理及其在KNN中的应用(附Python代码)

一、平衡二叉树AVL

1.1 定义

任意节点的子树的高度差都小于等于1。英文:Balanced Binary Tree, BBT 或者 AVL。

1.2 判断条件

(1)是二叉排序树;

(2)任何一个节点的左子树、右子树都是平衡二叉树,即左右高度差都小于等于 1。

1.3 为什么要有平衡二叉树?

为了提高搜索效率。比如基于 X = { 1 , 2 , 3 , 4 , 5 , 6 } X=\{1, 2, 3, 4, 5, 6\} X={1,2,3,4,5,6}这种数据构建得到如下二叉树:
在这里插入图片描述

上图二叉树就像一个链表,因此搜索效率为 O ( N ) O(N) O(N)基于二分查找的思想,构建平衡二叉树之后,搜索效率将为 O ( l o g N ) O(logN) O(logN)
在这里插入图片描述

二、二叉搜索树

2.1 原理

对一维数据常用的查找/搜索方法是二分查找,时间复杂度为 O ( l o g N ) O(logN) O(logN),**二分查找本质上是一棵二叉搜索树(Binary Search Tree, BST),是以空间换取时间。**二叉搜索树可以任意构造,但不同的二叉树会导致查找效率不尽相同,若想最大性能构造一个二叉搜索树,就需要它是平衡的,即平衡二叉树AVL。

2.2 构建BST(平衡)

X = { 3 , 6 , 5 , 2 , 4 , 1 , 7 } X=\{3, 6, 5, 2, 4, 1, 7\} X={3,6,5,2,4,1,7}

使用递归的方式构建平衡二叉搜索树:

import matplotlib.pyplot as plt
import matplotlib.lines as mlines

class Node(object):
    def __init__(self, value, left, right):
        self.value = value
        self.left = left
        self.right = right

    # 计算树高
    def get_height(self):
        layers = [self]
        height = 0
        while layers:
            height += 1
            new_list = []
            for node in layers:
                if node.left:
                    new_list.append(node.left)
                if node.right:
                    new_list.append(node.right)
            layers = new_list
        return height

    # 二叉树可视化
    def visualize(self, axis='off'):
        '''
            基本算法: 将树状结构映射到二维矩阵中,
            如果节点左右下方有节点则把该节点加入到矩阵中的坐标中,
            如节点(x,y)左下方有节点则把节点放入(x+offset,y+1)
            offset为x坐标偏移量,
            offset = 2**(len(matrix)-y-2)
        '''
        figure, axes = plt.subplots(figsize=(8, 6), dpi=80)
        height = self.get_height()
        width_ = 2 ** (height - 1)
        width = 2 * width_ + 1
        matrix = [[[] for x in range(width)] for y in range(height)]

        matrix[0][width_] = bst_tree  # put head in the middle position

        for y in range(len(matrix)):
            for x in range(len(matrix[y])):
                node = matrix[y][x]
                if node:
                    x1, y1 = (1 / width) * (x + 0.32), 1 - (1 / height) * y - 0.21
                    axes.text(x1, y1, str(node.value), color='white', fontsize=FONT_SIZE, fontweight='bold')
                    offset = 2 ** (len(matrix) - y - 2)

                    if node.left:
                        matrix[y + 1][x - offset] = node.left
                        x2, y2 = (1 / width) * (x - offset + 0.5), 1 - (1 / height) * (y + 1) - 0.2
                        line = mlines.Line2D([x1, x2], [y1, y2], zorder=-1)
                        axes.add_line(line)
                    if node.right:
                        matrix[y + 1][x + offset] = node.right
                        x2, y2 = (1 / width) * (x + offset + 0.5), 1 - (1 / height) * (y + 1) - 0.2
                        line = mlines.Line2D([x1, x2], [y1, y2], zorder=-1)
                        axes.add_line(line)
                    cc = plt.Circle(((1 / width) * (x + 0.5), 1 - (1 / height) * y - 0.2), 1 / width / 2 * NODE_SIZE_SCALE, color='blue')
                    axes.set_aspect(1)
                    axes.add_artist(cc)

        plt.axis(axis)
        plt.show()


# 使用递归的方式构建二叉搜索树
def make_binary_search_tree(data):
    if not data:
        return
    data.sort()
    mid = len(data) // 2
    tree = Node(data[mid],                               # 中间节点数据
                make_binary_search_tree(data[:mid]),     # 左子树
                make_binary_search_tree(data[mid+1:]))   # 右子树
    return tree


FONT_SIZE = 20
NODE_SIZE_SCALE = 1
X = [3, 6, 5, 2, 4, 1, 7]
if __name__ == '__main__':
    bst = make_binary_search_tree(X)
    bst.visualize()

运行结果:
在这里插入图片描述
在这里插入图片描述

要求找到距离输入数据=2.1最近的节点,若使用线性搜索,那么需要进行7次比较,时间复杂度为 O ( N ) O(N) O(N)

若使用二叉树搜索,只需要先和根节点4比较:2.1<4,此时记录最短距离d=1.9;进入左子树继续和2比较:2.1>2,更新最短距离d=0.1;进入右子树继续和3比较,此时两节点距离为0.9,0.9>0.1,因此最短距离就是0.1,且最近节点为2。使用二叉搜索树只需要3次就能找到最近节点,搜索的时间复杂度为 O ( l o g N ) O(logN) O(logN)

三、KD-Tree

3.1 对KD-Tree的理解

对于多维数据,可以使用二叉树在 K 维(在激光雷达中,一般使用三维点云,所以KD-Tree的维度K=3)空间上的扩展 KD-Tree,它的时间复杂度也能近似达到 O ( l o g N ) O(logN) O(logN),实际上它的时间复杂度介于 O ( l o g N ) O(logN) O(logN) O ( N ) O(N) O(N)之间。**KD-Tree本质上是一种特殊的数据结构——基于空间的平衡二叉树。**KD-Tree是每个节点都有k维数据的平衡二叉树,每个节点代表一个超平面,该超平面垂直于当前划分维度的坐标轴,并在该维度上将空间划分为两部分。KD-Tree两个关键问题:① 树的建立;②最近邻域搜索。

KD-Tree和二叉搜索树的不同点在于,二叉搜索树每个节点只有一维特征,所以构建二叉搜索树时只需要根据这一维数据进行划分即可;对于多维数据,KD-Tree的划分策略是交替地使用每一维特征进行划分。KD-Tree会将三维空间分割成下图形式:

**KD-Tree本质上就是一种数据结构,**它的优点:① 搜索效率高;② 它是自平衡的,所以插入、删除数据也能保持高效;③ 易于实现。
在这里插入图片描述

3.2 生成KD-Tree

(1)初始化树深为 d e p t h = 0 depth=0 depth=0和KD-Tree维度 K K K为数据维度;

(2)计算当前划分维度 s p l i t = d e p t h   %   K split=depth\,\%\,K split=depth%K,对当前维度数据进行排序并取其中位数;

(3)将该中位数作为分割点,并将其所在数据对作为当前根节点;

(4)将该维度数据小于该中位数的数据对传给当前根节点的左子树,将该维度数据大于该中位数的数据对传给当前根节点的右子树;

(5)递归执行步骤(2)~(4),直到所有数据都被建立到KD-Tree的节点上为止。

3.3 最近邻搜索

(1)从根节点出发进行查找,根据树深计算当前的分割维度split,若目标结点在分割维度上的数据小于当前节点,则进入左子树遍历,否则进入右子树遍历;

(2)重复步骤一,直到找到叶子节点,记录当前目标节点和当前节点的距离为最小距离,当前节点为最近节点,并开始回溯;

(3)回溯过程中若当前节点与目标节点距离更近,则更新最近节点及最小距离;并且判断是否需要遍历另一边子树:若当前节点在分割维度上的数据与目标节点在分割维度上的数据间的距离小于当前最小距离,则进入另一边查找,否则向上回溯;

(4)回溯到根节点,同样比较根节点在当前分割维度上的数据与目标节点在分割维度上的数据间的距离小于当前最小距离,则需要查找根节点的另一边子树,否则直接退出。

整体思想:二分查找+回溯。

**细节点:**回溯到某个节点,比较该节点和目标节点之间的距离时并不是计算欧氏距离(其实使用欧氏距离也可以),而是在当前分割维度上的数据之差,这是因为多维数据进行二分查找分割时,使用的是平行于某个坐标轴的超平面,**每次判断是否查找另一边,是通过以目标节点为圆心,当前最小距离为半径做圆,判断当前分割面是否和该圆相交,**如果不相交,那么说明该分割面另一边的点距离目标节点都更远,则不需要再查找;若相交,则说明分割面另一边可能存在距离目标节点更近的点,则需要查找另一边。
在这里插入图片描述

Python手撸机器学习系列(十一):KNN之kd树实现

【精选】KD-Tree详解: 从原理到编程实现_白鸟无言的博客-CSDN博客

最近邻搜索 KD树 生动图示理解笔记

【量化课堂】kd 树算法之详细篇 - JoinQuant量化课堂 - JoinQuant

(批量查询参考:机器学习——详解KD-Tree原理

3.4 Python代码

import numpy as np
import matplotlib.pyplot as plt

# 创建Node类型
class Node(object):
    def __init__(self, value, left=None, right=None):
        self.val = value
        self.left = left
        self.right = right


# 创建KDTree类型
class KDTree(object):
    def __init__(self, K):
        self.K = K

    # 建树
    def build_tree(self, data, depth):
        l = len(data)
        if l == 0:
            return None

        split = depth % self.K  # 当前分割维度
        sorted_data = sorted(data, key=lambda x: x[split])  # 按照某个维度数据进行排序
        mid_idx = l // 2
        left_data = sorted_data[:mid_idx]
        right_data = sorted_data[mid_idx+1:]  # mid_idx已经作为当前层根节点了,所以不能加mid_idx这个数据对
        cur_node = Node(sorted_data[mid_idx])  # 将中位数作为当前根节点
        cur_node.left = self.build_tree(left_data, depth + 1)  # 递归构建当前根节点左子树
        cur_node.right = self.build_tree(right_data, depth + 1)  # 递归构建当前根节点右子树

        return cur_node

    # 计算欧氏距离
    def cal_dis(self, point1, point2):
        return np.linalg.norm(np.array(point1) - np.array(point2))

    # 最近邻搜索(1个target)
    def search_nn(self, tree, target):
        self.near_dis = None
        self.near_point = None

        def dfs(node, depth):
            if not node:
                return

            # 第一步要先找到叶子节点,之后再进行回溯
            split = depth % self.K
            if target[split] < node.val[split]:
                dfs(node.left, depth + 1)  # 该行包括下面的dfs行,第一个参数输入都是某个节点node.left或node.right,所以本质上该节点node并没有改变,每次改变的都是函数输入参数,所以当dfs递归结束并回退到该位置时,该节点没有变化,以此实现回溯上一个节点的过程!
            else:
                dfs(node.right, depth + 1)
            # ======= 到这结束就已经找到了某个路径下最终叶子节点 =======

            # 开始回溯,以当前叶子节点和目标节点的距离作为初始的最小距离
            dis = self.cal_dis(node.val, target)
            if not self.near_dis or dis < self.near_dis:
                self.near_dis = dis
                self.near_point = node.val

            # 判断是否遍历该节点另一边子树
            if abs(node.val[split] - target[split]) < self.near_dis:
                if target[split] < node.val[split]:  # 第一次从上往下遍历时目标节点值小于当前节点值时,就遍历左边;回溯时因为要遍历另一边,所以刚好相反!
                    dfs(node.right, depth + 1)
                else:
                    dfs(node.left, depth + 1)

        dfs(tree, 0)
        return self.near_point


if __name__ == "__main__":
    # dataset, target, K = [[2, 3], [5, 4], [9, 6], [4, 7], [8, 1], [7, 2]], [1, 5], 2
    N_points, K = 64, 2
    dataset = np.random.rand(N_points, K)  # 生成随机的三维坐标数据
    target = np.random.rand(1, K)[0]  # 目标点坐标
    tree = KDTree(K)  # 构建kdtree类
    my_tree = tree.build_tree(dataset, 0)  # 使用数据构建kdtree
    nearest_point = tree.search_nn(my_tree, target)  # 求最近邻坐标点

    print('Nearest Point of {}: {}'.format(target, nearest_point))
    plt.scatter([x[0] for x in dataset], [x[1] for x in dataset], c='blue', label='train_data')
    plt.scatter(target[0], target[1], c='red', label='target')
    plt.plot([nearest_point[0], target[0]], [nearest_point[1], target[1]], c='green', label='Nearest Point', linestyle='--')
    plt.legend()
    plt.show()

运行结果:
在这里插入图片描述

3.5 细节点理解

3.5.1 分割维度的选择

(1)选择方差最大的特征

方差大说明该维度的数据相对分散,因此选择该特征进行分割可以获得更好的平衡。但可能会出现许多长条的分割,如右图。
在这里插入图片描述

(2)轮流选择

计算方差也是一笔开销,所以通常选择最简单的做法:轮流选择。(计算方式:用树深对K取模)

(3)选择数据维度最大的那一维

能够解决方法一可能导致的许多长条分割问题,该方法对最近邻搜索是十分友好的。
在这里插入图片描述

3.5.2 为什么选取中位数作为分割点?

借鉴BST思想,选取中位数,尽量让左子树和右子树数量一致,便于二分查找,降低查找时间复杂度。

    

(本文完整的pdf请关注“张张学算法”,并回复“027”获取~)

    

本文由mdnice多平台发布

  • 19
    点赞
  • 27
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
# 《统计学习方法》笔记与算法实现 ## 说明 李航《统计学习方法》笔记与算法Python 实现。测试样例是例题数据,学习笔记主要在[本人博客](http://yuenshome.cn)的[《统计学习方法》](http://yuenshome.cn/?cat=202)目录下,也可点击下方目录的章节名阅读笔记。笔记大部分为原书的内容摘抄。 算法主要基于 Python 语言进行实现,为了原汁原味地用代码算法描述,所有没有使用第三方的线性代数运算库(如 Numpy 或 Pandas 等)。代码注释尽可能完善完整,力求描述准确到位。如有错误,还望指出([→ 点击这里提问题吧 ←](https://github.com/ysh329/statistical-learning-methods-note/issues)),不胜感激! ## 目录 * 第 1 章 统计学习方法概论 * 第 2 章 [感知机](./chapter_2_perceptron/) [\[感知机代码-原始形式\]](./chapter_2_perceptron/Perceptron.py) [\[感知机代码-对偶形式\]](./chapter_2_perceptron/Dual-form_Perceptron.py) * 第 3 章 [k近邻算法](./chapter_3_kNN/) [\[k近邻代码\]](./chapter_3_kNN/kNN.py) [\[kd树简化版代码\]](./chapter_3_kNN/Simple-kd-Tree.py) [\[kd树完整版代码\]](./chapter_3_kNN/kd-Tree.py) [\[错误kd代码\]](./chapter_3_kNN/WrongKDTreeCodeDemo.py) * 第 4 章 [朴素贝叶斯法](./chapter_4_NaiveBayes/) * 第 5 章 决策树 * 第 6 章 逻辑斯谛回归与最大熵模型 * 第 7 章 支持向量机 * 第 8 章 [提升方法](./chapter_8_boosting/) [\[AdaBoost代码\]](./chapter_8_boosting/AdaBoost.py) * 第 9 章 EM算法及其推广 * 第 10 章 隐马尔科夫模型 * 第 11 章 条件随机场 * 第 12 章 统计学习方法总结 -------- 该资源内项目源码是个人的毕设,代码都测试ok,都是运行成功后才上传资源,答辩评审平均分达到96分,放心下载使用! <项目介绍> 1、该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的,请放心下载使用! 2、本项目适合计算机相关专业(如计科、人工智能、通信工程、自动化、电子信息等)的在校学生、老师或者企业员工下载学习,也适合小白学习进阶,当然也可作为毕设项目、课程设计、作业、项目初期立项演示等。 3、如果基础还行,也可在此代码基础上进行修改,以实现其他功能,也可用于毕设、课设、作业等。 下载后请首先打开README.md文件(如有),仅供学习参考, 切勿用于商业用途。 --------
kdtree是一种数据结构,用于解决k近邻问题。可以方便地找到与给定点最近的k个点。 Python实现kdtree构建的过程可以分为以下几步: 1.定义树结点,包括坐标、分裂维度、左右子树 class KdNode(object): def __init__(self, coordinate=None, split=None, left=None, right=None): self.coordinate = coordinate self.split = split self.left = left self.right = right 2.定义分裂方法,按照轴的坐标进行划分,并返回分裂后的左右子树以及分裂维度。 def divide_tree(nodes, depth=0): if not nodes: return None, None, 0 dim = len(nodes[0]) #维度 axis = depth % dim #分裂维度 nodes.sort(key=lambda x: x[axis]) #按照轴的坐标排序 mid = len(nodes) // 2 left = nodes[:mid] right = nodes[mid+1:] node = KdNode(nodes[mid], axis) node.left = divide_tree(left, depth+1) node.right = divide_tree(right, depth+1) return node, node.left, node.right, axis 3.定义k近邻搜索方法,传入当前根节点、目标点和查找的k值,返回最近的k个点 import heapq def knn_search(root, target, k): heap = [] #使用堆来存储最近的k个点 def travel(node): if node: dist = sum((node.coordinate[i]-target[i])**2 for i in range(len(target))) if len(heap) < k: heapq.heappush(heap, (-dist, node.coordinate)) else: if dist < -heap[0][0]: heapq.heappop(heap) heapq.heappush(heap, (-dist, node.coordinate)) split = node.split #分裂维度 if target[split] <= node.coordinate[split]: travel(node.left) else: travel(node.right) travel(root) return [heapq.heappop(heap)[1] for _ in range(k)][::-1] 这样kdtree构建实现knnpython代码就完成了,具体使用时可以将数据集作为一个二维数组传入divide_tree()函数,返回根节点并保存,用knn_search()函数查找最近的k个点。kdtree能有效优化k近邻的搜索时间,并且在高维数据集表现更为出色,值得我们掌握。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Satisfying

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值