机器学习算法之KD-Tree

原理

线性查找

假设我们有一个线性表[0, 6, 3, 8, 7, 4, 11],我们寻找这个序列中离x距离最近的元素的值。所谓线性查找,就是暴力遍历这个表,找个离x的距离的元素。假设查找操作执行了n次,线性表的长度为m,那么这个过程的复杂度就是O(nm)。

一点改进-二分查找

如果我们让线性表升序排列,那么我们每次查找就可以使用二分的方式最多用logm次比较就可以找到离x最近的元素。算法的复杂度为O(n*log(m))

BST

除了在线性表中查找之外,我们还可以把线性表中的数建成一颗BST。对于上面的线性表,建立出来的BST如下:

在这里插入图片描述

查找问题升级

刚才讨论的是在线性表中进行查找,那么现在变为如果我们在二维平面查找会怎么样呢?假设数组B为[[6, 2], [6, 3], [3, 5], [5, 0], [1, 2], [4, 9], [8, 1]],有一个元素x,我们要找到数组B中距离x最近的元素,应该如何实现呢?比较直接的想法是用数组B中的每一个元素与x求距离,距离最小的那个元素就是我们要找的元素。假设x = [1, 1],那么用数组A中的所有元素与x求距离得到[5.0, 5.4, 4.5, 4.1, 1.0, 8.5, 7.0],其中距离最小的是1,对应的元素是数组B中的[1, 2],所以[1, 2]就是我们的查找结果。当然,这个仅仅是一次查找,如果我们我们有很多次查找,这个方法的复杂度就会很大。

KD-Tree

为了解决上诉问题,引入KD-Tree。将上面的数组B建成一颗KD-Tree如下:

在这里插入图片描述那么是如何建立的这颗KD-Tree,建立之后如何查找呢?
建立KD-Tree的过程可以总结为5个步骤:

  1. 建立根节点
  2. 选取方差最大的特征作为分割特征
  3. 选取该特征的中位数作为分割点
  4. 将数据集中该特征小于中位数的传递给根节点的左儿子,大于中位数的传递给根节点的右儿子
  5. 递归执行步骤2-4,直到所有数据都被建立到KD Tree的节点为止

现在建立好了KD-Tree,那么如何查找呢?步骤如下:

  1. 从根节点开始,根据目标在分割特征中是否小于或大于当前节点,向左或向右移动
  2. 一旦算法到达叶节点,它就将节点点保存为“当前最佳”。
  3. 回溯,即从叶节点再返回到根节点。
  4. 如果当前节点比当前最佳节点更接近,那么它就成为当前最好的。
  5. 如果目标距离当前节点的父节点所在的将数据集分割为两份的超平面的距离更接近,说明当前节点的兄弟节点所在的子树有可能包含更近的点。因此需要对这个兄弟节点递归执行1-4步。

超平面

刚才探索了一维列表和二维平面上点的查找,那么如若引申到3维或者更高维度呢?
以[0, 2, 0], [1, 4, 3], [2, 6, 1]的举例:

  • 如果果用第二维特征作为分割特征,那么从三个数据点中的对应特征取出2, 4, 6,中位数是4
  • 所以[1, 4, 3]作为分割点,将[0, 2, 0]划分到左边,[2, 6, 1]划分到右边
  • 从立体几何的角度考虑,三维空间得用一个二维的平面才能把空间一分为二,这个平面可以用y = 4来表示
  • 点[0, 2, 0]到超平面y = 4的距离就是 sqrt((2 - 4) ^ 2) = 2
  • 点[2, 6, 1]到超平面y = 4的距离就是 sqrt((6 - 4) ^ 2) = 2

代码实现

代码里面使用了python中的一个@property方法,解释请看这里:

#coding=utf-8
from time import time
from copy import copy
from random import randint

# 产生一个[low,high)区间的随机数组
def gen_data(low, high, n_rows, n_cols=None):
    if n_cols is None:
        ret = [randint(low, high) for _ in range(n_rows)]
    else:
        ret = [[randint(low, high) for _ in range(n_cols)]
               for _ in range(n_rows)]
    return ret

def get_euclidean_distance(arr1, arr2):
    return sum((x1 - x2) ** 2 for x1, x2 in zip(arr1, arr2))

class Node(object):

    def __init__(self):
        self.father = None
        self.left = None
        self.right = None
        self.feature = None
        self.split = None

    def __str__(self):
        return ("feature: %s, split: %s" % (str(self.feature), str(self.split)))

    @property
    def brother(self):
        if not self.father:
            ret = None
        else:
            if self.father.left is self:
                ret = self.father.right
            else:
                ret = self.father.left
        return ret

class KDTree(object):

    def __init__(self):
        # root代表KD-Tree的根节点
        self.root = Node()

    def __str__(self):
        # 展示KD-Tree每个节点的关系
        ret = []
        i = 0
        que = [(self.root, -1)]
        while que:
            nd, idx_father = que.pop(0)
            ret.append("%d -> %d: %s" % (idx_father, i, str(nd)))
            if nd.left:
                que.append((nd.left, i))
            if nd.right:
                que.append((nd.right, i))
            i += 1
        return "\n".join(ret)

    def get_median_idx(self, X, idxs, feature):
        # 计算一列数据的中位数
        n = len(idxs)
        # 忽略n为奇数或者偶数
        k = n // 2
        # 以元组形式获取列j的所有索引和元素
        col = map(lambda i: (i, X[i][feature]), idxs)
        # 根据元素的值对元组进行排序,并获取相应的索引
        sorted_idxs = map(lambda x: x[0], sorted(col, key=lambda x:x[1]))
        # 搜索中值
        median_idx = list(sorted_idxs)[k]
        return median_idx

    def get_variance(self, X, idxs, feature):
        # 计算一列数据的方差
        n = len(idxs)
        col_sum = col_sum_sqr = 0
        for idx in idxs:
            xi = X[idx][feature]
            col_sum += xi
            col_sum_sqr += xi ** 2
        # D(X) = E{[X-E(X)]^2} = E(X^2)-[E(X)]^2
        return col_sum_sqr / n - (col_sum / n) ** 2
    # 取方差最大的特征作为分割点特征
    def choose_feature(self, X, idxs):
        m = len(X[0])
        variances = map(lambda j: (j, self.get_variance(X, idxs, j)), range(m))
        return max(variances, key=lambda x: x[1])[0]

    def split_feature(self, X, idxs, feature, median_idx):
        idxs_split = [[], []]
        split_val = X[median_idx][feature]
        for idx in idxs:
            if(idx == median_idx):
                continue
            xi = X[idx][feature]
            if xi < split_val:
                idxs_split[0].append(idx)
            else:
                idxs_split[1].append(idx)
        return idxs_split

    # 使用广度优先搜索的方式建立KD Tree,注意要对X进行归一化。
    def build_tree(self, X, y):
        nd = self.root
        idxs = range(len(X))
        que = [(nd, idxs)]
        while que:
            nd, idxs = que.pop(0)
            n = len(idxs)
            if n == 1:
                nd.split = (X[idxs[0]], y[idxs[0]])
                continue
            feature = self.choose_feature(X, idxs)
            median_idx = self.get_median_idx(X, idxs, feature)
            idxs_left, idxs_right = self.split_feature(X, idxs, feature, median_idx)
            nd.feature = feature
            nd.split = (X[median_idx], y[median_idx])
            if idxs_left != []:
                nd.left = Node()
                nd.left.father = nd
                que.append((nd.left, idxs_left))
            if idxs_right != []:
                nd.right = Node()
                nd.right.father = nd
                que.append((nd.right, idxs_right))

    # 比较目标元素与当前结点的当前feature,访问对应的子节点。
    # 反复执行上述过程,直到到达叶子节点。
    def search(self, Xi, nd):
        while nd.left or nd.right:
            if nd.left is None:
                nd = nd.right
            elif nd.right is None:
                nd = nd.left
            else:
                if Xi[nd.feature] < nd.split[0][nd.feature]:
                    nd = nd.left
                else:
                    nd = nd.right
        return nd

    #计算目标元素与某个节点的欧氏距离,注意get_euclidean_distance
    # 这个函数没有进行开根号的操作,所以求出来的是欧氏距离的平方。
    def get_eu_dist(self, Xi, nd):
        X0 = nd.split[0]
        return get_euclidean_distance(Xi, X0)

    # 计算目标元素与某个节点所在超平面的欧氏距离,为了跟上面函数保持一致,要加上平方。
    def get_hyper_plane_dist(self, Xi, nd):
        j = nd.feature
        X0 = nd.split[0]
        return (Xi[j] - X0[j]) ** 2

    # 搜索KD-Tree中与目标元素距离最近的节点,使用广度优先搜索来实现。
    def nearest_neighbour_search(self, Xi):
        dist_best = float("inf")
        nd_best = self.search(Xi, self.root)
        que = [(self.root, nd_best)]
        while que:
            nd_root, nd_cur = que.pop(0)
            while 1:
                dist = self.get_eu_dist(Xi, nd_cur)
                if dist < dist_best:
                    dist_best = dist
                    nd_best = nd_cur
                if nd_cur is not nd_root:
                    nd_bro = nd_cur.brother
                    if nd_bro is not None:
                        dist_hyper = self.get_hyper_plane_dist(Xi, nd_cur.father)
                        if dist > dist_hyper:
                            _nd_best = self.search(Xi, nd_bro)
                            que.append((nd_bro, _nd_best))
                    nd_cur = nd_cur.father
                else:
                    break
        return nd_best


# 暴力搜索
def exhausted_search(X, Xi):
    dist_best = float('inf')
    row_best = None
    for row in X:
        dist = get_euclidean_distance(Xi, row)
        if dist < dist_best:
            dist_best = dist
            row_best = row
    return row_best


def main():
    print("Testing KD Tree...")
    test_times = 100
    run_time_1 = run_time_2 = 0
    for _ in range(test_times):
        low = 0
        high = 100
        n_rows = 1000
        n_cols = 2
        X = gen_data(low, high, n_rows, n_cols)
        y = gen_data(low, high, n_rows)
        Xi = gen_data(low, high, n_cols)

        tree = KDTree()
        tree.build_tree(X, y)

        start = time()
        nd = tree.nearest_neighbour_search(Xi)
        run_time_1 += time() - start
        ret1 = get_euclidean_distance(Xi, nd.split[0])

        start = time()
        row = exhausted_search(X, Xi)
        run_time_2 += time() - start
        ret2 = get_euclidean_distance(Xi, row)

        assert ret1 == ret2, "target:%s\nrestult1:%s\nrestult2:%s\ntree:\n%s" \
            % (str(Xi), str(nd), str(row), str(tree))
    print("%d tests passed!" % test_times)
    print("KD Tree Search %.2f s" % run_time_1)
    print("Exhausted search %.2f s" % run_time_2)


main()

测试结果

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值