局部敏感哈希 python实现_LSH-局部敏感哈希

局部敏感哈希(LSH)是一种用于高维数据快速近似查找的哈希算法,最早由Indyk在1998年提出。LSH利用哈希冲突来加速近邻搜索,尤其适用于解决cNN问题。它通过设计哈希函数,使得距离近的点哈希值相同的概率较高,而距离远的点概率较低。LSH在实际应用中,如图像、音频检索和网页去重等方面表现出高效性。本文介绍了LSH的基本思想、定义、重要参数以及汉明距离和曼哈顿距离的应用,并展示了如何将LSH应用于Python实现。
摘要由CSDN通过智能技术生成

一. 近邻搜索

局部敏感哈希,英文locality-sensetive hashing,常简称为LSH。局部敏感哈希在部分中文文献中也会被称做位置敏感哈希。LSH是一种哈希算法,最早在1998年由Indyk在上提出。不同于我们在数据结构教材中对哈希算法的认识,哈希最开始是为了减少冲突方便快速增删改查,在这里LSH恰恰相反,它利用的正式哈希冲突加速检索,并且效果极其明显。

LSH主要运用到高维海量数据的快速近似查找。近似查找便是比较数据点之间的距离或者是相似度。因此,很明显,LSH是向量空间模型下的东西。一切数据都是以点或者说以向量的形式表现出来的。在细说LSH之前必须先提一下K最近邻查找 (kNN,k-Nearest Neighbor)与c最近邻查找 (cNN,c-Nearest Neighbor )。      kNN问题就不多说了,这个大家应该都清楚,在一个点集中寻找距离目标点最近的K个点。我们主要提一下cNN问题。首先给出最近邻查找(NN,Nearest Neighbor)的定义。

4a6b8ddfe5544532ec432a0833a5c96f.png

定义 1: 给定一拥有n个点的点P,在此集合中寻找距离q 点最近的一个点。

这个定义很容易被理解,需要说明的是这个距离是个广义的概念,并没有说一定是欧式距离。随着需求的不同可以是不同的距离度量手段。那么接下来给出cNN问题的定义。   

45d9b503ec3021ad98396d86300b20ba.png

定义 2: 给定一拥有n个点的点集P,在点集中寻找点

这个
满足
其中d
是P中 距离古点最近一点到的的距离。

cNN不同于kNN,cNN和距离的联系更加紧密。LSH本身设计出来是专门针对解决cNN问题,而不是kNN问题,但是很多时候kNN与cNN有着相似的解集。因此LSH也可以运用在kNN问题上。这些问题若使用一一匹配的暴力搜索方式会消耗大量的时间,即使这个时间复杂度是线性的。

也许一次两次遍历整个数据集不会消耗很多时间,但是如果是以用户检索访问的形式表现出来可以发现查询的用户多了,每个用户都需要消耗掉一些资源,服务器往往会承受巨大负荷。那么即使是线性的复杂度也是不可以忍受的。早期为了解决这类问题涌现出了许多基于树形结构的搜索方案,如KD树,SR树。但是这些方法只适用于低维数据。自从LSH的出现,高维数据的近似查找便得到了一定的解决。

二. LSH的定义

LSH不像树形结构的方法可以得到精确的结果,LSH所得到的是一个近似的结果,因为在很多领域中并不需非常高的精确度。即使是近似解,但有时候这个近似程度几乎和精准解一致。    LSH的主要思想是,高维空间的两点若距离很近,那么设计一种哈希函数对这两点进行哈希值计算,使得他们哈希值有很大的概率是一样的。同时若两点之间的距离较远,他们哈希值相同的概率会很小。给出LSH的定义如下:

定义3: 给定一族哈希函数H,H是一个从欧式空间S到哈希编码空间U的映射。如果以下两个条件都满足, 则称此 哈希函数满足

性。

定义3中B表示的是以q为中心,

为半径的空间。其实还有个版本的定义, 用的是距离的方式, 其实都是一样的。(至于说为什么是
同时时出现,如果要严密的说这确实是个问题,但是人家大牛的论文下的定义, 不要在意这些细节
我绘制了一幅图来说明一下这个定义。

9e0c72b0f0d4e6743d5c53f7224e8e4c.png

e90500e159c3db5fa5d67547448bfe0b.png

三. 曼哈顿距离转换成汉明距离

从理论讲解的逻辑顺序上来说,现在还没到非要讲具体哈希函数的时候,但是为了方便理解,

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值
>