Locality Sensitive Hashing(LSH)之随机投影法



http://www.strongczq.com/2012/04/locality-sensitive-hashinglsh%E4%B9%8B%E9%9A%8F%E6%9C%BA%E6%8A%95%E5%BD%B1%E6%B3%95.html

1. 概述

LSH是由文献[1]提出的一种用于高效求解最近邻搜索问题的Hash算法。LSH算法的基本思想是利用一个hash函数把集合中的元素映射成hash值,使得相似度越高的元素hash值相等的概率也越高。LSH算法使用的关键是针对某一种相似度计算方法,找到一个具有以上描述特性的hash函数。LSH所要求的hash函数的准确数学定义比较复杂,以下给出一种通俗的定义方式:

对于集合S,集合内元素间相似度的计算公式为sim(*,*)。如果存在一个hash函数h(*)满足以下条件:存在一个相似度s到概率p的单调递增映射关系,使得S中的任意两个满足sim(a,b)>=s的元素a和b,h(a)=h(b)的概率大于等于p。那么h(*)就是该集合的一个LSH算法hash函数。

一般来说在最近邻搜索中,元素间的关系可以用相似度或者距离来衡量。如果用距离来衡量,那么距离一般与相似度之间存在单调递减的关系。以上描述如果使用距离来替代相似度需要在单调关系上做适当修改。

根据元素相似度计算方式的不同,LSH有许多不同的hash算法。两种比较常见的hash算法是随机投影法和min-hash算法。本文即将介绍的随机投影法适用于集合元素可以表示成向量的形式,并且相似度计算是基于向量之间夹角的应用场景,如余弦相似度。min-hash法在参考文献[2]中有相关介绍。


2 随机投影法(Random projection)

假设集合S中的每个元素都是一个n维的向量:

v⃗ ={v1,v2,,vn}

,集合中两个元素 v⃗  u⃗  之间的相似度定义为

sim(v⃗ ,u⃗ )=v⃗ u⃗ |v⃗ ||u⃗ |

对于以上元素集合S的随机投影法hash函数h(*)可以定义为如下:

在n维空间中随机选取一个非零向量 x⃗ ={x1,x2,,xn} 。考虑以该向量为法向量且经过坐标系原点的超平面,该超平面把整个n维空间分成了两部分,将法向量所在的空间称为正空间,另一空间为负空间。那么集合S中位于正空间的向量元素hash值为1,位于负空间的向量元素hash值为0。判断向量属于哪部分空间的一种简单办法是判断向量与法向量之间的夹角为锐角还是钝角,因此具体的定义公式可以写为

h(v⃗ )={1,0,v⃗ x⃗ >0v⃗ x⃗ <=0

根据以上定义,假设向量 v⃗  u⃗  之间的夹角为 θ ,由于法向量 x⃗  是随机选取的,那么这两个向量未被该超平面分割到两侧(即hash值相等)的概率应该为: p(θ)=1θπ 。假设两个向量的相似度值为s,那么根据 θ=arccos(s) ,有

p(s)=1arccos(s)π

。因此,存在相似度s到概率p的单调递增映射关系,使得对于任意相似度大于等于s的两个元素,它们hash值相等的概率大于等于 p(s) 。所以,以上定义的hash值计算方法符合LSH算法的要求。

以上所描述的h(*)函数虽然符合LSH算法的要求,但是实用性不高。因为该hash函数只产生了两个hash值,没有达到hash函数将元素分散到多个分组的目的。为了增加不同hash值的个数,可以多次生成独立的函数h(*),只有当两个元素的多个h(*)值都相等时才算拥有相同的hash值。根据该思路可以定义如下的hash函数H(*):

H(v⃗ )=(hb(v⃗ )hb1(v⃗ )h1(v⃗ ))2

。其中每个 hi(v⃗ ) 表示一个独立的h(*)函数,H(*)函数值的二进制表现形式中每一位都是一个h(*)函数的结果。

以H(*)为hash函数的话,两个相似度为s的元素具有相同hash值的概率公式为

p(s)=(1arccos(s)π)b

。hash值的个数为 2b 。很容易看出H(*)函数同样也是符合LSH算法要求的。一般随机按投影算法选用的hash函数就是H(*)。其中参数b的取值会在后面小节中讨论。

3 随机投影法在最近邻搜索中的应用

3.1 最近邻搜索

最近邻搜索可以简单的定义为:对于m个元素的集合T,为一个待查询元素q找到集合中相似度最高的k个元素。

最近邻搜索最简单的实现方法为:计算q与集合T中每一个元素的相似度,使用一个具有k个元素的大顶堆(优先队列)保存相似度计算结果(相似度值为key)。这种实现方法每一次查询都要遍历整个集合T来计算相似度,当m很大并且查询的频率很高的时候这种暴力搜索的方法无法满足性能要求。

当最近邻搜索的近邻要求并不是那么严格的时候,即允许top k近邻的召回率不一定为1(但是越高越好),那么可以考虑借助于LSH算法。

3.2 随机投影法提高执行速度

这里我们介绍当集合T的元素和查询元素q为同维度向量(维度为n),并且元素相似度计算方法为余弦相似度时,使用随机投影法来提高最近邻搜索的执行速度。具体的实现方法为:

预处理阶段:使用hash函数H(*)计算集合T中所有元素的hash值,将集合T分成一个个分组,每个分组内的元素hash值均相等。用合适的数据结构保存这些hash值到分组的映射关系(如HashMap)。

查询阶段:计算查询元素q的hash值H(q),取集合T中所有hash值为H(q)的分组,以该分组内的所有元素作为候选集合,在候选该集合内使用简单的最近邻搜索方法寻找最相似的k个元素。

该方法的执行效率取决于H(*)的hash值个数 2b ,也就是分组的个数。理想情况下,如果集合T中的向量元素在空间中分布的足够均匀,那么每一个hash值对应的元素集合大小大致为 m2b 。当m远大于向量元素的维度时,每次查询的速度可以提高到 2b 倍。

根据以上分析H(*)中b的取值越大算法的执行速度的提升越多,并且是指数级别的提升。但是,在这种情况下H(*)函数下的概率公式p(s),实际上表示与查询元素q的相似度为s的元素的召回率。当b的取值越大时,top k元素的召回率必然会下降。因此算法执行速度的提升需要召回率的下降作为代价。例如:当b等于10时,如果要保证某个元素的召回率不小于0.9,那么该元素与查询元素q的相似度必须不小于0.9999998。

3.3 提高召回率改进

为了在保证召回率的前提下尽可能提高算法的执行效率,一般可以进行如下改进:

预处理阶段:生成t个独立的hash函数 Hi() ,根据这t个不同的hash函数,对集合T进行t种不同的分组,每一种分组方式下,同一个分组的元素在对应hash函数下具有相同的hash值。用合适的数据结构保存这些映射关系(如使用t个HashMap来保存)。

查询阶段:对于每一个hash函数 Hi() ,计算查询元素q的hash值 Hi(q) ,将集合T中 Hi() 所对应的分组方式下hash值为 Hi(q) 的分组添加到该次查询的候选集合中。然后,在该候选集合内使用简单的最近邻搜索方法寻找最相似的k个元素。

以上改进使得集合中元素与查询元素q的t个hash值中,只要任意一个相等,那么该集合元素就会被加入到候选集中。那么,相似度为s的元素的召回率为

p(s)=1(1(1arccos(s)π)b)t

在执行效率上,预处理阶段由于需要计算t个hash函数的值,所以执行时间上升为t倍。查询阶段,如果单纯考虑候选集合大小对执行效率的影响,在最坏的情况下,t个hash值获得的列表均不相同,候选集集合大小的期望值为 tm2b ,查询速度下降至 1t ,与简单近邻搜索相比查询速度提升为 2bt 倍。

下图是召回率公式 p(s)=1(1(1arccos(s)π)b)t 在不同的b和t取值下的s-p曲线。我们通过这些曲线来分析这里引入参数t的意义。4条蓝色的线以及最右边红色的线表示当t取值为1(相当于没有引入t),而b的取值从1变化到5的过程,从图中可以看出随着b的增大,不同相似度下的召回率都下降的非常厉害,特别的,当相似度接近1时曲线的斜率很大,也就说在高相似度的区域,召回率对相似度的变化非常敏感。10条红色的线从右到左表示b的取值为5不变,t的取值从1到10的过程,从图中可以看出,随着t的增大,曲线的形状发生了变化,高相似度区域的召回率变得下降的非常平缓,而最陡峭的地方渐渐的被移动到相对较低的相似度区域。因此,从以上曲线的变化特点可以看出,引入适当的参数t使得高相似度区域在一段较大的范围内仍然能够保持很高的召回率从而满足实际应用的需求。

image

3.4 参数选取

根据以上分析,H(*)函数的参数b越大查询效率越高,但是召回率越低;参数t越大查询效率越低但是召回率越高。因此选择适当参数b和t来折中查询效率与召回率之间的矛盾是应用好随机投影法的关键。下面提供一种在实际应用中选取b和t的参考方法。

根据实际应用的需要确定一对(s,p),表示相似度大于等于s的元素,召回率的最低要求为p。然后将召回率公式表示成b-t之间的函数关系 t=log1(1acos(s)pi)b(1p) 。根据(s,p)的取值,画出b-t的关系曲线。如s=0.8,p=0.95时的b-t曲线如下图所示。考虑具体应用中的实际情况,在该曲线上选取一组使得执行效率可以达到最优的(b,t)组合。

image

3.5 关于最近邻文本搜索

在最近邻文本搜索中,一般待检索的文本或查询文本,都已被解析成一系列带有权重的关键词,然后通过余弦相似度公式计算两个文本之间的相似度。这种应用场景下的最近邻搜索与以上所提到的最近邻搜索问题相比存在以下两个特点:

  • 如果把每个文本的带权重关键词表都看作是一个向量元素的话,每个关键词都是向量的一个维度,关键词权重为该维度的值。理论上可能关键词的个数并不确定(所有单词的组合都可能是一个关键词),因此该向量元素的维数实际上是不确定的。
  • 由于关键词权重肯定是大于零的,所以向量元素的每一个维度的值都是非负的。

对于第一个特点,我们需要选取一个包含n个关键词的关键词集合,在进行文本相似度计算时只考虑属于该集合的关键词。也就是说,每一个文本都视为是一个n维度的向量,关键词权重体现为对应维度的值。该关键词集合可以有很多种生成办法,比如可以是网站上具有一定搜索频率的关键词集合,总的来说该关键词集合应当能够涵盖所有有意义并且具有一定使用频率的关键词。通常n的取值会比较大,如几十万到几百万,由于在使用随机投影算法时,每一个生成的随机向量维度都为n,这种情况下需要特别考虑利用这些高维随机向量对执行效率造成的影响,在确定b、t参数时需要考虑到这方面的影响。

对于第二个特点,由于向量元素各维度值都非负,那么这些元素在高维空间中只会出现在特定的区域中。比如当n为3时,只会出现在第一象限中。一个直观的感觉是在生成随机向量的时候,会不会生成大量的无用切割平面(与第一个象限空间不相交,使得所有元素都位于切割平面的同侧)。这些切割平面对应的H(*)函数hash值中的二进制位恒定为1或者0,对于提高算法执行速度没有帮助。以下说明这种担心是没有必要的:

切割平面与第一象限空间不相交等价于其法向量的每一个维度值都有相同的符号(都为正或者负),否则总能在第一象限空间中找到两个向量与法向量的乘积符号不同,也就是在切割平面的两侧。那么,随机生成的n维向量所有维度值都同号的概率为 12n1 ,当n的取值很大时,该概率可以忽略不计。

参考文献

[1] P. Indyk and R. Motwani. Approximate Nearest Neighbor:Towards Removing the Curse of Dimensionality. In Proc. of the 30th Annual ACM Symposium on Theory of Computing, 1998, pp. 604–613.

[2] Google News Personalization: Scalable Online Collaborative Filtering

### 回答1: 局部敏感哈希(Locality Sensitive Hashing)是一种用于高维数据相似性搜索的技术。它通过将高维数据映射到低维空间中,并在低维空间中使用哈希函数来快速识别相似的数据点。这种技术在大规模数据处理和机器学习中得到广泛应用。 ### 回答2: 局部敏感哈希(Locality Sensitive HashingLSH)是一种近似近邻搜索(Approximate Nearest Neighbor Search,ANNS)算,用于高维数据的快速相似性搜索。它的基本思想是将相似的点映射成同一个桶中,从而降低了相似性搜索的计算复杂度。它在大规模数据处理中有着广泛的应用,如图像搜索、文本相似度搜索等。 LSH 基于随机化的思想,其核心在于哈希函数的设计。哈希函数的设计原则是:如果两个点在高维空间中很接近,那么它们在哈希表中的映射值也应该相近。常用的哈希函数有欧氏距离哈希、Jaccard 相似度哈希、海明距离哈希等。其中,欧氏距离哈希是最普遍的一种。 LSH 的搜索过程主要分为两个步骤:首先,将查询向量通过哈希函数映射成一些桶中,并确定一些候选集;然后,计算候选集中每个桶中的所有向量与查询向量之间的相似度,最终返回相似度最高的向量。虽然 LSH 的搜索结果是近似值,并非精确值,但是它的搜索速度很快,适用于大规模数据处理。 LSH的优点是其可以进行高维度数据相似性搜索,并且不会受到噪声等外部干扰的影响。 它的缺点是搜索结果具有一定的误差,并且哈希函数的设计需要经验和调整。 ### 回答3: 本地敏感哈希(Locality Sensitive HashingLSH)是一种用于相似度搜索的技术。它能帮助我们在大规模数据集中高效地找到与给定数据相似的数据。 在传统的哈希表中,散列函数只是简单地将数据映射到哈希表中的一个位置。而在LSH中,我们使用多个哈希函数,并通过一个哈希值的向量来表示数据。具体来说,给定一个数据点,我们可以通过多次哈希得到该数据点的多个哈希值。这些哈希值构成了该数据点的哈希值向量。我们可以将这个哈希值向量看作是该数据点的一个“指纹”。 在相似度搜索中,我们通常通过计算两个数据点的距离来判断它们的相似度。但对于大规模数据集,遍历整个数据集的时间代价是巨大的。在这种情况下,我们可以使用LSH来快速减少需要计算距离的数据点数量。 LSH的核心思想是,通过选择合适的哈希函数来最大限度地减少不相似的数据点产生相同哈希值的可能性,增加相似的数据点产生相同哈希值的可能性。这样,我们在需要查找相似数据时,只需要针对哈希值相同的数据点计算距离,从而减少计算开销。 举个例子,可以使用哈希函数将相似的文本数据映射到相同的桶里。对于文本数据,可以选择将一个文档中各个单词的计数向量作为该文档的哈希值向量,然后选择海明距离(Hamming Distance)作为距离计算方式。当两个文档的向量在海明距离上很接近时,它们就有可能是相似的文档。 总之,LSH是一种高效的相似度搜索技术,它可以减少在大规模数据集中需要遍历的数据数量,从而节省计算开销。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值