C++布隆过滤器

一、前提引入

思考如下的题目

将长度为10的字符串保存在哈希表中,需要多少空间

对于每个字符来说,都有256中可能(即ASCII的理论字符数量,常用ASCII编码只有128个),因此一个长度为10的字符串有256^{10}种比特组合

因此将字符串转换成整型,是从大范围转换到小范围。也就是多对一,因此将其映射到哈希表中,一定会产生冲突

可能出现如下情况

将其进行二次映射,也就是采用两个位置进行映射,从而尽量减少冲突。二次映射可能又会导致冲突,但是二次映射的目的不是消除冲突,而是尽量减少冲突

 由于是多个哈希函数映射,因此对于一个字符串x是否存在的判断可能出现以下情况

①x在哈希表中:x的多个映射位置的比特值都为1。但由于多次映射,比特值为1可能是别的字符串映射的结果。因此x在哈希表中的判断是不一定准确的,可能出现误判情况

②x不在哈希表中:如果x的多个映射位置中有任意一个的比特值为0,则代表x不在哈希表中。也就是说别的字符串映射结果并不影响x不在哈希表中的映射。所以x不在哈希表中的判断是一定准确的

二、布隆过滤器概念

布隆过滤器是哈希与位图的结合

布隆过滤器是由布隆(Burton Howard Bloom)在1970年提出的 一种紧凑型的、比较巧妙的概率型数据结构,特点是高效地插入和查询,可以用来告诉你 “某样东西一定不存在或者可能存在”,它是用多个哈希函数,将一个数据映射到位图结构中。此种方式不仅可以提升查询效率,也可以节省大量的内存空间

在数据量足够大的时候,不论如何选择哈希函数,都一定会出现冲突问题,而布隆过滤器的设计理念就是降低冲突的概率

布隆过滤器将哈希的单次映射调整为多次映射。也就是对于同一个关键字使用多个哈希函数进行映射,一个值映射一个位置,容易出现误判,但是一个值映射多个位置就可以降低误判率

哈希函数的数量并不是越多越好,每多一个哈希函数,关键字映射的位就越多,占用的比特数量就越多。因此需要选择数量合适的哈希函数个数。

最佳的哈希函数个数计算:k=\frac{m}{n}ln2

其中k为哈希函数个数,m为布隆过滤器长度,n为元素个数

三、布隆过滤器的实现

查找

分别计算每个哈希值对应的比特位置存储的是否为零,只要有一个为零,代表该元素一定不在哈希表中,否则可能在哈希表中

删除 

布隆过滤器不能直接支持删除工作,因为在删除一个元素时,可能会影响其他元素

一种支持删除的方法:将布隆过滤器中的每个比特位扩展成一个小的计数器,插入元素时给k个计 数器(k个哈希函数计算出的哈希地址)加一,删除元素时,给k个计数器减一,通过多占用几倍存储 空间的代价来增加删除操作

缺陷: 1. 无法确认元素是否真正在布隆过滤器中 2. 存在计数回绕

程序实现

以下实现的几种哈希函数,采用其他大佬实现的经过数学验证的,尽量减少冲突的哈希函数。可以根据自己的需求更改

#pragma once

#include<iostream>
#include<vector>
#include<string>
#include<bitset>
using std::string;
using std::bitset;

namespace my_BloomFilter
{
	struct BKDRHash
	{
		size_t operator()(const string& s)
		{
			size_t hash = 0;
			for (auto ch : s)
			{
				hash += ch;
				hash *= 31;
			}
			return hash;
		}
	};

	struct APHash
	{
		size_t operator()(const string& s)
		{
			size_t hash = 0;
			for (long i = 0; i < s.size(); i++)
			{
				size_t ch = s[i];
				if ((i & 1) == 0)
				{
					hash ^= ((hash << 7) ^ ch ^ (hash >> 3));
				}
				else
				{
					hash ^= (~((hash << 11) ^ ch ^ (hash >> 5)));
				}
			}
			return hash;
		}
	};

	struct DJBHash
	{
		size_t operator()(const string& s)
		{
			size_t hash = 5381;
			for (auto ch : s)
			{
				hash += (hash << 5) + ch;
			}
			return hash;
		}
	};


	template<size_t N,class K=string,class Hash1=BKDRHash,class Hash2=APHash,class Hash3=DJBHash>
	class BloomFilter
	{
	public:
		void set(const K& key)
		{
			size_t len = N * _X;

			size_t hash1 = Hash1()(key) % len;
			_bs.set(hash1);

			size_t hash2 = Hash2()(key) % len;
			_bs.set(hash2);

			size_t hash3 = Hash3()(key) % len;
			_bs.set(hash3);
		}

		bool test(const K& key)
		{
			size_t len = N * _X;

			size_t hash1 = Hash1()(key) % len;
			if (!_bs.test(hash1))
			{
				return false;
			}

			size_t hash2 = Hash2()(key) % len;
			if (!_bs.test(hash2))
			{
				return false;
			}

			size_t hash3 = Hash3()(key) % len;
			if (!_bs.test(hash3))
			{
				return false;
			}

			// 在      不准确的,存在误判
			// 不在    准确的

			return true;
		}

	private:
		static const ssize_t _X = 6;
		bitset<N*_X> _bs;
	};
}

四、布隆过滤器的实现场景

布隆过滤器优点:

1. 增加和查询元素的时间复杂度为:O(K),K为哈希函数的个数,一般比较小,与数据量大小无关

2. 哈希函数相互之间没有关系,方便硬件并行运算

3. 布隆过滤器不需要存储元素本身,在某些对保密要求比较严格的场合有很大优势

4. 在能够承受一定的误判时,布隆过滤器比其他数据结构有这很大的空间优势

5. 数据量很大时,布隆过滤器可以表示全集,其他数据结构不能

6. 使用同一组散列函数的布隆过滤器可以进行交、并、差运算

布隆过滤器缺点:

1. 有误判率,即存在假阳性(False Position),即不能准确判断元素是否在集合中(补救方法:再 建立一个白名单,存储可能会误判的数据)

2. 不能获取元素本身

3. 一般情况下不能从布隆过滤器中删除元素

4. 如果采用计数方式删除,可能会存在计数回绕问题

可以通过布隆过滤器对数据进行初步判断。比如在账号注册阶段,可以用于用户名查重等操作,如果该用户名不存在,则可以注册。如果该用户名存在,则在数据库中进行查找,二次确认

实际应用中数据库中的数据量可能特别大,数据都存储在硬盘中。因此采用过滤操作提升查找速度是十分必要的

五、题目

1.大文件找交集

有两个文件,分别由100亿个query,如果只有1G内存,如何查找两个文件的交集?

query可以简单理解为字符串,假设单个query平均为50字节,100亿个大约是5000亿字节。大约是500个G。两个文件总和有1T数据

对于无法放进内存的大数据量,一般都是采用切分的方法。将大量数据切割成多个可以放进内存的小文件。如果采用平均切割的话,对每个小文件都要进行操作,实际意义不大。因此采用哈希切分

哈希切分思想:对每个query都执行哈希函数,并取模。从而求得下标i值,将该query存入文件Ai中

i= HashFunc(query) \ mod\ 1000

这里取模1000,代表着将原有500G的大文件,划分为1000个小文件

如上图,分别将大文件AB各划分为1000个长度不同的小文件,分别对相同下标的小文件求交集,找到的就是交集

由于不是平均切分,如果存在的冲突多,可能导致单个Ai或Bi小文件过大。单个文件中可能出现大量的重复的query或者有大量不同的query

情况一:使用unordered_set/set读取整个小文件query,都可以成功插入set,则单个文件中出现大量重复的query

情况二:使用unordered_set/set读取整个小文件query,插入过程中抛异常,则是有大量不同的query。因此更换成其他哈希函数,再次切割,再次求交集

2.哈希切割

有一个超过100G大小的log file,log中存着IP地址,设计算法找打出现次数最多的IP地址?如果只有1G内存,如何找到top K的IP?如何直接使用Linux系统命令实现?

与上题类似。利用哈希切分成500个小文件,一次读取数据i= HashFunc(ip) \ mod\ 500

依次处理每个小文件,使用unordered_map/map统计IP出现的次数

情况一:统计过程中,出现内存异常,则说明单个小文件过大,冲突太多,需要重新更换哈希函数,再次哈希切分这个小文件

情况二:如果没有出现异常,则正常统计。统计完一个小文件,记录其中最大的,再统计下一个小文件

将所有文件统计完成后,可以将最大的进行堆排序获取最大的K个IP地址

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值