网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。
一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!
四. 如何解决哈希冲突?
解决哈希冲突两种常见的方法是:闭散列和开散列
🌏闭散列 —— 开放定址法
也叫开放定址法,当发生哈希冲突时,如果哈希表未被装满,说明在哈希表中必然还有
空位置,那么可以把key存放到冲突位置中的“下一个” 空位置中去。那如何寻找下一个空位置呢?
- 线性探测
当发生哈希冲突时,从发生冲突的位置开始,依次向后探测,直到找到下一个空位置为止
Hi=(H0+i)%m ( i = 1 , 2 , 3 , . . . )
H0:通过哈希函数对元素的关键码进行计算得到的位置
Hi:冲突元素通过线性探测后得到的存放位置
m:表的大小
例如,我们用除留余数法将序列{1, 6, 10, 1000, 11, 18, 7, 40}插入到表长为10的哈希表中,当发生哈希冲突时我们采用闭散列的线性探测找到下一个空位置进行插入,插入过程如下:
通过上图可以看出:随着哈希表中数据的增多,产生哈希冲突的可能性也随着增加,最后在40进行插入的时候更是连续出现了四次哈希冲突(踩踏效应)
我们将数据插入到有限的空间中,随着数据的增多,冲突的概率越发越多,冲突多的时候插入的数据,在查找时候效率也会随之低下,为此引入了负载因子:
负载因子 = 表中有效数据个数 / 空间的大小
- 负载因子越大,产生的概率就越多,增删查改的效率越低
- 负载因子越小,产生的概率就越少,增删查改的效率越高,但是越小也意味着空间利用率越低,此时大量空间可能被浪费
如果我们把哈希表增大变成20,可以发现在插入相同数据时,产生的冲突会少
因此我们在闭散列(开放定址法)对负载因子的标准定在了 0.7~0.8
,一旦大于 0.8 会导致查表时缓存未命中率呈曲线上升;这就是为什么有些哈希库都有规定的负载因子,Java 的系统库就将负载因子定成了 0.75,超过 0.75 就会自动扩容
😎作总结:
线性探测的优点:实现非常简单
线性探测的缺点:一旦发生冲突,所有的冲突连在一起,容易产生数据“堆积”,即不同关键码占据了可利用的空位置,使得寻找某关键码的位置需要多次比较(踩踏效应),导致搜索效率降低。
- 二次探索
线性探测的缺陷是产生冲突的数据堆积在一块,这与其找下一个空位置有关系,因为找空位置的方式就是挨着往后逐个去找,因此二次探测为了避免该问题,找下一个空位置的方法为:以2的i次方进行探测
Hi=(H0+i*i)%m ( i = 1 , 2 , 3 , . . . )
H0:通过哈希函数对元素的关键码进行计算得到的位置。
Hi:冲突元素通过二次探测后得到的存放位置。
m:表的大小
接下来举个例子:
但是二次探测没有从本质上解决问题,还是占用式的占用别人位置
🌏开散列——链地址法(拉链法)
开散列,又叫链地址法(拉链法),首先对关键码集合用哈希函数计算哈希地址,具有相同地址的关键码归于同一子集合,每一个子集合称为一个桶,各个桶中的元素通过一个单链表链接起来,各链表的头结点存储在哈希表中。
例如,我们用除留余数法将序列{1, 6, 15, 60, 88, 7, 40, 5, 10}插入到表长为10的哈希表中,当发生哈希冲突时我们采用开散列的形式,将哈希地址相同的元素都链接到同一个哈希桶下,插入过程如下:
相比于比散列的报复式占用其他人的位置(小仙女行为)来说,开散列就好得多了,用的是一种乐观的方式,我挂在这个节点的下面
与闭散列不同的是,这种将相同哈希地址的元素通过单链表链接起来,然后将链表的头结点存储在哈希表中的方式,不会影响与自己哈希地址不同的元素的增删查改的效率,因此开散列的负载因子相比闭散列而言,可以稍微大一点
- 开散列的哈希桶,负载因子可以超过1,一般建议控制在[0.0, 1.0]之间
为什么开散列在实际中,更加实用呢?
- 哈希桶的负载因子可以更大,空间利用率高
- 哈希桶在极端情况下还有可用的解决方案
哈希桶的极端情况就是:所以元素全部都挂在一个节点下面,此时的效率为O(N)
一个桶中如果元素过多的话,可以考虑用红黑树结构代替,并将红黑树的根结点存储在哈希表中
这样一来就算是有十亿个数,都只要在这个桶里查找30次,这就是桶里种树
五. 闭散列的实现
在闭散列的哈希表中,每个位置不仅仅要存放数据之外,还要存储当前节点的状态,三大状态如下:
- EMPTY(空位置)
- EXIST(已经存放数据了)
- DELETE(原本有数据,但被删除)
对此我们可以用枚举实现:
//枚举出三种状态
enum State
{
EXIST,
EMPTY,
DELETE
};
那么状态的存在意义是什么?
💢举个例子:当我们需要在哈希表中查找一个数据40,这个数据我用哈希函数算出来他的位置是 0 ,但是我们不知道是不是存在哈希冲突,如果冲突就会向后偏移,我们就需要从 0 这个位置开始向后遍历,但是万万不能遍历完整个哈希表,这样就失去了哈希原本的意义
- 通过除留余数法得知元素在哈希表中的地址0
- 从0下标开始向后进行查找,若找到了40则说明存在,找到空位置判定为不存在即可
但是这样真的行得通吗?如果我是先删除了一个值1000,空出的空位在40之前,查找遇到空就停止了,此时并没有找到元素40,但是元素40却在哈希表中存在。
因此我们必须要给哈希表中的每个节点设置一个状态,有三种可能:当哈希表中的一个元素被删除后,我们不应该简单的将该位置的状态设置为EMPTY,而是应该将该位置的状态设置为DELETE
这样一来在查找的时候,遇到节点是EXIST
或者DELETE
的都要继续往后找,直到遇到空为止;而当我们插入元素的时候,可以将元素插入到状态为EMPTY或是DELETE的位置
所以节点的数据不仅仅要包括数据,还有包括当前的状态
//哈希节点存储结构
template<class K, class V>
struct HashNode
{
pair<K, V> _kv;
State _state = EMPTY; //状态
};
为了要在插入的时候算好负载因子,我们还要记录下哈希表中的有效数据,数据过多时进行扩容
templete<class K, class V>
class HashTable
{
public:
//...
private:
vector<HashData<K, V>> _tables;//哈希表
size_t _size;//存储多少个有效数据
};
🎨数据插入
步骤如下:
1.查找该键值对是否存在,存在则插入失败
2.判断是否需要扩容:哈希表为空 & 负载因子过大 都需要扩容
3. 插入键值对
4. 有效元素个数++
其中扩容方式如下:
- 如果是哈希表为空:就将哈希表的初始大小增大为10
- 如果是负载因子大于0.7: 先要创建一个新的哈希表(大小是原来的两倍),遍历原哈希表,旧表的数据映射到新表(此处复用插入),最后两个哈希表互换。
此处要注意:是将 旧表的数据重新映射到新表,而不是直接把原有的数据原封不动的搬下来,要重新计算在新表的位置,再插入
产生了哈希冲突,就会出现踩踏事件,不断往后挪,又因为每次插入的时候会判断负载因子,超出了就会扩容,所以哈希表不会被装满!
bool Insert(const pair<K, V>& kv)
{
//数据冗余
if (Find(kv.first))
return false;
//负载因子到了就扩容
if (_tables.size() == 0 || 10 \* _size / _tables.size() > 7)//扩容
{
size_t newSize = _tables.size() == 0 ? 10 : _tables.size() \* 2;
//创建新的哈希表,大小设置为原哈希表的2倍
HashTable<K, V> newHT;
newHT._tables.resize(newSize);
//旧表的数据映射到新表
for (auto e : _tables)
{
if (e._state == EXIST)
{
newHT.Insert(e._kv);//复用插入,因为已经有一个开好了的两倍内存的哈希表
}
}
_tables.swap(newHT._tables);//局部对象出作用域 析构
}
//注意不能是capacity,size存的是有效字符个数,capacity是能存有效字符的容量
size_t hashi = kv.first % _tables.size();
//线性探测
while (_tables[hashi]._state == EXIST)
{
++hashi;
hashi %= _tables.size();
}
/\*Hash hash;
size\_t start = hash(kv.first) % \_tables.size();
size\_t i = 0;
size\_t hashi = start;
//二次探测
while (\_tables[hashi].\_state == EXIST)
{
++i;
hashi = start + i\*i;
hashi %= \_tables.size();
}\*/
//数据插入
_tables[hashi]._kv = kv;
_tables[hashi]._state = EXIST;
++_size;
return true;
}
🎨数据查找
步骤如下:
- 先判断哈希表大小是否,如果为零查找失败!
- 通过除留余数法算出对应的哈希地址
- 从哈希地址开始向后线性探测,直到遇到
EMPTY
位置还没找到则查找失败,如果遇到状态是DELETE
的话,也要继续往后探测,因为该值已经被删掉了
💢注意:key相同的前提是状态不能是:删除。必须找到的是位置状态为 EXIST
且 key
值匹配,才算查找成功(不然找到的数据相同的,确实被删除了的)
HashData<K, V>\* Find(const K& key)
{
//如果是空表就直接返回空
if (_tables.size() == 0)
return nullptr;
size_t start = key % _tables.size();
size_t hashi = start;
while (_tables[hashi]._state != EMPTY)//不等于空 == 存在和删除都要继续找
{
//key相同的前提是状态不能是:删除
if (_tables[hashi]._state != DELETE && _tables[hashi]._kv.first == key)
{
return &_tables[hashi];
}
hashi++;
hashi %= _tables.size();
if (hashi == start)//极端判断:兜兜转转一圈遇到了
{
break;
}
}
return nullptr;
}
🎨数据删除
删除的步骤比较简单:修改状态 —— 减少元素个数
- 检查哈希表中是否存在该元素
- 如果存在,把其状态改成
DELETE
即可 - 哈希的有效元素个数
-1
注意:我们这里是伪删除:只是修改了数据的状态变成DELETE
,并没有把数据真正的删掉了,因为插入时候的数据可以覆盖原有的 —— 数据覆盖
bool Erase(const K& key)
{
HashData<K, V>\* ret = Find(key);
if (ret) //找到了
{
ret->_state = DELETE; //状态改成删除
--_size; //有效元素个数-1
return true;
}
else
{
return false;
}
}
🎨仿函数
如果我们统计的是字符串的出现次数呢?kv.first
还能取模吗?怎么样转化string呢 —— 其实大佬早就帮我们想到了
仿函数转化成一个可以取模的值
- 将key数据强制类型转换成
size_t
,如果key是string类型的就走string类型的特化版本 - 这样就可以不用显示的传属于哪个Hashfunc
涉及到了BKDR算法,因为ascll码值单纯地加起来,可能会出现相同现象,大佬推算出了这个算法
特化:符合string类型的优先走string类型
template<class K>
struct Hashfunc
{
size_t operator()(const K& key)
{
return (size_t)key;
}
};
//特化版本
template<>
struct Hashfunc<string>
{
//BKDR算法
size_t operator()(const string& key)
{
size_t val = 0;
for (auto ch : key)
{
val \*= 131;//为什么是131?经过了
val += ch;
}
return val;
}
};
六. 开散列的实现(哈希桶)
在开散列的哈希表中,哈希表的每个位置存储的实际上是某个单链表的头结点,即每个哈希桶中存储的数据实际上是一个结点类型,该结点类型除了存储所给数据之外,还需要存储一个结点指针用于指向下一个结点:next
template<class K, class V>
struct HashNode
{
pair<K, V> _kv;
HashNode<K, V>\* _next;
//构造函数
HashNode(const pair<K, V>& kv)
:\_kv(kv)
,\_next(nullptr)
{}
};
为了使代码更有观赏感,对节点的类型进行typedef
typedef HashNode<K, V> Node;
这里与闭散列不同的是,不用给每个节点设置状态,因为将哈希地址相同的元素都放到了同一个哈希桶中了,不用再所谓的遍历找下一个空位置
当然了哈希桶也是要进行扩容的,在插入数据时也需要根据负载因子判断是否需要增容,所以我们也应该时刻存储整个哈希表中的有效元素个数,当负载因子过大时就应该进行哈希表的增容
template<class K, class V>
struct HashTable
{
typedef HashNode<K, V> Node;
public:
//...
private:
vector<Node\*> _table;
size_t _size; //存储的有效数据个数
};
💦数据插入
步骤如下:
- 去重,如果有相同的值在哈希表中,则插入失败
- 判断是否需要扩容:哈希表为0、负载因子过大
- 插入数据
- 有效元素个数++
其中哈希表中的调整方式
- 若哈希表的大小为0,则将哈希表的初始大小设置为10
- 如果哈希表中负载因子等于1,则先创建一个新的表,遍历旧表,把节点都统统转移到新表上,最后交换两个表
注意:此处我们没有复用插入,是因为我们可以使用原本节点来对新的哈希表进行复制,这样就可以节省了新哈希表中的插入的节点了
bool Insert(const pair<K, V>& kv)
{
//去重
if (Find(kv.first))
return false;
//负载因子到1就扩容
if (_size == _table.size())
{
size_t newsize = _table.size == 0 ? 10 : 2 \* _table.size();
vector<Node\*> newTable;
newTable.resize(newsize);
//旧表节点移动映射到新表中
for (size_t i = 0; i < _table.size(); i++)
{
Node\* cur = _table[i];
while (cur)
{
Node\* next = cur->_next; //记录cur的下一个节点
size_t hashi = cur->_kv.first % newTable.size();//计算哈希地址
//头插
cur->_next = newTable[hashi];
newTable[hashi] = cur;
cur = next;
}
_table[i] = nullptr;//原桶取完后置空
}
//交换
_table.swap(newTable);
}
size_t hashi = kv.first % _table.size();
//头插
Node\* newnode = new Node(kv);
newnode->_next = _table[hashi]; // \_table[hashi]指向的就是第一个结点
_table[hashi] = newnode;
++_size;
return true;
}
💦数据查找
步骤如下:
- 还是先判断哈希表是否为0,为0则查找失败
- 计算出对应哈希表中的地址
- 通过哈希地址找到了节点中的单链表,遍历单链表即可
//查找
Node\* Find(const K& key)
{
if(_table.size() == nullptr)//哈希表为0,没得找
{
return nullptr;
}
size_t hashi = kv.first % _table.size();//招牌先算出哈希地址
Node\* cur = _table[hashi];
while (cur)//直到桶为空
![img](https://img-blog.csdnimg.cn/img_convert/18e62ecf8d67ada87cfd71f43e740394.png)
![img](https://img-blog.csdnimg.cn/img_convert/39643556ee67609be3dbcf8a3165847a.png)
**网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。**
**[需要这份系统化资料的朋友,可以戳这里获取](https://bbs.csdn.net/forums/4f45ff00ff254613a03fab5e56a57acb)**
**一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!**
是否为0,为0则查找失败
* 计算出对应哈希表中的地址
* 通过哈希地址找到了节点中的单链表,遍历单链表即可
//查找
Node* Find(const K& key)
{
if(_table.size() == nullptr)//哈希表为0,没得找
{
return nullptr;
}
size_t hashi = kv.first % _table.size();//招牌先算出哈希地址
Node\* cur = _table[hashi];
while (cur)//直到桶为空
[外链图片转存中…(img-IWoJmnrO-1715427447166)]
[外链图片转存中…(img-evw7Dq7V-1715427447166)]
网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。
一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!