深入了解HashMap原理

参考:
https://blog.csdn.net/swpu_ocean/article/details/88917958
https://www.bilibili.com/read/cv5227300

只要是对于集合有一定了解的一定都知道HashMap是线程不安全的,我们应该使用 ConcurrentHashMap。但是为什么HashMap是线程不安全的呢?为什么不用Hashtable呢?咱从头开始分析

首先我们分析一下hashMap的实现原理及数据结构
明确一点:
JDK1.7的时候使用的是 数组+ 单链表 的数据结构。但是在JDK1.8及之后时,使用的是 数组+链表+红黑树 的数据结构(当链表的深度达到8的时候,也就是默认阈值,就会自动扩容把链表转成红黑树的数据结构来把时间复杂度从O(n)变成O(nlogN)提高了效率)

这里主要以前者进行分析

数据结构大概如下:数组里面每个地方都存了Key-Value这样的实例,Java7中叫Entry,Java8中叫Node
在这里插入图片描述
因为他本身所有的位置都为null,在put插入的时候会根据key的hash去计算一个index值。

put(“帅丙”,520),插入"帅丙元素",这个时候通过hash函数计算出插入的位置。计算出index=2如下
在这里插入图片描述

既然使用hash,那肯定得考虑hash碰撞,极端情况下hash到同一个值,怎么办呢?

解决hash碰撞的方式有很多种,这里不赘述了
HashMap的解决方法很直接,使用链地址法(拉链法),将同一计算得到同一hash值的用链表串起来。
在这里插入图片描述

注意:链表插入Entry(Node)节点这一块,在JDK1.7和JDK1.8做了一次修改:将头插法改为尾插法
那么为什么呢?

这就牵扯到HashMap的扩容机制了!
数组容量有限,数据达到一定数量就会扩容,即resize。
决定resize有两个因素:

  • Capacity:HashMap当前长度
  • LoadFactor:负载因子,默认值0.75f
    当hashmap中的元素个数 超过 数组大小*loadFactor 时,就会进行数组扩容
    假设当前的容量大小为100,当你存进76个的时候就会触发扩容!

怎么扩容捏?

两步:

  • 扩容:创建一个新的Entry空数组,长度是原数组的两倍
  • ReHash:遍历Entry数组,把所有的Entry 重新Hash 到新数组

那么问题来了:为什么是两倍(2的次幂)?为什么又要重新Hash?

为什么捏?:

先看源码:

static final int hash(Object key) {
    int h;
    return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
i = (n - 1) & hash

这里提一点 (n - 1) & hash = hash % n &的计算速度比%快

重新hash
从源码可以看出 (n - 1) & hash 数据的存放位置index是由这个公式计算出来的!
扩容发生之后,hash的规则也随着改变!自然位置变了,要重新hash计算

2次幂
这里i = (n - 1) & hash就可以实现一个均匀分布
我们比如容量是n=32,那么32-1=31,31的二进制是11111
(2^n)-1 正好二进制位全是1,类似这种1111111,这样与运算hash冲突才能降到到最低另外,HashMap的初始容量是2的n次幂,扩容也是2倍的形式进行扩容,是因为容量是2的n次幂,可以使得添加的元素均匀分布在HashMap中的数组上,减少hash碰撞,避免形成链表的结构,使得查询效率降低!

继续看扩容

假设容量大小为2的put两个值, 2*0.75 = 1.6
所以我们插入第二个值的时候就要resize
假设 我们插入完数据成这样 还没开始扩容
我们可以看到链表的指向A->B->C
在这里插入图片描述
开始resize(使用头插法),你会发现重新计算过索引位置之后,这些值有可能被放在不同的位置,就可能出现下面的情况

头插法:同一位置的新元素总会被放在链表的头部位置
B -> A
在这里插入图片描述
一旦是在多线程情况下,几个线程都调度完成,就可能形成环形链表,死循环了!
在这里插入图片描述

然后JDK1.8就修改为尾插法,虽然解决了高并发情况下死循环的问题,但是数据覆盖的问题还是存在!

下面康康JDK1.8中的线程不安全

如果你去阅读1.8的源码会发现找不到transfer函数,因为JDK1.8直接在resize函数中完成了数据迁移。

为什么说JDK1.8会出现数据覆盖的情况喃,我们来看一下下面这段JDK1.8中的put操作代码:

final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                   boolean evict) {
        Node<K,V>[] tab; Node<K,V> p; int n, i;
        if ((tab = table) == null || (n = tab.length) == 0)
            n = (tab = resize()).length;
        if ((p = tab[i = (n - 1) & hash]) == null) // 如果没有hash碰撞则直接插入元素
            tab[i] = newNode(hash, key, value, null);
        else {
            Node<K,V> e; K k;
            if (p.hash == hash &&
                ((k = p.key) == key || (key != null && key.equals(k))))
                e = p;
            else if (p instanceof TreeNode)
                e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
            else {
                for (int binCount = 0; ; ++binCount) {
                    if ((e = p.next) == null) {
                        p.next = newNode(hash, key, value, null);
                        if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                            treeifyBin(tab, hash);
                        break;
                    }
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        break;
                    p = e;
                }
            }
            if (e != null) { // existing mapping for key
                V oldValue = e.value;
                if (!onlyIfAbsent || oldValue == null)
                    e.value = value;
                afterNodeAccess(e);
                return oldValue;
            }
        }
        ++modCount;
        if (++size > threshold)
            resize();
        afterNodeInsertion(evict);
        return null;
    }

其中第六行代码是判断是否出现hash碰撞,假设两个线程A、B都在进行put操作,并且hash函数计算出的插入下标是相同的,当线程A执行完第六行代码后由于时间片耗尽导致被挂起,而线程B得到时间片后在该下标处插入了元素,完成了正常的插入,然后线程A获得时间片,由于之前已经进行了hash碰撞的判断,所有此时不会再进行判断,而是直接进行插入,这就导致了线程B插入的数据被线程A覆盖了,从而线程不安全。

除此之前,还有就是代码的第38行处有个++size,我们这样想,还是线程A、B,这两个线程同时进行put操作时,假设当前HashMapzise大小为10,当线程A执行到第38行代码时,从主内存中获得size的值为10后准备进行+1操作,但是由于时间片耗尽只好让出CPU,线程B快乐的拿到CPU还是从主内存中拿到size的值10进行+1操作,完成了put操作并将size=11写回主内存,然后线程A再次拿到CPU并继续执行(此时size的值仍为10),当执行完put操作后,还是将size=11写回内存,此时,线程A、B都执行了一次put操作,但是size的值只增加了1,所有说还是由于数据覆盖又导致了线程不安全。

总结
HashMap的线程不安全主要体现在下面两个方面:
1.在JDK1.7中,当并发执行扩容操作时会造成环形链和数据丢失的情况。
2.在JDK1.8中,在并发执行put操作时会发生数据覆盖的情况。

那么问题又来了——我们为什么不用hashtable而更推荐用concurrentHashMap

hashmap 与hashtable 很类似,主要区别是hashtable 有用synchronized进行线程同步,hashmap没有。
然而,建议少用hashtable,在单线程中,无需做线程控制,运行效率更高;在多线程中,synchronized易造成线程饥饿,死锁

ConcurrentHshMap请参考
https://www.jianshu.com/p/5dbaa6707017

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值