jdk 1.8 之后的ConcurrentHashMap

HashMap不是线程安全的。在并发插入元素的时候,有可能出现带环链表,让下一次读操作出现死循环。
想要避免HashMap的线程安全问题有很多办法,比如改用HashTable或者Collections.synchronizedMap,但是这两者有着共同的问题:性能。无论读操作还是写操作,它们都会给整个集合加锁,导致同一时间的其他操作为之阻塞

Segment

Segement本身就相当于一个HashMap对象,同HashMap一样,Segment包含一个HashEntry数组,数组中的每一个HashEntry既是一个键值对,也是一个链表的头结点,单一的Segment结构如下:

像这样的Segment对象,在ConcurrentHashMap集合中有多少个呢?有2的N次方个,共同保存在一个名为segments的数组当中。
因此整个ConcurrentHashMap的结构如下:

可以说,ConcurrentHashMap是一个二级哈希表。在一个总的哈希表下面,有若干个子哈希表
这样的二级结构,和数据库的水平拆分有些相似
这样设计的好处是:采用了锁分段技术,每一个Segment就好比一个自治区,读写操作高度自治,Segment之间互不影响,下面来看看ConcurrentHashMap并发读写的几种情形:
Case1:不同Segment的并发写入

不同Segment的写入是可以并发执行的

Case2:同一Segment的一写一读

同一Segment的写和读是可以并发执行的

Case3:同一Segment的并发写入

Segment的写入是需要上锁的,因此对同一Segment的并发写入会被阻塞。由此可见,ConcurrentHashMap当中每个Segment各自持有一把锁。在保证线程安全的同时降低了锁的粒度,让并发操作效率更高。

ConcurrentHashMap读写的详细过程:

Get方法:

  1. 为输入的Key做Hash运算,得到hash值
  2. 通过hash值,定位到对应的Segment对象
  3. 再次通过hash值,定位到Segment当中数组的具体位置

Put方法:

  1. 为输入的Key做Hash运算,得到Hash值
  2. 通过Hash值,定位到对应的Segment对象
  3. 获取可重入锁
  4. 再次通过Hash值,定位到Segment当中数组的具体位置
  5. 插入或覆盖HashEntry对象
  6. 释放锁

从步骤可以看出,ConcurrentHashMap在读写时需要二次定位,首先定位到Segment,之后定位到Segment内的具体数组下标。既然每一个Segment都各自加锁,那么在调用Size方法时候,怎么解决一致性问题

Size方法的目的是统计ConcurrentHashMap的总元素数量, 自然需要把各个Segment内部的元素数量汇总起来。
但是,如果在统计Segment元素数量的过程中,已统计过的Segment瞬间插入新的元素,这时候该怎么办呢?

ConcurrentHashMap的Size方法是一个嵌套循环,大体逻辑如下:

1.遍历所有的Segment。
2.把Segment的元素数量累加起来。
3.把Segment的修改次数累加起来。
4.判断所有Segment的总修改次数是否大于上一次的总修改次数。如果大于,说明统计过程中有修改,重新统计,尝试次数+1;如果不是。说明没有修改,统计结束。
5.如果尝试次数超过阈值,则对每一个Segment加锁,再重新统计。
6.再次判断所有Segment的总修改次数是否大于上一次的总修改次数。由于已经加锁,次数一定和上次相等。
7.释放锁,统计结束。

为什么这样设计呢?这种思想和乐观锁悲观锁的思想如出一辙。
为了尽量不锁住所有Segment,首先乐观地假设Size过程中不会有修改。当尝试一定次数,才无奈转为悲观锁,锁住所有Segment保证强一致性。

转自:https://mp.weixin.qq.com/s?__biz=MzIxMjE5MTE1Nw==&mid=2653192083&idx=1&sn=5c4becd5724dd72ad489b9ed466329f5&chksm=8c990d49bbee845f69345e4121888ec967df27988bc66afd984a25331d2f6464a61dc0335a54&scene=21#wechat_redirect


总结和思考

来源: https://www.processon.com/view/5a9542c7e4b04932f89d23ff

其实可以看出JDK1.8版本的ConcurrentHashMap的数据结构已经接近HashMap,相对而言,ConcurrentHashMap只是增加了同步的操作来控制并发,从JDK1.7版本的ReentrantLock+Segment+HashEntry,到JDK1.8版本中synchronized+CAS+HashEntry+红黑树,相对而言,总结如下思考

  • JDK1.8的实现降低锁的粒度,JDK1.7版本锁的粒度是基于Segment的,包含多个HashEntry,而JDK1.8锁的粒度就是HashEntry(首节点)

  • JDK1.8版本的数据结构变得更加简单,使得操作也更加清晰流畅,因为已经使用synchronized来进行同步,所以不需要分段锁的概念,也就不需要Segment这种数据结构了,由于粒度的降低,实现的复杂度也增加了

  • JDK1.8使用红黑树来优化链表,基于长度很长的链表的遍历是一个很漫长的过程,而红黑树的遍历效率是很快的,代替一定阈值的链表,这样形成一个最佳拍档

  • JDK1.8为什么使用内置锁synchronized来代替重入锁ReentrantLock,我觉得有以下几点
    1.因为粒度降低了,在相对而言的低粒度加锁方式,synchronized并不比ReentrantLock差,在粗粒度加锁中ReentrantLock可能通过Condition来控制各个低粒度的边界,更加的灵活,而在低粒度中,Condition的优势就没有了
    2.JVM的开发团队从来都没有放弃synchronized,而且基于JVM的synchronized优化空间更大,使用内嵌的关键字比使用API更加自然
    3.在大量的数据操作下,对于JVM的内存压力,基于API的ReentrantLock会开销更多的内存,虽然不是瓶颈,但是也是一个选择依据

转自:https://www.jianshu.com/p/a7767e6ff2a2

JDK1.8中,ConcurrentHashMap的实现方式相比于之前的版本有了很大的改进。它引入了一种新的数据结构,称为"基于CAS+Synchronized的分段",用于保证线程安全性。 具体来说,ConcurrentHashMap将整个哈希表分为多个Segment段,每个Segment段内部都是一个独立的哈希表,每个Segment段都有一个独立的,不同的线程可以同时操作不同的Segment段,从而实现了高效的并发访问。在JDK1.8中,每个Segment段内部的哈希表结构被修改为了链表+红黑树的混合结构,以提高数据的查找效率。 在具体实现上,ConcurrentHashMap使用了一种称为"分离"的机制,即不同的线程可以同时操作不同的Segment段,从而避免了整个哈希表被住的情况,进一步提高了并发性能。同时,每个Segment段内部的操作都被实现为原子操作,并且使用了CAS和synchronized等同步机制来保证线程安全性。 具体来说,ConcurrentHashMap中的put()和remove()操作使用了synchronized关键字来保证Segment段的的互斥性,而get()操作则使用了CAS操作来保证线程安全性。这样,在高并发情况下,不同的线程可以同时进行不同的操作,从而避免了竞争,提高了并发性能。 总之,JDK1.8之后的ConcurrentHashMap通过使用基于CAS+Synchronized的分段机制和其他一些高效的并发控制技术,实现了高效的并发访问和线程安全性。它是Java中一个非常重要的线程安全的数据结构,被广泛应用于各种高并发的应用场景中。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值