Java容器源码分析—ConcurrentHashMap

一、概述

本文主要参考了Java Collection Framework 源码剖析这位博主的专栏,写的很好,感兴趣的可以去看一下!

ConcurrentMap和HashMap类似,最主要的差别是 ConcurrentHashMap 采用了分段锁(Segment),每个分段锁维护着几个桶(HashEntry),多个线程可以同时访问不同分段锁上的桶,从而使其并发度更高(并发度就是 Segment 的个数)。

在ConcurrentHashMap中,无论是读操作还是写操作都能保证很高的性能:在进行读操作时(几乎)不需要加锁,而在写操作时通过锁分段技术只对所操作的段加锁而不影响客户端对其它段的访问。特别地,在理想状态下,ConcurrentHashMap 可以支持 16 个线程执行并发写操作(如果并发级别设为16),及任意数量线程的读操作;

Concurrent
ConcurrentHashMap高效并发机制如下:

  • 通过锁分段技术保证并发环境下的写操作
  • 通过 HashEntry的不变性、Volatile变量的内存可见性和加锁重读机制保证高效、安全的读操作;
  • 通过不加锁和加锁两种方案控制跨段操作的的安全性

二、ConcurrentHashMap的定义

2.1、类的定义

ConcurrentHashMap继承了AbstractMap并实现了ConcurrentMap接口:

public class ConcurrentHashMap<K, V> extends AbstractMap<K, V>
        implements ConcurrentMap<K, V>, Serializable {

    ...
}

2.2、成员变量定义

ConcurrentHashMap 增加了两个属性用于定位段,分别是 segmentMask 和 segmentShift。ConcurrentHashMap底层结构是一个Segment数组,不是一个Object数组。

final int segmentMask;  // 用于定位段,大小等于segments数组的大小减 1,是不可变的;
final int segmentShift;    // 用于定位段,大小等于32(hash值的位数)减去对segments的大小取以2为底的对数值,是不可变的
final Segment<K,V>[] segments;   // ConcurrentHashMap的底层结构是一个Segment数组;

2.3、段的定义:Segment

Segment 类继承于 ReentrantLock 类,从而使得 Segment 对象能充当锁的角色。每个 Segment 对象用来守护它的成员对象 table 中包含的若干个桶。table 是一个由 HashEntry 对象组成的链表数组,table 数组的每一个数组成员就是一个桶。

static final class Segment<K,V> extends ReentrantLock implements Serializable {
	transient volatile int count;    // Segment中元素的数量,可见的

	transient int modCount;  //对count的大小造成影响的操作的次数(比如put或者remove操作)
	 transient int threshold;      // 阈值,段中元素的数量超过这个值就会对Segment进行扩容;
	 transient volatile HashEntry<K,V>[] table;  // 链表数组;

	final float loadFactor;  // 段的负载因子,其值等同于ConcurrentHashMap的负载因子
}

ConcurretnHashMap允许多个修改(写)操作并发执行,关键在于使用了锁分段技术,它使用了不同的锁来控制对于哈希表不同部分进行修改(写);而 ConcurrentHashMap 内部使用段(Segment)来表示这些不同的部分。实际上,每个段实质上就是一个小的哈希表,每个段都有自己的锁(Segment 类继承了 ReentrantLock 类)。这样,只要多个修改(写)操作发生在不同的段上,它们就可以并发进行。下图是依次插入 ABC 三个 HashEntry 节点后,Segment结构示意图如下:
Segment结构示意图

2.4、HashEntry

HashEntry也是封装的键值对,包含key、hash、value和next,其中key、hash、next都是声明为final,value域被volatile修饰,因此HashEntry对象几乎不可变,这也是ConcurrentHashMap不需要加锁的原因。

next域被声明为final,意味着只能从链表头部插入节点
value被volatile修饰,确保线程能够读到最新的值,也是不需要加锁的原因

static final class HashEntry<K,V> {
    final int hash;
    final K key;
    volatile V value;
    volatile HashEntry<K,V> next;
}

三、ConcurrentHashMap的并发存取

在ConcurrentHashMap中,线程对映射表做读操作时,一般情况下不需要加锁就可以完成,对容器做结构性修改的操作(比如,put操作、remove操作等)才需要加锁;


3.1 JDK 1.7 put(key,value)

用分段锁机制实现多个线程间的并发写操作;首先就是通过当前segment的table通过key的hashcode定位到HashEntry,遍历key值,找到就覆盖对应的value,没找到就在头部添加一个Entry;

在ConcurrentHashMap中使用put操作插入Key/Value对之前,首先会检查本次插入会不会导致Segment中节点数量超过阈值threshold,如果会,那么就先对Segment进行扩容和重哈希操作。特别需要注意的是,ConcurrentHashMap的重哈希实际上是对ConcurrentHashMap的某个段的重哈希

public V put(K key, V value) {
        if (value == null) //ConcurrentHashMap中不允许key和value为null;
            throw new NullPointerException();
        int hash = hash(key.hashCode()); //计算对应的HashCode
        return segmentFor(hash).put(key, hash, value, false); //根据HashCode找到对应的segment
    }
    
final Segment<K,V> segmentFor(int hash) {
		//根据传入的HashCode向右无符号移动segmentShift位,然后和segmentMask进行与操作
        return segments[(hash >>> segmentShift) & segmentMask]; 
    }
 
V put(K key, int hash, V value, boolean onlyIfAbsent) {
            lock();    // 给当前的segment上锁
            try {
                int c = count;
                if (c++ > threshold) // 如果超过阈值
                    rehash();//执行重哈希,table数组的长度扩容一倍
                HashEntry<K,V>[] tab = table;    // table是Volatile的
                
                // 定位到段中特定的桶
                //将哈希值与table的长度减1,取“与”
                int index = hash & (tab.length - 1);    
                HashEntry<K,V> first = tab[index];   // first指向桶中链表的表头
                HashEntry<K,V> e = first;

                // 检查该桶中是否存在相同key的结点
                while (e != null && (e.hash != hash || !key.equals(e.key)))  
                    e = e.next;

                V oldValue;
                if (e != null) {        // 该桶中存在相同key的结点
                    oldValue = e.value;
                    if (!onlyIfAbsent)
                        e.value = value;        // 更新value值
                }else {         // 该桶中不存在相同key的结点
                    oldValue = null;
                    ++modCount;     // 添加新节点到链表中,modCount加1
                    
					// 创建HashEntry并将其链到表头
                    tab[index] = new HashEntry<K,V>(key, hash, first, value);  
                    count = c;      //write-volatile,count值的更新一定要放在最后一步(volatile变量)
                }
                return oldValue;    // 返回旧值(该桶中不存在相同key的结点,则返回null)
            } finally {
                unlock();      // 在finally子句中解锁
            }
        }

3.2 JDK1.7 get(key,value)

没有使用锁同步,只是获取Entry的值是否为null,为null就采用加锁的方式再次获取,即加锁重读

public V get(Object key) {
        int hash = hash(key.hashCode());
        return segmentFor(hash).get(key, hash);
    }
    
V get(Object key, int hash) {
        if (count != 0) {            // read-volatile,首先读 count 变量
            HashEntry<K,V> e = getFirst(hash);   // 获取桶中链表头结点
            while (e != null) {
            if (e.hash == hash && key.equals(e.key)) {    // 查找链中是否存在指定Key的键值对
                 V v = e.value;
                 if (v != null)  // 如果读到value域不为 null,直接返回
                     return v;   
                     // 如果读到value域为null,说明发生了重排序,加锁后重新读取
                     return readValueUnderLock(e); // recheck
                 }
                    e = e.next;
                }
            }
            return null;  // 如果不存在,直接返回null
        }
//加锁重读源码:
 V readValueUnderLock(HashEntry<K,V> e) {
            lock();
            try {
                return e.value;
            } finally {
                unlock();
            }
        }

3.3 JDK 1.7 remove

Segmen中remove也是根据散列码找到具体的链表,然后遍历链表找到要删除的节点,最后把待删除结点之后的所有结点都保留在新链表中,把待删除的节点之前的节点克隆到新链表中。

public V remove(Object key) {
    int hash = hash(key.hashCode());
        return segmentFor(hash).remove(key, hash, null);
 }
V remove(Object key, int hash, Object value) {
            lock();     // 加锁
            try {
                int c = count - 1;      
                HashEntry<K,V>[] tab = table;
                int index = hash & (tab.length - 1);        // 定位桶
                HashEntry<K,V> first = tab[index];
                HashEntry<K,V> e = first;
                while (e != null && (e.hash != hash || !key.equals(e.key)))  // 查找待删除的键值对
                    e = e.next;

                V oldValue = null;
                if (e != null) {    // 找到
                    V v = e.value;
                    if (value == null || value.equals(v)) {
                        oldValue = v;
                        // All entries following removed node can stay
                        // in list, but all preceding ones need to be
                        // cloned.
                        ++modCount;
                        // 所有处于待删除节点之后的节点原样保留在链表中
                        HashEntry<K,V> newFirst = e.next;
                        // 所有处于待删除节点之前的节点被克隆到新链表中
                        for (HashEntry<K,V> p = first; p != e; p = p.next)
                            newFirst = new HashEntry<K,V>(p.key, p.hash,newFirst, p.value); 

                        tab[index] = newFirst;   // 将删除指定节点并重组后的链重新放到桶中
                        count = c;      // write-volatile,更新Volatile变量count
                    }
                }
                return oldValue;
            } finally {
                unlock();          // finally子句解锁
            }
        }

remove

3.4 CorcurrentHashMap存取小结

在ConcurrentHashMap进行存取时,首先会定位到具体的段,然后通过对具体段的存取来完成对整个ConcurrentHashMap的存取。特别地,无论是ConcurrentHashMap的读操作还是写操作都具有很高的性能:在进行读操作时不需要加锁,而在写操作时通过锁分段技术只对所操作的段加锁而不影响客户端对其它段的访问。

四、JDK1.8 ConcurrentHashMap

从JDK1.7版本的ReentrantLock+Segment+HashEntry,到JDK1.8版本中synchronized+CAS+HashEntry+红黑树,ConcurrentHashMap只是增加了同步的操作来控制并发;

  1. JDK1.8的实现降低锁的粒度,JDK1.7版本锁的粒度是基于Segment的,包含多个HashEntry,而JDK1.8锁的粒度就是HashEntry(首节点);

  2. JDK1.8版本的数据结构变得更加简单,使得操作也更加清晰流畅,因为已经使用synchronized来进行同步,所以不需要分段锁的概念,也就不需要Segment这种数据结构了,由于粒度的降低,实现的复杂度也增加了;

  3. JDK1.8使用红黑树来优化链表,基于长度很长的链表的遍历是一个很漫长的过程,而红黑树的遍历效率是很快的,代替一定阈值的链表;

  4. JDK1.8为什么使用内置锁synchronized来代替重入锁ReentrantLock:
    1、在相对而言的低粒度加锁方式,synchronized并不比ReentrantLock差,在粗粒度加锁中ReentrantLock可能通过Condition来控制各个低粒度的边界,更加的灵活,而在低粒度中,Condition的优势就没有了;
    2、基于JVM的synchronized优化空间更大,使用内嵌的关键字比使用API更加自然;
    3、在大量的数据操作下,对于JVM的内存压力,基于API的ReentrantLock会开销更多的内存,虽然不是瓶颈,但是也是一个选择依据;

    1.7和1.8的结构

    在JDK1.7版本中,ConcurrentHashMap的数据结构是由一个Segment数组和多个HashEntry组成:
    jdk1.7
    在JDK1.8中:
    改进一:取消segments字段,直接采用transient volatile HashEntry<K,V>[] table保存数据,采用table数组元素作为锁,从而实现了对每一行数据进行加锁,进一步减少并发冲突的概率;
    改进二:将原先table数组+单向链表的数据结构,变更为table数组+单向链表+红黑树的结构。对于hash表来说,最核心的能力在于将key hash之后能均匀的分布在数组中。如果hash之后散列的很均匀,那么table数组中的每个队列长度主要为0或者1。但实际情况并非总是如此理想,虽然ConcurrentHashMap类默认的加载因子为0.75,但是在数据量过大或者运气不佳的情况下,还是会存在一些队列长度过长的情况,如果还是采用单向列表方式,那么查询某个节点的时间复杂度为O(n);因此,对于个数超过8(默认值)的列表,jdk1.8中采用了红黑树的结构,那么查询的时间复杂度可以降低到O(logN),可以改进性能;

JDK1.8ConcurrentHashMap

JDK 1.8 put

public V put(K key, V value) {  
    return putVal(key, value, false);  
}  
/** Implementation for put and putIfAbsent */  
final V putVal(K key, V value, boolean onlyIfAbsent) {  
    if (key == null || value == null) throw new NullPointerException();  
    int hash = spread(key.hashCode()); //两次hash,减少hash冲突,可以均匀分布  
    int binCount = 0;  
    for (Node<K,V>[] tab = table;;) { //对这个table进行迭代  
        Node<K,V> f; int n, i, fh;  
        //这里就是上面构造方法没有进行初始化,在这里进行判断,为null就调用initTable进行初始化,属于懒汉模式初始化  
        if (tab == null || (n = tab.length) == 0)  
            tab = initTable();  
        else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {//如果i位置没有数据,就直接无锁插入  
            if (casTabAt(tab, i, null,  
                         new Node<K,V>(hash, key, value, null)))  
                break;                   // no lock when adding to empty bin  
        }  
        else if ((fh = f.hash) == MOVED)//如果在进行扩容,则先进行扩容操作  
            tab = helpTransfer(tab, f);  
        else {  
            V oldVal = null;  
            //如果以上条件都不满足,那就要进行加锁操作,也就是存在hash冲突,锁住链表或者红黑树的头结点  
            synchronized (f) {  
                if (tabAt(tab, i) == f) {  
                    if (fh >= 0) { //表示该节点是链表结构  
                        binCount = 1;  
                        for (Node<K,V> e = f;; ++binCount) {  
                            K ek;  
                            //这里涉及到相同的key进行put就会覆盖原先的value  
                            if (e.hash == hash &&  
                                ((ek = e.key) == key ||  
                                 (ek != null && key.equals(ek)))) {  
                                oldVal = e.val;  
                                if (!onlyIfAbsent)  
                                    e.val = value;  
                                break;  
                            }  
                            Node<K,V> pred = e;  
                            if ((e = e.next) == null) {  //插入链表尾部  
                                pred.next = new Node<K,V>(hash, key,  
                                                          value, null);  
                                break;  
                            }  
                        }  
                    }  
                    else if (f instanceof TreeBin) {//红黑树结构  
                        Node<K,V> p;  
                        binCount = 2;  
                        //红黑树结构旋转插入  
                        if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,  
                                                       value)) != null) {  
                            oldVal = p.val;  
                            if (!onlyIfAbsent)  
                                p.val = value;  
                        }  
                    }  
                }  
            }  
            if (binCount != 0) { //如果链表的长度大于8时就会进行红黑树的转换  
                if (binCount >= TREEIFY_THRESHOLD)  
                    treeifyBin(tab, i);  
                if (oldVal != null)  
                    return oldVal;  
                break;  
            }  
        }  
    }  
    addCount(1L, binCount);//统计size,并且检查是否需要扩容  
    return null;  
}  

1.如果没有初始化就先调用initTable()方法来进行初始化过程

2.如果没有hash冲突就直接CAS插入

3.如果还在进行扩容操作就先进行扩容

4.如果存在hash冲突,就加锁来保证线程安全,这里有两种情况,一种是链表形式就直接遍历到尾端插入,一种是红黑树就按照红黑树结构插入

5.最后一个如果该链表的数量大于阈值8,就要先转换成黑红树的结构,break再一次进入循环

6.如果添加成功就调用addCount()方法统计size,并且检查是否需要扩容

JDK1.8 get

public V get(Object key) {  
    Node<K,V>[] tab; Node<K,V> e, p; int n, eh; K ek;  
    int h = spread(key.hashCode()); //计算两次hash  
    if ((tab = table) != null && (n = tab.length) > 0 &&  
        (e = tabAt(tab, (n - 1) & h)) != null) {//读取首节点的Node元素  
        if ((eh = e.hash) == h) { //如果该节点就是首节点就返回  
            if ((ek = e.key) == key || (ek != null && key.equals(ek)))  
                return e.val;  
        }  
        //hash值为负值表示正在扩容,这个时候查的是ForwardingNode的find方法来定位到nextTable来  
        //查找,查找到就返回  
        else if (eh < 0)  
            return (p = e.find(h, key)) != null ? p.val : null;  
        while ((e = e.next) != null) {//既不是首节点也不是ForwardingNode,那就往下遍历  
            if (e.hash == h &&  
                ((ek = e.key) == key || (ek != null && key.equals(ek))))  
                return e.val;  
        }  
    }  
    return null;  
}  

get过程:
1.计算hash值,定位到该table索引位置,如果是首节点符合就返回

2.如果遇到扩容的时候,会调用标志正在扩容节点ForwardingNode的find方法,查找该节点,匹配就返回

3.以上都不符合的话,就往下遍历节点,匹配就返回,否则最后就返回null

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值