ConcurrentHashMap

jdk1.7的ConcurrentHashMap

jdk1.7采用的是Segment+HashEntry数组+链表来实现的

ConcurrentHashMap1.7

ConcurrentHashMap初始化时有16个Segment,每个Segment中又包含了HashEntry数组,每个HashEntry又是一个链表,可以看出,Segment的结构和HashMap类似,你可以这样理解:ConcurrentHashMap由多个HashMap组成。

线程安全的实现原理

ConcurrentHashMap中的Segment在实现上继承了ReentrantLock,这样就实现了分段锁的功能。下面我们通过put()方法来看看它是如何保证线程安全的。

public V put(K key, V value) {
    Segment<K,V> s;
    // value不能为null
    if (value == null)
        throw new NullPointerException();
    // 计算key的hash值
    int hash = hash(key);
    // 定位到哪个Segment
    int j = (hash >>> segmentShift) & segmentMask;
    if ((s = (Segment<K,V>)UNSAFE.getObject          
         (segments, (j << SSHIFT) + SBASE)) == null) 
        // 如果此Segment为null,则初始化Segment
        s = ensureSegment(j);
    // 往Segment中put值
    return s.put(key, hash, value, false);
}
final V put(K key, int hash, V value, boolean onlyIfAbsent) {
    // 尝试获取锁,如果获取不到,则进入scanAndLockForPut方法
    // scanAndLockForPut中会再次tryLock,如果还是获取不到,则lock()挂起线程
    HashEntry<K,V> node = tryLock() ? null :
        scanAndLockForPut(key, hash, value);
    V oldValue;
    try {
        // table通过volatile修饰,保证拿到的都是最新的table
        HashEntry<K,V>[] tab = table;
        // 得到数组下标,&取模作用,详细介绍可以看我写的jdk1.8HashMap文章
        int index = (tab.length - 1) & hash;
        // 得到此下标下的HashEntry
        HashEntry<K,V> first = entryAt(tab, index);
        // 遍历链表
        for (HashEntry<K,V> e = first;;) {
            if (e != null) {
                K k;
                // 如果key相同,则覆盖原值
                if ((k = e.key) == key ||
                    (e.hash == hash && key.equals(k))) {
                    oldValue = e.value;
                    if (!onlyIfAbsent) {
                        e.value = value;
                        // 修改次数+1,用于限制遍历中删除
                        ++modCount;
                    }
                    break;
                }
                // 继续遍历下个值
                e = e.next;
            }
            else {
                if (node != null)
                    // 头插法(头插法的问题看我写的jdk1.7HashMap文章)
                    node.setNext(first);
                else
                    // new新的HashEntry,里面也是采用头插法
                    node = new HashEntry<K,V>(hash, key, value, first);
                int c = count + 1;
                // 如果大于阈值,开始扩容
                if (c > threshold && tab.length < MAXIMUM_CAPACITY)
                    rehash(node);
                else
                    // 将链表放到数组下标处
                    setEntryAt(tab, index, node);
                ++modCount;
                count = c;
                oldValue = null;
                break;
            }
        }
    } finally {
        // 释放锁
        unlock();
    }
    return oldValue;
}

通过上面源码可以看出jdk1.7的ConcurrentHashMap通过Segment的ReentrantLock锁来实现线程安全。要注意的是上锁操作是this.lock(),也就是每个Segment的锁是分开的,其中一个上锁并不影响其他Segment操作,说明可以同时16个线程同时进来对不同Segment操作,这样可以有效的提高并发度。

这种Segment+ReentrantLock看起来可以很好的解决并发问题了,那为什么jdk1.8又不继续使用此方法了呢?下面我们看看jdk1.8的ConcurrentHashMap

jdk1.8的ConcurrentHashMap

jdk1.8采用的是Node数组+链表/红黑树实现

ConcurrentHashMap1.8

jdk1.8的ConcurrentHashMap去除了外层的Segment,直接使用数组加链表或红黑树,数据结构和1.8的HashMap一样,不同之处在于使用了CAS+synchronized保证了线程安全。

线程安全的实现原理

我们还是通过put()方法看看它是如何保证线程安全的

public V put(K key, V value) {
    return putVal(key, value, false);
}
final V putVal(K key, V value, boolean onlyIfAbsent) {
    // 同样value不能为null
    if (key == null || value == null) throw new NullPointerException();
    // 新的hash算法,和1.7的不同
    int hash = spread(key.hashCode());
    int binCount = 0;
    for (Node<K,V>[] tab = table;;) {
        Node<K,V> f; int n, i, fh;
        if (tab == null || (n = tab.length) == 0)
            // 如果table为空,初始化
            tab = initTable();
        // f=此下标的头节点,i=下标
        else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
            // 如果此下标节点为空,new新节点放在此节点下
            if (casTabAt(tab, i, null,
                         new Node<K,V>(hash, key, value, null)))
                break;                   // no lock when adding to empty bin
        }
        // fh=头节点的hash值
        else if ((fh = f.hash) == MOVED)
            // 协助扩容
            tab = helpTransfer(tab, f);
        else {
            V oldVal = null;
            // 重点来了,synchronized锁当前node节点
            synchronized (f) {
                if (tabAt(tab, i) == f) {
                    // 头节点hash值大于0,说明是链表
                    if (fh >= 0) {
                        // 链表长度
                        binCount = 1;
                        // 遍历链表
                        for (Node<K,V> e = f;; ++binCount) {
                            K ek;
                            // key相同,覆盖原值
                            if (e.hash == hash &&
                                ((ek = e.key) == key ||
                                 (ek != null && key.equals(ek)))) {
                                oldVal = e.val;
                                if (!onlyIfAbsent)
                                    e.val = value;
                                break;
                            }
                            Node<K,V> pred = e;
                            // 到链表末端,new新node挂在末端
                            if ((e = e.next) == null) {
                                pred.next = new Node<K,V>(hash, key,value, null);
                                break;
                            }
                        }
                    }
                    // 红黑树逻辑
                    else if (f instanceof TreeBin) {
                        Node<K,V> p;
                        binCount = 2;
                        if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,value)) != null) {
                            oldVal = p.val;
                            if (!onlyIfAbsent)
                                p.val = value;
                        }
                    }
                }
            }
            if (binCount != 0) {
                // 如果链表长度超过阈值,转红黑树
                if (binCount >= TREEIFY_THRESHOLD)
                    treeifyBin(tab, i);
                if (oldVal != null)
                    return oldVal;
                break;
            }
        }
    }
    addCount(1L, binCount);
    return null;
}

通过上面源码可以看出,1.8的ConcurrentHashMap采用的是synchronized来实现线程安全。synchronized (f)可以看出锁的是每一个Node对象,这样可以将锁细化,除非有多个线程同时操作同一个Node,否则不会出现争抢锁,这样锁也不会升级,就算出现争抢锁,也可以通过自旋来获取锁,达到一定次数才会升级为重量级锁,这种情况是很少的。那为什么1.7的ReentrantLock不细化到Node上呢?

如果1.7的ReentrantLock细化到Node上,它只会在线程没有抢到锁的时候,新建节点再尝试一次,如果还没抢到,不会自旋,而是直接挂起,这样就增加了线程上下文开销的代价。当然,ReentrantLock的tryLock()也是可以自旋的,但是确定不了tryLock的时间。

所以,在锁细化到如此程度的情况下,使用synchronized是最好的选择。


扫一扫,关注我

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值