JDK8 ConcurrentHashMap源码笔记

14 篇文章 1 订阅

理解了jdk8 HashMap的源码再来理解ConcurrentHashMap事半功倍,HashMap传送门:https://blog.csdn.net/yzh_1346983557/article/details/105456563

一、ConcurrentHashMap的数据结构图

可发现ConcurrentHashMap的数据结构和jdk1.8的HashMap的数据结构基本相同,ConcurrentHashMap实现时极大参考了HashMap的实现。

二、ConcurrentHashMap的成员变量

重点关注核心成员变量transient volatile Node<K,V>[] table;即可。

    // Node数组最大容量(2^30=1073741824)
    private static final int MAXIMUM_CAPACITY = 1 << 30;
    // 默认初始值(必须是2的幕数)
    private static final int DEFAULT_CAPACITY = 16;
    // 数组可能最大值
    static final int MAX_ARRAY_SIZE = Integer.MAX_VALUE - 8;
    // 并发级别,遗留下来的,为兼容以前的版本
    private static final int DEFAULT_CONCURRENCY_LEVEL = 16;
    // 负载因子
    private static final float LOAD_FACTOR = 0.75f;
    // 链表转红黑树阀值( > 8 链表转换为红黑树)
    static final int TREEIFY_THRESHOLD = 8;
    // 红黑树转链表阀值,小于等于6
    static final int UNTREEIFY_THRESHOLD = 6;
    static final int MIN_TREEIFY_CAPACITY = 64;
    private static final int MIN_TRANSFER_STRIDE = 16;
    private static int RESIZE_STAMP_BITS = 16;
    // 2^15-1,help resize的最大线程数
    private static final int MAX_RESIZERS = (1 << (32 - RESIZE_STAMP_BITS)) - 1;
    // 32-16=16,sizeCtl中记录size大小的偏移量
    private static final int RESIZE_STAMP_SHIFT = 32 - RESIZE_STAMP_BITS;
    // forwarding nodes的hash值
    static final int MOVED     = -1;
    // 树根节点的hash值
    static final int TREEBIN   = -2;
    // ReservationNode的hash值
    static final int RESERVED  = -3;
    // 可用处理器数量
    static final int NCPU = Runtime.getRuntime().availableProcessors();
    //存放Node的数组,实际存放数据的地方
    transient volatile Node<K,V>[] table;
    /**
     *控制标识符,用来控制table数组的初始化和扩容的操作,不同的值有不同的含义
     *当为负数时:-1代表正在初始化,-N代表有N-1个线程正在 进行扩容
     *当为0时:代表当时的table还没有被初始化
     *当为正数时:表示初始化或者下一次进行扩容的大小
     */
    private transient volatile int sizeCtl;
    //...

三、ConcurrentHashMap的静态内部类Node

    static class Node<K,V> implements Map.Entry<K,V> {
        final int hash;
        final K key;//final修饰,不可修改
        volatile V val;//volatile修饰,保证并发修改时的可见性
        volatile Node<K,V> next;//volatile修饰,保证并发修改时的可见性

        Node(int hash, K key, V val, Node<K,V> next) {
            this.hash = hash;
            this.key = key;
            this.val = val;
            this.next = next;
        }

        public final K getKey()       { return key; }
        public final V getValue()     { return val; }
        public final int hashCode()   { return key.hashCode() ^ val.hashCode(); }
        public final String toString(){ return key + "=" + val; }
        public final V setValue(V value) {
            throw new UnsupportedOperationException();
        }

        public final boolean equals(Object o) {
            Object k, v, u; Map.Entry<?,?> e;
            return ((o instanceof Map.Entry) &&
                    (k = (e = (Map.Entry<?,?>)o).getKey()) != null &&
                    (v = e.getValue()) != null &&
                    (k == key || k.equals(key)) &&
                    (v == (u = val) || v.equals(u)));
        }

        Node<K,V> find(int h, Object k) {
            Node<K,V> e = this;
            if (k != null) {
                do {
                    K ek;
                    if (e.hash == h &&
                        ((ek = e.key) == k || (ek != null && k.equals(ek))))
                        return e;
                } while ((e = e.next) != null);
            }
            return null;
        }
    }

对比就可发现ConcurrentHashMap的Node结构和HashMap的Node结构基本相同,维护了4个成员变量且成员变量的含义都是相同的,只不过val、next添加了volatile修饰,保证并发修改时数据的可见性。

四、ConcurrentHashMap的构造函数

    public ConcurrentHashMap() {
    }

这里只看一下常使用的无参构造函数,可发现它啥都没有做,即所有成员变量使用其类型默认值。其它4个构造函数不再分析。

五、ConcurrentHashMap.put()方法

put()流程图: 

源码: 

    public V put(K key, V value) {
        return putVal(key, value, false);
    }

    final V putVal(K key, V value, boolean onlyIfAbsent) {
        if (key == null || value == null) throw new NullPointerException();
        //1.通过key的原始hashCode计算出Node的hash值
        int hash = spread(key.hashCode());
        int binCount = 0;
        //一直迭代执行,相当于while(true)
        //因为在table的初始化和casTabAt用到了compareAndSwapInt、compareAndSwapObject,并发执行可能会失败,所以这边要加一个for循环,不断的尝试
        for (Node<K, V>[] tab = table; ; ) {
            //f:tab[i]对应的链表(或二叉树)首节点
            Node<K, V> f;
            int n, i, fh;
            if (tab == null || (n = tab.length) == 0) // 2.
                //table数组未初始化,去初始化
                tab = initTable();
            else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {// 3. //i:tab[]数组的下标i,f:tab[i]对应的节点Node对象
                //f == null,即当前节点尚未存储数据,直接new Node放入数组tab[i]处(CAS放入)
                if (casTabAt(tab, i, null,
                        new Node<K, V>(hash, key, value, null)))
                    //结束循环
                    break;                   // no lock when adding to empty bin
            } else if ((fh = f.hash) == MOVED) // 4.
                //f != null,即当前节点已存储的有数据且hash值为-1,说明该链表正在进行transfer(转移)操作,帮助完成transfer,返回扩容完成后的table。
                tab = helpTransfer(tab, f);//helpTransfer():Helps transfer if a resize is in progress.
            else {
                //f != null且hash值不为-1,即当前节点已存储的有数据且不是正在扩容中
                V oldVal = null;
                /**
                 * tab[i]的首节点进行加锁操作,保证并发put()线程安全。不是jdk1.7的segment加锁,Segment extends ReentrantLock
                 * 用synchronized,不用1.7中CAS锁ReentrantLock原因(主要是1、2):
                 * 1.只对tab[i]的首节点加锁,锁粒度低。
                 * 2.1.8的jvm对synchronized执行有优化。低粒度锁时性能可相当CAS锁。CAS锁主要结合Condition,在粗粒度锁时完成细粒度控制方面更优.
                 * 3.直接用jdk提供的关键字synchronized,在jvm运行时内存分配可能比CAS锁new对象优。
                 */
                synchronized (f) { // 5.
                    if (tabAt(tab, i) == f) {//再次判断f是否为tab[i]的首节点
                        if (fh >= 0) {//如果f.hash >= 0,链表结构
                            binCount = 1;
                            for (Node<K, V> e = f; ; ++binCount) {
                                K ek;
                                //如果在链表中找到键为key的节点e,用新值覆盖旧值:e.val = value
                                if (e.hash == hash &&
                                        ((ek = e.key) == key ||
                                                (ek != null && key.equals(ek)))) {
                                    oldVal = e.val;
                                    if (!onlyIfAbsent)
                                        e.val = value;
                                    break;//结束循环
                                }
                                //如果在链表中不存在键为key的节点e
                                Node<K, V> pred = e;//记录当前节点e为上一节点pred
                                if ((e = e.next) == null) {//更新e = e.next后,如果e为空
                                    //new Node赋予上一节点pred的next
                                    pred.next = new Node<K, V>(hash, key,
                                            value, null);
                                    break;//结束循环
                                }
                                //e.next != null,继续迭代(已更新e = e.next)
                            }
                        } else if (f instanceof TreeBin) {
                            //如果f属于红黑树类型
                            ConcurrentHashMap.Node<K, V> p;
                            binCount = 2;
                            //调用树的putTreeVal(),将key、value加入树节点中
                            if ((p = ((TreeBin<K, V>) f).putTreeVal(hash, key,
                                    value)) != null) {
                                oldVal = p.val;
                                if (!onlyIfAbsent)
                                    p.val = value;
                            }
                        }
                    }
                }
                //新节点加入完成后
                if (binCount != 0) { // 6.
                    //如果链表长度超过8,将链表转为树treeifyBin().(等于8时不会)
                    //注意if (fh >= 0)里binCount的计算,binCount初始从1开始计数
                    //假设当前链表长度为7,迭代到最后一个节点时binCount=7,e.next为null,new Node加入链表后break了,这时链表长度为8但是binCount=7
                    //所以binCount=8时,链表实际长度是9
                    if (binCount >= TREEIFY_THRESHOLD)
                        treeifyBin(tab, i);
                    if (oldVal != null)
                        return oldVal;
                    break;//结束外部循环体
                }
            }
        }
        // 计数count加1,如果表太小且还没有resize,则启动传输transfer操作(扩容)
        addCount(1L, binCount);
        return null;
    }

1. 通过key的原始hashCode计算出Node对象的hash值。
2. 如果数组为空,则 CAS 进行数组初始化,失败则自旋保证成功。
3. 如果桶即当前节点Node为空,表示当前节点尚未存储数据,则利用 CAS 尝试写入,失败则自旋保证成功。
4. 如果当前节点已存储的有数据且hash值为-1,说明该链表正在进行扩容,则帮助完成数据转移操作。
5. 如果当前节点已存储的有数据且不是正在扩容中,则使用 synchronized 锁写入数据。
6. 如果链表长度超过8,则转换为红黑树。

    /**
     * 计算出Node中key的hash值
     * 位运算,无符号右移16位后 位非 自己,最后 位与 0x7fffffff
     * 0x表16进制,每个十六进制数4bit位,因此8个16进制是4个byte字节,刚好是一个int整型
     * F的二进制码为 1111,7的二进制码为 0111,这样一来,整个整数 0x7FFFFFFF 的二进制表示就是除了首位是 0,其余都是1。
     * 就是说,0x7fffffff是最大的整型数 int(因为第一位是符号位,0 表示正数),即Integer.MAX_VALUE=0x7fffffff=2^31 -1
     * 让h的高位也参与了hash值计算,减少了hash碰撞
     */
    static final int spread(int h) {
        return (h ^ (h >>> 16)) & HASH_BITS;
    }

    //初始化table数组
    private final Node<K, V>[] initTable() {
        Node<K, V>[] tab;
        int sc;
        while ((tab = table) == null || tab.length == 0) {
            if ((sc = sizeCtl) < 0)
                Thread.yield(); // lost initialization race; just spin
            else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {//compareAndSwapInt:CAS操作,乐观锁,Unsafe类的native本地方法,并发执行时只有一个线程能执行成功
                //sizeCtl >= 0
                try {
                    if ((tab = table) == null || tab.length == 0) {
                        int n = (sc > 0) ? sc : DEFAULT_CAPACITY;//初始容量16
                        @SuppressWarnings("unchecked")
                        Node<K, V>[] nt = (Node<K, V>[]) new Node<?, ?>[n];//new一个大小为16的Node数组
                        table = tab = nt;//新Node数组赋予成员变量table
                        sc = n - (n >>> 2);
                    }
                } finally {
                    sizeCtl = sc;
                }
                break;
            }
        }
        return tab;//返回新Node数组
    }

    //根据下标i得到tab[i]的Node对象
    static final <K, V> Node<K, V> tabAt(Node<K, V>[] tab, int i) {
        return (Node<K, V>) U.getObjectVolatile(tab, ((long) i << ASHIFT) + ABASE);//getObjectVolatile:CAS操作,Unsafe类的本地方法
    }

    //将新Node对象v放入tab[i]处
    static final <K,V> boolean casTabAt(Node<K,V>[] tab, int i,
                                        Node<K,V> c, Node<K,V> v) {
        return U.compareAndSwapObject(tab, ((long)i << ASHIFT) + ABASE, c, v);//compareAndSwapObject:CAS操作
    }

总结:通过源码可发现,jdk1.8 ConcurrentHashMap的put()操作是基于一系列的CAS(乐观锁)和synchronized锁住数组table[i]的首节点完成并发的线程安全性。摒弃了jdk1.7ConcurrentHashMap中segment数组的分段锁思想。1.7是segment[]+HashEntry[]+链表,双数组加单链表的数据结构。1.8是Node[]+链表+红黑树,数组加单链表加红黑树(链表长度大于8时)的数据结构。

六、ConcurrentHashMap.get()方法

    public V get(Object key) {
        Node<K,V>[] tab; Node<K,V> e, p; int n, eh; K ek;
        //计算key的hash值
        int h = spread(key.hashCode());
        if ((tab = table) != null && (n = tab.length) > 0 &&
                (e = tabAt(tab, (n - 1) & h)) != null) {//根据hash计算出下标i,定位到e = tab[i]
            if ((eh = e.hash) == h) {
                if ((ek = e.key) == key || (ek != null && key.equals(ek)))
                    //tab[i]链表首节点定位到直接返回值
                    return e.val;
            }
            else if (eh < 0)
                //二叉树定位
                return (p = e.find(h, key)) != null ? p.val : null;
            while ((e = e.next) != null) {
                //链表遍历定位
                if (e.hash == h &&
                        ((ek = e.key) == key || (ek != null && key.equals(ek))))
                    return e.val;
            }
        }
        return null;
    }

看懂了put()再来看get(),就比较容易理解了:

1. 计算 key 的 hash 值;

2. 根据 hash 值计算出数组下标i,根据i得到tab[i]对象;

3. tab[i]链表(或二叉树)首节点是否刚好匹配,是则返回首节点value;

4. 如果不匹配,判断该元素类型是否是 TreeNode,如果是,用红黑树的方法取数据;

5. 如果不是二叉树,遍历链表,直到找到相等(==或equals)的 key。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值