JDK集合之深入理解ConcurrentHashMap

ConcurrentHashMap在不同版本的JDK中有不同的实现,本文先简单介绍JDK1.7版本的实现,然后重点介绍1.8版本的相关知识。

一、JDK1.7中的ConcurrentHashMap实现

早期版本的ConcurrentHashMap实现主要基于下面两点:

  1. 分离锁,也就是将内部进行分段,数据结构是Segment数组,里面则是HashEntry的数组,和HashMap类似,哈希相同的条目也是以链表形式存放。Segment继承了ReentrantLock,因此Segment自己就是锁。
  2. HashEntry内部使用volatile的value字段来保证可见性,也利用了不可变对象的机制以改进利用Unsafe提供的底层能力,比如volatile access,去直接完成操作部分,以最优化性能,毕竟Unsafe中的很多操作都是JVM intrinsic优化过的。
    内部结构示意图如下:
    jdk1.7 ConcurrentHashMap内部结构示意图.png
    其核心是利用分段设计,在进行并发操作的时候,只需要锁定相应段,就可以有效避免类似Hashtable整体同步的问题,大大提高了性能。
    在构造的时候,Segment的数量(支持并发写的线程数量)是由concurrentcyLevel决定,默认是16,也可以在相应构造函数里指定,但如果传入的不是2的幂值,会被自动转换。
  • get操作,需要保证的是可见性,所以并没有同步逻辑。虽然HashEntry中的value是volatile可以保证可见性,但是如果在遍历过程中有数据被修改过,那么获取到的结果会是过时的,所以这一部分是ConcurrentHashMap非强一致性的表现。
  • put操作,首先是通过二次哈希避免哈希冲突,然后以Unsafe调用方式,直接获取相应的Segment,然后进行线程安全的put操作:

 public V put(K key, V value) {
    Segment<K,V> s;
    if (value == null)
        throw new NullPointerException();
    // 二次哈希,以保证数据的分散性,避免哈希冲突
    int hash = hash(key.hashCode());
    int j = (hash >>> segmentShift) & segmentMask;
    if ((s = (Segment<K,V>)UNSAFE.getObject          // nonvolatile; recheck
         (segments, (j << SSHIFT) + SBASE)) == null) //  in ensureSegment
        s = ensureSegment(j);
    return s.put(key, hash, value, false);
}

其核心实现在下面的方法中:


final V put(K key, int hash, V value, boolean onlyIfAbsent) {
   // scanAndLockForPut会去查找是否有key相同Node
   // 无论如何,确保获取锁
   HashEntry<K,V> node = tryLock() ? null :
                scanAndLockForPut(key, hash, value);
   V oldValue;
   try {
         HashEntry<K,V>[] tab = table;
         int index = (tab.length - 1) & hash;
         HashEntry<K,V> first = entryAt(tab, index);
         for (HashEntry<K,V> e = first;;) {
               if (e != null) {
                   K k;
                   // 更新已有value...
               }else {
                    // 放置HashEntry到特定位置,如果超过阈值,进行rehash
                    // ...
               }
        }
  } finally {
        unlock();
  }
  return oldValue;
}

从上面的源码可以看出,在进行并发写操作时:

  1. ConcurrentHashMap会获取再入锁,以保证数据一致性,Segment本身就是基于ReentrantLock的扩展实现,所以,在并发修改期间,相应的Segment是被锁定的。
  2. 在最初阶段,进行重复性的扫描,以确定相应的key值是否已经在数组里面,进而决定是更新还是放置操作。重复扫描、检测冲突是ConcurrentHashMap的常见技巧。
  3. ConcurrentHashMap在扩容的时候不是整体扩容,而是单独对Segment进行扩容。
    值得注意的是分离锁对size方法有一个副作用。试想,如果不进行同步,简单计算所有Segment的总值,可能会因为并发put,导致结果不准,但是直接锁定所有Segment进行计算,就会变得非常昂贵。所以ConcurrentHashMap是通过重试机制(RETRIES_BEFORE_LOCK,指定重试次数2)来试图获取可靠值。如果没有监控到发生变化(通过对比Segment.modCount),就直接返回,否则锁定Segment进行操作。

二、JDK1.8中的ConcurrentHashMap实现

跟之前版本相比,ConcurrentHashMap有如下变化:

  1. 总体结构上,它的内部存储和Java8中的HashMap一样,同样是数组+链表+红黑树
  2. 内部仍然有Segment定义,但仅仅是为了保证序列化时的兼容性而已,不再有任何结构上的用处
  3. 因为不再使用Segment,初始化操作大大简化,修改为lazy-load形式,这样可以有效避免初始开销
  4. 数据存储用volatile保证可见性
  5. 使用CAS等操作,在特定场景进行无锁并发操作
  6. 使用Unsafe、LongAdder之类的底层手段,进行极端情况的优化
    解读ConcurrentHashMap源码,主要从类中的重要属性、put方法、扩容、size方法等方面入手。

1、重要属性和内部类

属性:

//最大容量
private static final int MAXIMUM_CAPACITY = 1 << 30;
//默认初始化容量
private static final int DEFAULT_CAPACITY = 16;
//默认负载因子
private static final float LOAD_FACTOR = 0.75f;
static final int MOVED     = -1; // 表示正在转移中的节点的哈希值
static final int TREEBIN   = -2; // 表示树节点的哈希值
static final int RESERVED  = -3; // hash for transient reservations
static final int HASH_BITS = 0x7fffffff; // usable bits of normal node hash
//保存元素的数组
transient volatile Node<K,V>[] table;
//扩容时生成的数组,是table的两倍
private transient volatile Node<K,V>[] nextTable;
/**用来控制表初始化和扩容的,默认值为0,当在初始化的时候指定了大小,这会将这个大小保存在sizeCtl中,大小为数组的0.75,当为负的时候,说明表正在初始化或扩张,-1表示初始化,-(1+n) n:表示活动的扩张线程*/
private transient volatile int sizeCtl;

内部类:

//ConcurrentHashMap保存元素的基本类
static class Node<K,V> implements Map.Entry<K,V> {
    final int hash;
    final K key;
    volatile V val;
    volatile Node<K,V> next;

    Node(int hash, K key, V val, Node<K,V> next) {
        this.hash = hash;
        this.key = key;
        this.val = val;
        this.next = next;
    }
}
//树节点类
static final class TreeNode<K,V> extends Node<K,V> {
    TreeNode<K,V> parent;  // red-black tree links
    TreeNode<K,V> left;
    TreeNode<K,V> right;
    TreeNode<K,V> prev;    // needed to unlink next upon deletion
    boolean red;

    TreeNode(int hash, K key, V val, Node<K,V> next,
             TreeNode<K,V> parent) {
        super(hash, key, val, next);
        this.parent = parent;
    }
}
//TreeBin 用作树的头结点,只存储root和first节点,不存储节点的key、value值。
static final class TreeBin<K,V> extends Node<K,V> {
    TreeNode<K,V> root;
    volatile TreeNode<K,V> first;
    volatile Thread waiter;
    volatile int lockState;
    // values for lockState
    static final int WRITER = 1; // set while holding write lock
    static final int WAITER = 2; // set when waiting for write lock
    static final int READER = 4; // increment value for setting read lock
}
//ForwardingNode在转移的时候放在头部的节点,是一个空节点
static final class ForwardingNode<K,V> extends Node<K,V> {
    final Node<K,V>[] nextTable;
    ForwardingNode(Node<K,V>[] tab) {
        super(MOVED, null, null, null);
        this.nextTable = tab;
    }
}

2、重要的基础方法

在ConcurrentHashMap中使用了unSafe方法,通过直接操作内存的方式来保证并发处理的安全性,使用的是硬件的安全机制。

static final <K,V> Node<K,V> tabAt(Node<K,V>[] tab, int i) {
    return (Node<K,V>)U.getObjectVolatile(tab, ((long)i << ASHIFT) + ABASE);
}
static final <K,V> boolean casTabAt(Node<K,V>[] tab, int i,
                                        Node<K,V> c, Node<K,V> v) {
    return U.compareAndSwapObject(tab, ((long)i << ASHIFT) + ABASE, c, v);
}
static final <K,V> void setTabAt(Node<K,V>[] tab, int i, Node<K,V> v) {
    U.putObjectVolatile(tab, ((long)i << ASHIFT) + ABASE, v);
}

1、put方法详解

public V put(K key, V value) {
    return putVal(key, value, false);
}

final V putVal(K key, V value, boolean onlyIfAbsent) { 
    //key和value不能为空
    if (key == null || value == null) throw new NullPointerException();
    //计算hash值
    int hash = spread(key.hashCode());
    //用来计算节点的元素个数,判断是否需要扩容或转成红黑树
    int binCount = 0;
    for (Node<K,V>[] tab = table;;) {
        Node<K,V> f; int n, i, fh; K fk; V fv;
        if (tab == null || (n = tab.length) == 0)
            tab = initTable();//如果table没有初始化,则进行初始化
        else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
            //如果这个位置没有元素, 利用CAS去进行无锁线程安全操作,添加新元素到这个位置
            if (casTabAt(tab, i, null, new Node<K,V>(hash, key, value)))
                break; 
        }
        //如果检测到这个位置的元素hash值是MOVED,表示正在进行扩容,那么当前线程也会参与到扩容当中
        else if ((fh = f.hash) == MOVED)
            tab = helpTransfer(tab, f);
        else {
        /*如果这个位置有元素的话,用synchronized加同步锁
          如果是链表的话(hash>0),就遍历所有元素,找到相同的key,替换,如果没有,直接添加到链表的后面
        如果是树,添加到树中
        添加完之后,会对该节点的元素数量判断,是否需要转换成树,是否需要扩容
        */
            V oldVal = null;
            synchronized (f) {
                if (tabAt(tab, i) == f) {
                    if (fh >= 0) {//取出来的元素的hash值大于0(链表),当转换为树之后,hash值为-2
                        binCount = 1;
                        for (Node<K,V> e = f;; ++binCount) {
                            K ek;
                            if (e.hash == hash &&
                                ((ek = e.key) == key ||
                                 (ek != null && key.equals(ek)))) {
                                oldVal = e.val;
                                if (!onlyIfAbsent)//当使用putIfAbsent的时候,只有在这个key没有设置值得时候才设置
                                    e.val = value;
                                break;
                            }
                            Node<K,V> pred = e;
                            if ((e = e.next) == null) {
                                pred.next = new Node<K,V>(hash, key,
                                                          value, null);
                                break;
                            }
                        }
                    }
                    else if (f instanceof TreeBin) {//节点为红黑树结构
                        Node<K,V> p;
                        binCount = 2;
                        if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,
                                                       value)) != null) {
                            oldVal = p.val;
                            if (!onlyIfAbsent)
                                p.val = value;
                        }
                    }
                }
            }
            if (binCount != 0) {
                //当在同一个节点的数目达到8个的时候,则扩张数组或将给节点的数据转为tree
                if (binCount >= TREEIFY_THRESHOLD)
                    treeifyBin(tab, i);
                if (oldVal != null)
                    return oldVal;
                break;
            }
        }
    }
    addCount(1L, binCount);
    return null;
}

初始化数组

private final Node<K,V>[] initTable() {
    Node<K,V>[] tab; int sc;
    while ((tab = table) == null || tab.length == 0) {
        //sizeCtl初始值为0,当小于0的时候表示在别的线程在初始化表或扩展表,当前线程让出执行权
        if ((sc = sizeCtl) < 0)
            Thread.yield(); // lost initialization race; just spin
        //SIZECTL:表示当前对象的内存偏移量,sc表示期望值,-1表示要替换的值,设定为-1表示要初始化表了
        else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {
            try {
                if ((tab = table) == null || tab.length == 0) {
                    int n = (sc > 0) ? sc : DEFAULT_CAPACITY;
                    @SuppressWarnings("unchecked")
                    Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];
                    table = tab = nt;
                    sc = n - (n >>> 2);//sizeCtl长度为数组长度的3/4
                }
            } finally {
                sizeCtl = sc;
            }
            break;
        }
    }
    return tab;
}

在同步的时候使用的是synchronized,而不是通常建议的ReentrantLock之类,是因为在现代JDK中synchronized已经被不断优化,可以不用再过分担心性能差异,另外,相比于ReentrantLock,synchronized可以减少内存消耗。

2、扩容方法详解

在put方法的详解中,在同一个节点的个数超过8个的时候,会调用treeifyBin方法来看看是扩容还是转化为一棵树
同时在每次添加完元素的addCount方法中,也会判断当前数组中的元素是否达到了sizeCtl的量,如果达到了的话,则会进入transfer方法去扩容

/**
 * Replaces all linked nodes in bin at given index unless table is
 * too small, in which case resizes instead.
 * 当数组长度小于64的时候,扩张数组长度一倍,否则的话把链表转为树
 */
private final void treeifyBin(Node<K,V>[] tab, int index) {
    Node<K,V> b; int n, sc;
    if (tab != null) {
        if ((n = tab.length) < MIN_TREEIFY_CAPACITY)    //MIN_TREEIFY_CAPACITY 64
            tryPresize(n << 1);        // 数组扩容
        else if ((b = tabAt(tab, index)) != null && b.hash >= 0) {
            synchronized (b) {    //使用synchronized同步器,将该节点出的链表转为树
                if (tabAt(tab, index) == b) {
                    TreeNode<K,V> hd = null, tl = null;    //hd:树的头(head)
                    for (Node<K,V> e = b; e != null; e = e.next) {
                        TreeNode<K,V> p =
                            new TreeNode<K,V>(e.hash, e.key, e.val,
                                              null, null);
                        //把Node组成的链表,转化为TreeNode的链表,头结点任然放在相同的位置
                        if ((p.prev = tl) == null)        
                            hd = p;    //设置head
                        else
                            tl.next = p;
                        tl = p;
                    }
                    //把TreeNode的链表放入容器TreeBin中
                    setTabAt(tab, index, new TreeBin<K,V>(hd));
                }
            }
        }
    }
}

可以看到当需要扩容的时候,调用的时候tryPresize方法,看看trePresize的源码

/**
 * 扩容表为指可以容纳指定个数的大小(总是2的N次方)
 * 假设原来的数组长度为16,则在调用tryPresize的时候,size参数的值为16<<1(32),此时sizeCtl的值为12
 * 计算出来c的值为64,则要扩容到sizeCtl≥为止
 *  第一次扩容之后 数组长:32 sizeCtl:24
 *  第二次扩容之后 数组长:64 sizeCtl:48
 *  第二次扩容之后 数组长:128 sizeCtl:94 --> 这个时候才会退出扩容
 */
private final void tryPresize(int size) {
        /*
         * MAXIMUM_CAPACITY = 1 << 30
         * 如果给定的大小大于等于数组容量的一半,则直接使用最大容量,
         * 否则使用tableSizeFor算出来
         * 后面table一直要扩容到这个值小于等于sizeCtrl(数组长度的3/4)才退出扩容
         */
    int c = (size >= (MAXIMUM_CAPACITY >>> 1)) ? MAXIMUM_CAPACITY :
        tableSizeFor(size + (size >>> 1) + 1);
    int sc;
    while ((sc = sizeCtl) >= 0) {
        Node<K,V>[] tab = table; int n;
          printTable(tab);    调试用的
        /*
         * 如果数组table还没有被初始化,则初始化一个大小为sizeCtrl和刚刚算出来的c中较大的一个大小的数组
         * 初始化的时候,设置sizeCtrl为-1,初始化完成之后把sizeCtrl设置为数组长度的3/4
         * 为什么要在扩张的地方来初始化数组呢?这是因为如果第一次put的时候不是put单个元素,
         * 而是调用putAll方法直接put一个map的话,在putALl方法中没有调用initTable方法去初始化table,
         * 而是直接调用了tryPresize方法,所以这里需要做一个是不是需要初始化table的判断
         */
        if (tab == null || (n = tab.length) == 0) {
            n = (sc > c) ? sc : c;
            if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {    //初始化tab的时候,把sizeCtl设为-1
                try {
                    if (table == tab) {
                        @SuppressWarnings("unchecked")
                        Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];
                        table = nt;
                        sc = n - (n >>> 2);
                    }
                } finally {
                    sizeCtl = sc;
                }
            }
        }
        /*
         * 一直扩容到的c小于等于sizeCtl或者数组长度大于最大长度的时候,则退出
         * 所以在一次扩容之后,不是原来长度的两倍,而是2的n次方倍
         */
        else if (c <= sc || n >= MAXIMUM_CAPACITY) {
                break;    //退出扩张
        }
        else if (tab == table) {
            int rs = resizeStamp(n);
            /*
             * 如果正在扩容Table的话,则帮助扩容
             * 否则的话,开始新的扩容
             * 在transfer操作,将第一个参数的table中的元素,移动到第二个元素的table中去,
             * 虽然此时第二个参数设置的是null,但是,在transfer方法中,当第二个参数为null的时候,
             * 会创建一个两倍大小的table
             */
            if (sc < 0) {
                Node<K,V>[] nt;
                if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
                    sc == rs + MAX_RESIZERS || (nt = nextTable) == null ||
                    transferIndex <= 0)
                    break;
                /*
                 * transfer的线程数加一,该线程将进行transfer的帮忙
                 * 在transfer的时候,sc表示在transfer工作的线程数
                 */
                if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1))
                    transfer(tab, nt);
            }
            /*
             * 没有在初始化或扩容,则开始扩容
             */
            else if (U.compareAndSwapInt(this, SIZECTL, sc,
                                         (rs << RESIZE_STAMP_SHIFT) + 2)) {
                    transfer(tab, null);
            }
        }
    }
}

在tryPresize方法中,并没有加锁,允许多个线程进入,如果数组正在扩张,则当前线程也去帮助扩容。
数组扩容的主要方法就是transfer方法

/**
 * Moves and/or copies the nodes in each bin to new table. See
 * above for explanation.
 * 把数组中的节点复制到新的数组的相同位置,或者移动到扩张部分的相同位置
 * 在这里首先会计算一个步长,表示一个线程处理的数组长度,用来控制对CPU的使用,
 * 每个CPU最少处理16个长度的数组元素,也就是说,如果一个数组的长度只有16,那只有一个线程会对其进行扩容的复制移动操作
 * 扩容的时候会一直遍历,直到复制完所有节点,每处理一个节点的时候会在链表的头部设置一个fwd节点,这样其他线程就会跳过它,
 * 复制后在新数组中的链表不是绝对的反序的
 */
private final void transfer(Node<K,V>[] tab, Node<K,V>[] nextTab) {
    int n = tab.length, stride;
    if ((stride = (NCPU > 1) ? (n >>> 3) / NCPU : n) < MIN_TRANSFER_STRIDE)    //MIN_TRANSFER_STRIDE 用来控制不要占用太多CPU
        stride = MIN_TRANSFER_STRIDE; // subdivide range    //MIN_TRANSFER_STRIDE=16
    /*
     * 如果复制的目标nextTab为null的话,则初始化一个table两倍长的nextTab
     * 此时nextTable被设置值了(在初始情况下是为null的)
     * 因为如果有一个线程开始了表的扩张的时候,其他线程也会进来帮忙扩张,
     * 而只是第一个开始扩张的线程需要初始化下目标数组
     */
    if (nextTab == null) {            // initiating
        try {
            @SuppressWarnings("unchecked")
            Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n << 1];
            nextTab = nt;
        } catch (Throwable ex) {      // try to cope with OOME
            sizeCtl = Integer.MAX_VALUE;
            return;
        }
        nextTable = nextTab;
        transferIndex = n;
    }
    int nextn = nextTab.length;
    /*
     * 创建一个fwd节点,这个是用来控制并发的,当一个节点为空或已经被转移之后,就设置为fwd节点
     * 这是一个空的标志节点
     */
    ForwardingNode<K,V> fwd = new ForwardingNode<K,V>(nextTab);
    boolean advance = true;    //是否继续向前查找的标志位
    boolean finishing = false; // to ensure sweep(清扫) before committing nextTab,在完成之前重新在扫描一遍数组,看看有没完成的没
    for (int i = 0, bound = 0;;) {
        Node<K,V> f; int fh;
        while (advance) {
            int nextIndex, nextBound;
            if (--i >= bound || finishing) {
                advance = false;
            }
            else if ((nextIndex = transferIndex) <= 0) {
                i = -1;
                advance = false;
            }
            else if (U.compareAndSwapInt
                     (this, TRANSFERINDEX, nextIndex,
                      nextBound = (nextIndex > stride ?
                                   nextIndex - stride : 0))) {
                bound = nextBound;
                i = nextIndex - 1;
                advance = false;
            }
        }
        if (i < 0 || i >= n || i + n >= nextn) {
            int sc;
            if (finishing) {        //已经完成转移
                nextTable = null;
                table = nextTab;
                sizeCtl = (n << 1) - (n >>> 1);    //设置sizeCtl为扩容后的0.75
                return;
            }
            if (U.compareAndSwapInt(this, SIZECTL, sc = sizeCtl, sc - 1)) {
                if ((sc - 2) != resizeStamp(n) << RESIZE_STAMP_SHIFT) {
                        return;
                }
                finishing = advance = true;
                i = n; // recheck before commit
            }
        }
        else if ((f = tabAt(tab, i)) == null)            //数组中把null的元素设置为ForwardingNode节点(hash值为MOVED[-1])
            advance = casTabAt(tab, i, null, fwd);
        else if ((fh = f.hash) == MOVED)
            advance = true; // already processed
        else {
            synchronized (f) {                //加锁操作
                if (tabAt(tab, i) == f) {
                    Node<K,V> ln, hn;
                    if (fh >= 0) {        //该节点的hash值大于等于0,说明是一个Node节点
                            /*
                             * 因为n的值为数组的长度,且是power(2,x)的,所以,在&操作的结果只可能是0或者n
                             * 根据这个规则
                             *         0-->  放在新表的相同位置
                             *         n-->  放在新表的(n+原来位置)
                             */
                        int runBit = fh & n; 
                        Node<K,V> lastRun = f;
                        /*
                         * lastRun 表示的是需要复制的最后一个节点
                         * 每当新节点的hash&n -> b 发生变化的时候,就把runBit设置为这个结果b
                         * 这样for循环之后,runBit的值就是最后不变的hash&n的值
                         * 而lastRun的值就是最后一次导致hash&n 发生变化的节点(假设为p节点)
                         * 为什么要这么做呢?因为p节点后面的节点的hash&n 值跟p节点是一样的,
                         * 所以在复制到新的table的时候,它肯定还是跟p节点在同一个位置
                         * 在复制完p节点之后,p节点的next节点还是指向它原来的节点,就不需要进行复制了,自己就被带过去了
                         * 这也就导致了一个问题就是复制后的链表的顺序并不一定是原来的倒序
                         */
                        for (Node<K,V> p = f.next; p != null; p = p.next) {
                            int b = p.hash & n;    //n的值为扩张前的数组的长度
                            if (b != runBit) {
                                runBit = b;
                                lastRun = p;
                            }
                        }
                        if (runBit == 0) {
                            ln = lastRun;
                            hn = null;
                        }
                        else {
                            hn = lastRun;
                            ln = null;
                        }
                        /*
                         * 构造两个链表,顺序大部分和原来是反的
                         * 分别放到原来的位置和新增加的长度的相同位置(i/n+i)
                         */
                        for (Node<K,V> p = f; p != lastRun; p = p.next) {
                            int ph = p.hash; K pk = p.key; V pv = p.val;
                            if ((ph & n) == 0)
                                    /*
                                     * 假设runBit的值为0,
                                     * 则第一次进入这个设置的时候相当于把旧的序列的最后一次发生hash变化的节点(该节点后面可能还有hash计算后同为0的节点)设置到旧的table的第一个hash计算后为0的节点下一个节点
                                     * 并且把自己返回,然后在下次进来的时候把它自己设置为后面节点的下一个节点
                                     */
                                ln = new Node<K,V>(ph, pk, pv, ln);
                            else
                                    /*
                                     * 假设runBit的值不为0,
                                     * 则第一次进入这个设置的时候相当于把旧的序列的最后一次发生hash变化的节点(该节点后面可能还有hash计算后同不为0的节点)设置到旧的table的第一个hash计算后不为0的节点下一个节点
                                     * 并且把自己返回,然后在下次进来的时候把它自己设置为后面节点的下一个节点
                                     */
                                hn = new Node<K,V>(ph, pk, pv, hn);    
                        }
                        setTabAt(nextTab, i, ln);    
                        setTabAt(nextTab, i + n, hn);
                        setTabAt(tab, i, fwd);
                        advance = true;
                    }
                    else if (f instanceof TreeBin) {    //否则的话是一个树节点
                        TreeBin<K,V> t = (TreeBin<K,V>)f;
                        TreeNode<K,V> lo = null, loTail = null;
                        TreeNode<K,V> hi = null, hiTail = null;
                        int lc = 0, hc = 0;
                        for (Node<K,V> e = t.first; e != null; e = e.next) {
                            int h = e.hash;
                            TreeNode<K,V> p = new TreeNode<K,V>
                                (h, e.key, e.val, null, null);
                            if ((h & n) == 0) {
                                if ((p.prev = loTail) == null)
                                    lo = p;
                                else
                                    loTail.next = p;
                                loTail = p;
                                ++lc;
                            }
                            else {
                                if ((p.prev = hiTail) == null)
                                    hi = p;
                                else
                                    hiTail.next = p;
                                hiTail = p;
                                ++hc;
                            }
                        }
                        /*
                         * 在复制完树节点之后,判断该节点处构成的树还有几个节点,
                         * 如果≤6个的话,就转回为一个链表
                         */
                        ln = (lc <= UNTREEIFY_THRESHOLD) ? untreeify(lo) :
                            (hc != 0) ? new TreeBin<K,V>(lo) : t;
                        hn = (hc <= UNTREEIFY_THRESHOLD) ? untreeify(hi) :
                            (lc != 0) ? new TreeBin<K,V>(hi) : t;
                        setTabAt(nextTab, i, ln);
                        setTabAt(nextTab, i + n, hn);
                        setTabAt(tab, i, fwd);
                        advance = true;
                    }
                }
            }
        }
    }
}

在扩容的时候每个线程都有处理的步长,最少为16,在这个步长范围内的数组节点只有自己一个线程来处理

3、size方法

为了更好地统计size,ConcurrentHashMap提供了baseCount、counterCells两个辅助变量和一个CounterCell辅助内部类

@sun.misc.Contended static final class CounterCell {
        volatile long value;
        CounterCell(long x) { value = x; }
}

//ConcurrentHashMap中元素个数,但返回的不一定是当前Map的真实元素个数。基于CAS无锁更新
private transient volatile long baseCount;

private transient volatile CounterCell[] counterCells;

public int size() {
        long n = sumCount();
        return ((n < 0L) ? 0 :
                (n > (long)Integer.MAX_VALUE) ? Integer.MAX_VALUE :
                (int)n);
}
final long sumCount() {
        CounterCell[] as = counterCells; CounterCell a;
        long sum = baseCount;
        if (as != null) {
            for (int i = 0; i < as.length; ++i) {
                //遍历,所有counter求和
                if ((a = as[i]) != null)
                    sum += a.value;     
            }
        }
        return sum;
}

通过上述size()逻辑可以知道:size = baseCount + counterCells[0…n-1].value,我们通过增加一个元素的逻辑代码来看这两个变量的含义。

private final void addCount(long x, int check) {
    CounterCell[] as; long b, s;
    // s = b + x,完成baseCount++操作;
    if ((as = counterCells) != null ||
        !U.compareAndSwapLong(this, BASECOUNT, b = baseCount, s = b + x)) {
        CounterCell a; long v; int m;
        boolean uncontended = true;
        if (as == null || (m = as.length - 1) < 0 ||
            (a = as[ThreadLocalRandom.getProbe() & m]) == null ||
            !(uncontended =
              U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))) {
            //  多线程CAS发生失败时执行
            fullAddCount(x, uncontended);
            return;
        }
        if (check <= 1)
            return;
        s = sumCount();
    }
   // 检查是否进行扩容
}

在并发量很高时,如果存在两个线程同时执行CAS修改baseCount值,则失败的线程会继续执行方法体中的逻辑,使用CounterCell记录元素个数的变化;如果通过CAS设置cellsBusy字段失败的话,则继续尝试通过CAS修改baseCount字段,如果修改baseCount字段成功的话,就退出循环,否则继续循环插入CounterCell对象;通过累加baseCount和CounterCell数组中的数量,即可得到元素的总个数;

参考:
https://www.jianshu.com/p/4aaf1a44ac82
https://www.cnblogs.com/zerotomax/p/8687425.html#go3

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值