1.8环境下的ConcurrentHashMap

前言

  1. HashMap在高并发的环境下,执行put操作会导致HashMap的Entry链表形成环形数据结构,从而导致Entry的next节点始终不为空,因此产生死循环获取Entry

  2. HashTable虽然是线程安全的,但是效率低下,当一个线程访问HashTable的同步方法时,其他线程如果也访问HashTable的同步方法,那么会进入阻塞或者轮训状态。

  3. 在jdk1.6中ConcurrentHashMap使用锁分段技术提高并发访问效率。首先将数据分成一段一段地存储,然后给每一段数据配一个锁,当一个线程占用锁访问其中一段数据时,其他段的数据也能被其他线程访问。然而在jdk1.8中的实现已经抛弃了Segment分段锁机制,利用CAS+Synchronized来保证并发更新的安全,底层依然采用数组+链表+红黑树的存储结构。我们可以来看一下他的一些方法来更好的理解它。

一、put方法

public V put(K key, V value) {
    return putVal(key, value, false);
}
 /** Implementation for put and putIfAbsent */
    final V putVal(K key, V value, boolean onlyIfAbsent) {
        if (key == null || value == null) throw new NullPointerException();//key和value不能位null
        int hash = spread(key.hashCode());//拿到hash值
        int binCount = 0;
        for (Node<K,V>[] tab = table;;) {
            Node<K,V> f; int n, i, fh;
            if (tab == null || (n = tab.length) == 0)
                tab = initTable();//初始化数组
            //tabAt(tab, i = (n - 1) & hash),利用UNSAFE操作拿到tab[i]的值
            else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {//如果位null
                if (casTabAt(tab, i, null,
                             new Node<K,V>(hash, key, value, null)))//cas操作去给tab[i]的位置new一个Node
                    break;                   // no lock when adding to empty bin
            }
            //static final int MOVED = -1; // hash for forwarding nodes
            else if ((fh = f.hash) == MOVED)//f不等于null才会走这里,看f的哈希值是不是-1
                //等于-1就代表某几个线程正在对ConcurrentHashMap进行扩容
                tab = helpTransfer(tab, f);//然后调用这个方法,去帮助扩容转移元素,转移完成之后,继续循环,拿到新的table
            else {
                V oldVal = null;
                synchronized (f) {//加锁,链表或红黑树的头节点会作为锁的资源
                    if (tabAt(tab, i) == f) {//重新判断一下f是否还是头节点,防止在加锁的过程中f被改变
                        //没有发生变化
                        if (fh >= 0) {//判断hash值是不是大于0,如果是,就表示他是链表上的一个节点,因为红黑树的TreeBin节点的hash为-2
                            binCount = 1;//记录链表节点个数,如果找到key相等的元素,这个值一定小于等于链表的总长度
                            for (Node<K,V> e = f;; ++binCount) {//循环链表
                                K ek;
                                if (e.hash == hash &&
                                    ((ek = e.key) == key ||
                                     (ek != null && key.equals(ek)))) {//找到key相等
                                    oldVal = e.val;
                                    if (!onlyIfAbsent)
                                        e.val = value;//覆盖
                                    break;
                                }
                                Node<K,V> pred = e;
                                if ((e = e.next) == null) {//遍历到链表的尾节点
                                    pred.next = new Node<K,V>(hash, key,
                                                              value, null);//尾插法
                                    break;
                                }
                            }
                        }
                        else if (f instanceof TreeBin) {//说明f是树上的一个节点
                            Node<K,V> p;
                            binCount = 2;
                            if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,
                                                           value)) != null) {
                                oldVal = p.val;
                                if (!onlyIfAbsent)
                                    p.val = value;
                            }
                        }
                    }
                }
                if (binCount != 0) {
                    //TREEIFY_THRESHOLD和树化有关系
                    if (binCount >= TREEIFY_THRESHOLD)//如果小于等于链表长度的binCount大于等于这个值
                        treeifyBin(tab, i);//进行树化
                    if (oldVal != null)
                        return oldVal;
                    break;
                }
            }
        }
        addCount(1L, binCount);//size++
        return null;
    }

put方法的底层调用putVal方法实现,加入到内部,我们可以看出ConcurrentHashMap是不允许key或者value为null的,否则会抛出异常。然后就是遍历这个数组了,如果这个数组为空的话,就去初始化这个数组然后接着循环,初始化数组的逻辑我们待会儿研究,如果不为null,就利用(n - 1) & hash去定位到数组的一个位置,如果这个位置上刚好没有元素,用原子性的CAS操作去在这个位置上new一个Node对象,成功的话直接退出循环。如果这个位置有元素,就再去判断这个位置的hash值是不是等于-1,是的话就说明有其他的线程在对这个数组进行一个扩容的操作,那么本线程就去帮助线程进行扩容,helpTransfer方法就是用来做这个工作。如果没有线程存在扩容操作,就去遍历这个位置下的链表或者是红黑树,当然,为了线程安全,要加锁。另外,用一个变量binCount来记录链表节点的个数,如果在遍历的过程中找到key值相同的Node,根据onlyIfAbsent的值去决定是否需要覆盖,如果他是红黑树上的一个节点,就把他插入到红黑树上,当然,如果找到相同key的节点,根据onlyIfAbsent的值去决定是否需要覆盖。最后,去判断binCount的值,如果它不为0,说明put成功,put成功,去判断链表的长度是否需要转换成一个红黑树,然后返回oldValue。循环结束。然后执行addCount方法,看是否需要去扩容。

private final void addCount(long x, int check) {
    	//CounterCell[],如果有很多CounterCell线程去同时竞争一个baseCount,那么只会有一个成功,其他的线程会去自己对应的CounterCell[]数组的位置上,将CounterCell内部的value值+1,最后计算map的size的时候,会是baseCount + counterCell[i]的value值
        CounterCell[] as; long b, s;
        if ((as = counterCells) != null ||
            !U.compareAndSwapLong(this, BASECOUNT, b = baseCount, s = b + x)) {//cas操作去修改baseCount的值,cas成功就不会走下面逻辑
            CounterCell a; long v; int m;
            boolean uncontended = true;
            if (as == null || (m = as.length - 1) < 0 ||
                (a = as[ThreadLocalRandom.getProbe() & m]) == null ||
                !(uncontended =
                  U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))) {//cas操作去把a里面的value+1
                fullAddCount(x, uncontended);//这个方法表示前面判断都没成功,就是没有对CounterCell里面的value+1或者是+1没有成功,这个方法会去+1
                return;
            }
            if (check <= 1)
                return;
            s = sumCount();//拿到size
        }
        if (check >= 0) {
            Node<K,V>[] tab, nt; int n, sc;
            //sizeCtl == 阈值
            //新容量大于当前扩容阈值并且小于最大扩容值才扩容,如果tab=null说明正在初始化,死循环等待初始化完成。
            while (s >= (long)(sc = sizeCtl) && (tab = table) != null &&
                   (n = tab.length) < MAXIMUM_CAPACITY) {//对数组进行扩容
                int rs = resizeStamp(n);//对n扩容
                //sc<0表示已经有线程在进行扩容工作
                if (sc < 0) {
                	//条件1:检查是对容量n的扩容,保证sizeCtl与n是一块修改好的
                    //条件2与条件3:应该是进行sc的最小值或最大值判断。
                    //条件4与条件5: 确保tranfer()中的nextTable相关初始化逻辑已走完。
                    if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
                        sc == rs + MAX_RESIZERS || (nt = nextTable) == null ||
                        transferIndex <= 0)
                        break;
                    if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1))//有新线程参与扩容则sizeCtl加1
                        transfer(tab, nt);//转移
                }
                else if (U.compareAndSwapInt(this, SIZECTL, sc,
                                             (rs << RESIZE_STAMP_SHIFT) + 2))//cas操作将sc改成一个负数
                    transfer(tab, null);//转移
                s = sumCount();
            }
        }
    }

而传入的 x 的值,其实就是为了让ConcurrentHashMap中元素的+1。首先利用cas的操作去改变baseCount的值,如果baseCount的值和BASECOUNT是否相等,因为是多线程的,所以可能会存在不一样的情况,如果一样,那么就将baseCount值改为baseCount + 1,因为x就是1。如果cas没有成功的话,就取到本线程对应的CounterCell对象,cas的方式去将这个对象内部的value+1。然后就是对数组进行扩容了。代码有注释,应该不难看懂。
然后我们再来看一下初始化的方法。

private final Node<K,V>[] initTable() {
        Node<K,V>[] tab; int sc;
        while ((tab = table) == null || tab.length == 0) {
            if ((sc = sizeCtl) < 0)
                //线程让步,只能有一个线程进行初始化
                Thread.yield(); // lost initialization race; just spin
            //cas操作,只能有一个线程使sc-1,这个线程才会执行面的操作
            else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {
                try {
                    if ((tab = table) == null || tab.length == 0) {//再判断tab是不是null,重检查
                        int n = (sc > 0) ? sc : DEFAULT_CAPACITY;//sc默认是0,所以就会取DEFAULT_CAPACITY = 16
                        @SuppressWarnings("unchecked")
                        Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];//new一个Node数组
                        table = tab = nt;
                        sc = n - (n >>> 2);//0.75:n - n/4 = 3n/4 = 0.75n = 16  * 0.75 = 12
                    }
                } finally {
                    sizeCtl = sc;
                }
                break;
            }
        }
        return tab;
    }

初始化的逻辑比较简单,但是值得注意的是,sc用来判断当前是否有线程在进行初始化,因为在进行初始化的时候,sc会用cas操作改变为-1,所以进入到循环后,首先会判断sc是不是小于0,如果是就进行线程让步,保证只有一个线程在进行初始化。初始化完成后返回tab。

二、size方法

public int size() {
        long n = sumCount();
        return ((n < 0L) ? 0 :
                (n > (long)Integer.MAX_VALUE) ? Integer.MAX_VALUE :
                (int)n);
    }
final long sumCount() {
    //遍历CounterCell数组,把他们累加起来,再加basCount
        CounterCell[] as = counterCells; CounterCell a;
        long sum = baseCount;
        if (as != null) {
            for (int i = 0; i < as.length; ++i) {
                if ((a = as[i]) != null)
                    sum += a.value;
            }
        }
        return sum;//返回元素的个数
    }

size方法的逻辑其实也比较简单,这里会用到我们上面提到的CounterCell数组和一个baseCount变量,他会去遍历CounterCell数组,拿到数组中所有的value值,然后和baseCount累加起来,得到的就是元素的个数。因为我们在操作tab数组的时候,利用的是cas操作去改变baseCount,让他+1,也就是说只有一个线程会改变baseCount,使它+1,其他操作不成功的线程就会去本线程对应的CounterCell数组对应的位置上,让这个CounterCell对象的value值+1,这也就说明了为什么计算size的时候会把CounterCell数组的value值和baseCount累加起来。

三、1.7和1.8的不同

1.JDK8中没有segment分段锁,而是使用synchronized来控制
2.JDK8中的扩容性能更高,支持多线程同时扩容,实际上JDK7也支持多线程扩容,因为7中的扩容是针对每一个Segment,所以也是可以多线程扩容的。但是性能没有JDK8高,因为,JDK8中针对任意一个线程都可以去帮助扩容。
3.JDK8中元素个数的统计的实现也不一样,JDK8中增加了CounterCell数组来帮助计数,而JDK7中没有,JDK7中是put的时候每个Segment内部计数,统计的时候遍历每个Segment对象加锁统计。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值