ConcurentHashMap原理分析

集合安全的两种方法,ConcurentHashMap和Collections.synchronizedMap()

jdk1.7以前

Hashmap多线程会导致HashMap的Entry链表形成环形数据结构,一旦形成环形数据结构,Entry的next节点永远不为空,就会产生死循环获取Entry。
HashTable使用synchronized来保证线程安全,但在线程竞争激烈的情况下HashTable的效率非常低下。因为当一个线程访问HashTable的同步方法,其他线程也访问HashTable的同步方法时,会进入阻塞或轮询状态。如线程1使用put进行元素添加,线程2不但不能使用put方法添加元素,也不能使用get方法来获取元素,所以竞争越激烈效率越低。

ConcurrentHashMap中的数据结构

ConcurrentHashMap是由Segment数组结构和HashEntry数组结构组成。Segment实际继承自可重入锁(ReentrantLock),在ConcurrentHashMap里扮演锁的角色;HashEntry则用于存储键值对数据。一个ConcurrentHashMap里包含一个Segment数组,每个Segment里包含一个HashEntry数组,我们称之为table,每个HashEntry是一个链表结构的元素。
在这里插入图片描述

面试常问:
1、ConcurrentHashMap实现原理是怎么样的或者问ConcurrentHashMap如何在保证高并发下线程安全的同时实现了性能提升?
答:ConcurrentHashMap允许多个修改操作并发进行,其关键在于使用了锁分离技术。它使用了多个锁来控制对hash表的不同部分进行的修改。内部使用段(Segment)来表示这些不同的部分,每个段其实就是一个小的hash table,只要多个修改操作发生在不同的段上,它们就可以并发进行。

初始化做了什么事?

初始化有三个参数
initialCapacity:初始容量大小 ,默认16。
loadFactor, 扩容因子,默认0.75,当一个Segment存储的元素数量大于initialCapacity* loadFactor时,该Segment会进行一次扩容。
concurrencyLevel 并发度,默认16。并发度可以理解为程序运行时能够同时更新ConccurentHashMap且不产生锁竞争的最大线程数,实际上就是ConcurrentHashMap中的分段锁个数,即Segment[]的数组长度。如果并发度设置的过小,会带来严重的锁竞争问题;如果并发度设置的过大,原本位于同一个Segment内的访问会扩散到不同的Segment中,CPU cache命中率会下降,从而引起程序性能下降。
构造方法中部分代码解惑:
1、
在这里插入图片描述

保证Segment数组的大小,一定为2的幂,例如用户设置并发度为17,则实际Segment数组大小则为32
2、
在这里插入图片描述

保证每个Segment中tabel数组的大小,一定为2的幂,初始化的三个参数取默认值时,table数组大小为2
3、
在这里插入图片描述
初始化Segment数组,并实际只填充Segment数组的第0个元素。
4、
在这里插入图片描述
用于定位元素所在segment。segmentShift表示偏移位数,通过前面的int类型的位的描述我们可以得知,int类型的数字在变大的过程中,低位总是比高位先填满的,为保证元素在segment级别分布的尽量均匀,计算元素所在segment时,总是取hash值的高位进行计算。segmentMask作用就是为了利用位运算中取模的操作:
a % (Math.pow(2,n)) 等价于 a&( Math.pow(2,n)-1)

在get和put操作中,是如何快速定位元素放在哪个位置的?

对于某个元素而言,一定是放在某个segment元素的某个table元素中的,所以在定位上:
定位segment:取得key的hashcode值进行一次再散列(通过Wang/Jenkins算法),拿到再散列值后,以再散列值的高位进行取模得到当前元素在哪个segment上。

在这里插入图片描述
在这里插入图片描述

**定位table:**同样是取得key的再散列值以后,用再散列值的全部和table的长度进行取模,得到当前元素在table的哪个元素上。
在这里插入图片描述

get()方法

定位segment和定位table后,依次扫描这个table元素下的的链表,要么找到元素,要么返回null。

在高并发下的情况下如何保证取得的元素是最新的?
答:用于存储键值对数据的HashEntry,在设计上它的成员变量value等都是volatile类型的,这样就保证别的线程对value值的修改,get方法可以马上看到。
在这里插入图片描述

put()方法

1、首先定位segment,当这个segment在map初始化后,还为null,由ensureSegment方法负责填充这个segment。
2、对Segment 加锁
在这里插入图片描述
3、定位所在的table元素,并扫描table下的链表,找到时:
在这里插入图片描述
没有找到时:
在这里插入图片描述

扩容操作

Segment 不扩容,扩容下面的table数组,每次都是将数组翻倍
在这里插入图片描述
带来的好处
假设原来table长度为4,那么元素在table中的分布是这样的:

Hash值1523345677
在table中下标3 = 15%43 = 23 % 42 = 34%40 = 56%41 = 77 % 4

扩容后table长度变为8,那么元素在table中的分布变成:

Hash值56347715,23
下标01234567

可以看见 hash值为34和56的下标保持不变,而15,23,77的下标都是在原来下标的基础上+4即可,可以快速定位和减少重排次数。

size方法

size的时候进行两次不加锁的统计,两次一致直接返回结果,不一致,重新加锁再次统计

弱一致性

get方法和containsKey方法都是通过对链表遍历判断是否存在key相同的节点以及获得该节点的value。但由于遍历过程中其他线程可能对链表结构做了调整,因此get和containsKey返回的可能是过时的数据,这一点是ConcurrentHashMap在弱一致性上的体现。

jdk1.8的改进

  • 取消了segment分段
  • 增加了红黑树,如果链表的长度大于8,并且node数组的长度大于64,就会将当前链表转化为红黑树。如果链表的长度又小于8,就会将红黑树转化为链表。

在这里插入图片描述

put方法

public V put(K key, V value) {
        return putVal(key, value, false);
    }

    /** Implementation for put and putIfAbsent */
    final V putVal(K key, V value, boolean onlyIfAbsent) {
        if (key == null || value == null) throw new NullPointerException();
        int hash = spread(key.hashCode());//将key根据hash算法转换为hash值,
        int binCount = 0;
        for (Node<K,V>[] tab = table;;) {//table是一个Node[], transient volatile Node<K,V>[] table;
            Node<K,V> f; int n, i, fh;
            if (tab == null || (n = tab.length) == 0)
                tab = initTable();
            else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
                if (casTabAt(tab, i, null,
                             new Node<K,V>(hash, key, value, null)))
                    break;                   // no lock when adding to empty bin
            }
           ....
        addCount(1L, binCount);
        return null;
    }

put方法往map中添加元素的时候,调用putVal方法,首先将key根据hash算法转换为hash值,然后开始自旋,一开始tab肯定是空的,所以就要初始化table,调用initTable方法

private final Node<K,V>[] initTable() {
        Node<K,V>[] tab; int sc;
        while ((tab = table) == null || tab.length == 0) {
            if ((sc = sizeCtl) < 0)
                Thread.yield(); // lost initialization race; just spin
            else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {
                try {
                    if ((tab = table) == null || tab.length == 0) {
                        int n = (sc > 0) ? sc : DEFAULT_CAPACITY;
                        @SuppressWarnings("unchecked")
                        Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];
                        table = tab = nt;
                        sc = n - (n >>> 2);
                    }
                } finally {
                    sizeCtl = sc;
                }
                break;
            }
        }
        return tab;
    }

sizeCtl开始为-1<0,表示初始化状态,之后代表扩容的大小,一开始n=16,sc=n-(n>>>2)=12;创建好tab节点数组后返回这个空数组。

第二次循环将运行下面的语句:

else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
                if (casTabAt(tab, i, null,
                             new Node<K,V>(hash, key, value, null)))
                    break;                   // no lock when adding to empty bin
            }


 addCount(1L, binCount);

tabAt是根据下标取值的方法,如果为空,也就是这个位置没有被占用,就创建一个新的节点,把value保存在这里面。

然后将元素放进去之后,肯定需要将元素的个数进行加一操作,但是要考虑并发的情况,那么怎么实现呢?采用CAS的话会降低效率,Atomic内部也是使用了CAS,如果并发多的化,就会一种自旋。使用锁的话效率就会更低。那么是怎么实现的呢?答案就是分段CAS。

首先,用来保存table中元素个数的是一个数组CounterCell,初始化这个数组的长度为2,然后每一个线程来的时候,都会生成一个0或1的随机数,这个随机数代表着去更改CounterCell数组的哪一个位置,在更改的时候也是使用CAS,这样效率就会提升一倍了,如果线程不断增多,那么就对CounterCell数组进行扩容,最后计算size的时候将数组中所有的元素加起来就是了。这样做的好处是,假如只使用一个变量来记录元素的个数,这样一个线程操作时,其他线程都要阻塞,而使用一个数组的话,每一个线程去对数组中的值操作,最后数组中的所有值取和就可以了,这样就减少了等待的线程。

元素个数增加的方法:

 private final void addCount(long x, int check) {
        CounterCell[] as; long b, s;
        if ((as = counterCells) != null ||
            !U.compareAndSwapLong(this, BASECOUNT, b = baseCount, s = b + x)) {
            CounterCell a; long v; int m;
            boolean uncontended = true;
            if (as == null || (m = as.length - 1) < 0 ||
                (a = as[ThreadLocalRandom.getProbe() & m]) == null ||
                !(uncontended =
                  U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))) {
                fullAddCount(x, uncontended);
                return;
            }
            if (check <= 1)
                return;
            s = sumCount();
        }
初始化数组CounterCell
fullAddCount{
   ...
 h = ThreadLocalRandom.advanceProbe(h);
else if (cellsBusy == 0 && counterCells == as &&
                     U.compareAndSwapInt(this, CELLSBUSY, 0, 1)) {
                boolean init = false;
                try {                           // Initialize table
                    if (counterCells == as) {
                        CounterCell[] rs = new CounterCell[2];
                        rs[h & 1] = new CounterCell(x);
                        counterCells = rs;
                        init = true;
                    }
                } finally {
                    cellsBusy = 0;
                }
                if (init)
                    break;
            }
}

计算元素个数的方法:

final long sumCount() {
        CounterCell[] as = counterCells; CounterCell a;
        long sum = baseCount;
        if (as != null) {
            for (int i = 0; i < as.length; ++i) {
                if ((a = as[i]) != null)
                    sum += a.value;
            }
        }
        return sum;
    }
扩容方法

addCount方法中还做了一件事情,就是对table数组进行扩容,并且允许多线程扩容。Adds to count, and if table is too small and not already* resizing, initiates transfer.

if (check >= 0) {
            Node<K,V>[] tab, nt; int n, sc;
            while (s >= (long)(sc = sizeCtl) && (tab = table) != null &&
                   (n = tab.length) < MAXIMUM_CAPACITY) {
                int rs = resizeStamp(n);
                if (sc < 0) {
                    if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
                        sc == rs + MAX_RESIZERS || (nt = nextTable) == null ||
                        transferIndex <= 0)
                        break;
                    if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1))
                        transfer(tab, nt);
                }
                else if (U.compareAndSwapInt(this, SIZECTL, sc,
                                             (rs << RESIZE_STAMP_SHIFT) + 2))
                    transfer(tab, null);
                s = sumCount();
            }
        }

transfer(tab, null),表示转移数据:将table数组扩容之后,需要将数据进行转移,进入该方法中查看一下

if ((stride = (NCPU > 1) ? (n >>> 3) / NCPU : n) < MIN_TRANSFER_STRIDE)
            stride = MIN_TRANSFER_STRIDE; // subdivide range

这段代码是让每一个CPU去执行一段数据的扩容,每一个CPU可以处理16个长度的数组。这样就可以并发扩容了。例如每个线程对数组中的长度16的数组进行扩容,扩容到32个,就是新建了一个长度为32的数组,然后将原来在长度为16的数组上的数据转移到新数组上。

转移数据

如何转移数据呢,每个线程进来,首先要确定当前线程对应的table数组的边界,数据迁移的过程是从后往前,判断每一个位置是否有元素,没有元素就向前移动,如果不为空,就会转移数据

假设当前table数组如下所示,两个线程执行了扩容,创建了一个长度为64的数组,

在这里插入图片描述

转移过程:

如果某个数组位置上连接的节点有了八个,就需要扩容来解决装不下的问题,首先需要对单向链表上的八个节点进行分类,根据某种分类算法把他们分成两类,一个高位链,一个低位链

int runBit = fh & n;//分类标准
Node<K,V> lastRun = f;
for (Node<K,V> p = f.next; p != null; p = p.next) {//遍历元素
    int b = p.hash & n;
    if (b != runBit) {
        runBit = b;
        lastRun = p;
    }
}
if (runBit == 0) {//低位链
    ln = lastRun;
    hn = null;
}
else {//高位链
    hn = lastRun;
    ln = null;
}
setTabAt(nextTab, i, ln);//低位链保持不动
setTabAt(nextTab, i + n, hn);//高位链需要增加n长度的位置
setTabAt(tab, i, fwd);
advance = true;

在这里插入图片描述

为什么这么做呢,为的是在新的数组中通过原来的计算还能够取到原来的值,不会使值丢失。扩容以后,同样的操作拿到的值是不会变的。原因如下:

取值的语句如下:

f = tabAt(tab, i = (n - 1) & hash))    

下标位为(n - 1) & hash,假设原来的hash值为9,那么它在16位长度的table中表示如下:

0000 1111 & 0000 1001 = 9

在32位的table中呢

0001 1111 & 0000 1001 = 9,说明低位的是不会变的。

对于高位,假设hash为20

16位:0000 1111 & 0001 0100 = 0000 0100 = 4,原本会取4这个位置的元素值

32位:0001 1111 & 0001 0111 = 0001 0100 = 20,同样的计算方式,现在要去取20位置的值

所以对于高位的元素需要加上n,这里n=16。这样高低链来解决多次hash计算的问题,提升了效率。

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值