1、什么是ConcurrentHashMap
concurrentHashMap是一个支持高并发更新与查询的哈希表(基于HashMap)。
在保证安全的前提下,进行检索不需要锁定。与hashtable不同,该类采用synchronization+CAS的的方式保证线程操作的安全,同时synchronization锁的颗粒度更小,hashtable是方法级而synchronization是对象级别。
2、put与putIfAbsent源码分析
为什么初始容量是2的整数次幂???
因为2n -1在二进制中每一位都是1,通过将 Key 的 hash 值与 tab.length-1 进行 & 运算,实现了当前 Key 的定位,可以减少冲突(碰撞)的次数,均匀的分布元素,提高 HashMap 查询效率;如果不是2n,例如:tab.length-1= 6,二进制110,第三位永远都是0,就是说数组中下标为3的位置总是空的。
2.1、put与putIfAbsent
static final int MOVED = -1; // 当前数据正在迁移
static final int TREEBIN = -2; // 树的散列
static final int RESERVED = -3; // 当前位置已预订
final V putVal(K key, V value, boolean onlyIfAbsent) {
// key:主观就是不允许空
// value:ConcurrentHashMap就是对应高并发场景,null无意义
if (key == null || value == null) throw new NullPointerException();
// 计算hash
int hash = spread(key.hashCode());
// 计数器
int binCount = 0;
// table值的地址赋值给tab,死循环
for (Node<K,V>[] tab = table;;) {
// f:当前key对应数组中的数据;
// n:数组的长度;
// i:当前key对应数组中位置的下标;
// fh:f 对应的hash值,也就是hash对象
Node<K,V> f; int n, i, fh;
// 判断tab是否是空的
if (tab == null || (n = tab.length) == 0)
// 初始化数组
tab = initTable();
else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
// tabAt():如果当前key对应数组中的值,getObjectVolatile保证可见性,绕过jvm操作内存
// (n - 1) & hash:确定key的位置
// 如果当前key对应数组中的值是空
// 初始化node并以cas的方式赋值到tab中,成功返回true
if (casTabAt(tab, i, null,
new Node<K,V>(hash, key, value, null)))
break; // no lock when adding to empty bin
}
//
else if ((fh = f.hash) == MOVED)
// 帮助扩容,与transfer方法相似或者可以先看transfer方法,在回头看次方法
tab = helpTransfer(tab, f);
else {
V oldVal = null;
// 同步锁,锁住当前key对应数组中的数据
synchronized (f) {
// 再次判断f是否与i元素中位置的数据相等,双检索避免并发操作数据发生变化
if (tabAt(tab, i) == f) {
// 当前桶下是链表结构,或者是空
if (fh >= 0) {
binCount = 1;
// 死循环,e:当前key对应数组中的数据;
for (Node<K,V> e = f;; ++binCount) {
K ek;
// 当前数据的hash是否等于要插入数据位置的hash值
if (e.hash == hash &&
// 判断key是否相等,相等则不是新增而是修改操作
((ek = e.key) == key ||
(ek != null && key.equals(ek)))) {
// 覆盖原值
oldVal = e.val;
// 如果是onlyIfAbsent=false,就覆盖数据,put方法默认是false
// putIfAbsent为true,存在什么都不做,直接返回
if (!onlyIfAbsent)
e.val = value;
break;
}
// 链表
Node<K,V> pred = e;
if ((e = e.next) == null) {
// 将hash冲突的值追加到链表尾部
pred.next = new Node<K,V>(hash, key,
value, null);
break;
}
}
}
// 红黑树结构
else if (f instanceof TreeBin) {
Node<K,V> p;
binCount = 2;
if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,
value)) != null) {
oldVal = p.val;
if (!onlyIfAbsent)
p.val = value;
}
}
}
}
if (binCount != 0) {
// 判断计时器是否大于8(链表默认最大长度阈值),是否进行树化
// 为什么是8泊松分布,统计学统计出的。。。
if (binCount >= TREEIFY_THRESHOLD)
treeifyBin(tab, i);
if (oldVal != null)
return oldVal;
break;
}
}
}
addCount(1L, binCount);
return null;
}
2.2、spread的hash计算(散列算法)
hash值一定是正数
负数有特殊含义:
static final int MOVED = -1; // 当前数据正在迁移
static final int TREEBIN = -2; // 树的散列
static final int RESERVED = -3; // 当前位置已预订
/**
* 获取hash值(散列算法)
*/
static final int spread(int h) {
// h >>> 16:当前值右移16位
// h的高16位与低16位做异或运算(相同为0,不同为1)
// & HASH_BITS:二进制为 0111 1111 1111 1111 1111 1111 1111 1111
// int(因为第一位是符号位,0 表示他是正数)
// 所以hash值一定是正数
// &与运算:都为1时,结果才为1
return (h ^ (h >>> 16)) & HASH_BITS;
}
2.3、initTable初始化数组
sizeCtl
- 0,代表数组未初始化,且数组的初始容量为16
- 正数,如果数组未初始化,记录数组的初始容量,如果已初始化,纪录的是数组的扩容阈值
- 负数:表示正在扩容或初始化中
- -1:正在初始化
- 不是-1表示数组正在扩容,-(1+n)表示有n个线程正在共同完成扩容操作(-2代表有一个现成正在扩容,-3代表有2个线程正在扩容,以此类推)
/**
* 初始化数组
*/
private final Node<K,V>[] initTable() {
// tab:当前table
Node<K,V>[] tab; int sc;
// 数组为空则进行初始化
while ((tab = table) == null || tab.length == 0) {
// sizeCtl实例初始化时为0
if ((sc = sizeCtl) < 0)
// 初始化或扩容中
// 使当前线程由执行状态,变成为就绪状态,让出CPU,
// 在下一个线程执行时候,此线程有可能被执行,也有可能没有被执行。
// 短暂让一手目的,因为扩容和初始化时都是小于0,再次回来时提升性能
Thread.yield(); // lost initialization race; just spin
else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {
// 以CAS的方式将sizeCtl的值设置成-1,表示正在初始化
try {
// 双重判断,再次确认是否是未初始化,防止sizeCtl出现CAS的ABA问题
if ((tab = table) == null || tab.length == 0) {
// n:设置成默认初始化大小16,如果sc大于0则代表初始化长度
int n = (sc > 0) ? sc : DEFAULT_CAPACITY;
@SuppressWarnings("unchecked")
Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];
// 初始化数组后赋值
table = tab = nt;
// 得到下次扩容的阈值,默认扩展因子是0.75这里是以右移的方式实现的
sc = n - (n >>> 2);
}
} finally {
// 最终赋值给sizeCtl作为下次扩容的大小
sizeCtl = sc;
}
break;
}
}
return tab;
}
2.4 treeifyBin 尝试树化
/**
* tab:table值的地址
* index:当前数组元素下标
*/
private final void treeifyBin(Node<K,V>[] tab, int index) {
Node<K,V> b; int n, sc;
if (tab != null) {
// 判断数组长度是否小于树化的最小数组长度阈值
if ((n = tab.length) < MIN_TREEIFY_CAPACITY)
// 尝试扩容,小于64时数组的查询效率高于红黑树
// n 左移1位,2倍扩容 尝试扩容
tryPresize(n << 1);
else if ((b = tabAt(tab, index)) != null && b.hash >= 0) {
// b.hash >= 0:正常hash值无特殊意义
// 数组下标对应的元素进行加锁
synchronized (b) {
if (tabAt(tab, index) == b) {
TreeNode<K,V> hd = null, tl = null;
// 开始转红黑树
for (Node<K,V> e = b; e != null; e = e.next) {
TreeNode<K,V> p =
new TreeNode<K,V>(e.hash, e.key, e.val,
null, null);
if ((p.prev = tl) == null)
hd = p;
else
tl.next = p;
tl = p;
}
setTabAt(tab, index, new TreeBin<K,V>(hd));
}
}
}
}
}
2.5、tryPresize 尝试扩容
/**
* 扩容(2倍扩容)
* size:数组大小
*/
private final void tryPresize(int size) {
// 判断数组长度是否达到最大值
int c = (size >= (MAXIMUM_CAPACITY >>> 1)) ? MAXIMUM_CAPACITY :
// 将传入值转成2的n次幂,最终2倍扩容
tableSizeFor(size + (size >>> 1) + 1);
// 数组扩容的阈值
int sc;
while ((sc = sizeCtl) >= 0) {
Node<K,V>[] tab = table; int n;
if (tab == null || (n = tab.length) == 0) {
// 初始化数组
n = (sc > c) ? sc : c;
if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {
try {
if (table == tab) {
@SuppressWarnings("unchecked")
Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];
table = nt;
sc = n - (n >>> 2);
}
} finally {
sizeCtl = sc;
}
}
}
//
else if (c <= sc || n >= MAXIMUM_CAPACITY)
break;
else if (tab == table) {
// 得到一个扩容戳(32位数值,高16位作为扩容标识,低16位作为扩容线程数)
int rs = resizeStamp(n);
if (sc < 0) {
// 存在扩容,帮助扩容
Node<K,V>[] nt;
if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
sc == rs + MAX_RESIZERS || (nt = nextTable) == null ||
transferIndex <= 0)
break;
if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1))
transfer(tab, nt);
}
// 无线程扩容,设置SIZECTL扩容标识
else if (U.compareAndSwapInt(this, SIZECTL, sc,
(rs << RESIZE_STAMP_SHIFT) + 2))
transfer(tab, null);
}
}
}
2.6、addCount 扩容
baseCount + counterCells 计算size大小
/**
* x:1L
* check:计数器确定当前key的位置
*/
private final void addCount(long x, int check) {
// CounterCell基于longAdder改编的类 volatile value保证可见性的计数器
// 计数器
CounterCell[] as; long b, s;
if ((as = counterCells) != null ||
// 修改baseCount失败后进入
!U.compareAndSwapLong(this, BASECOUNT, b = baseCount, s = b + x)) {
// m = as.length - 1
// a:as的其中一个元素
// a元素的value
CounterCell a; long v; int m;
// 修改CELLVALUE成功与否的结果
boolean uncontended = true;
if (as == null || (m = as.length - 1) < 0 ||
// 线程探针哈希值与m与运算,定位数组值,如果是空进入fullAddCount
(a = as[ThreadLocalRandom.getProbe() & m]) == null ||
// cas修改a的value,如果产生竞争修改失败进入fullAddCount
!(uncontended =
U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))) {
// CounterCell的赋值、初始化、扩容
fullAddCount(x, uncontended);
return;
}
if (check <= 1)
return;
// 统计ConcurrentHashMap元素的个数
s = sumCount();
}
if (check >= 0) {
Node<K,V>[] tab, nt; int n, sc;
// 数组长度大于tab数组扩容阈值
while (s >= (long)(sc = sizeCtl) && (tab = table) != null &&
(n = tab.length) < MAXIMUM_CAPACITY) {
int rs = resizeStamp(n);
if (sc < 0) {
// 数组正在扩容中
if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
sc == rs + MAX_RESIZERS || (nt = nextTable) == null ||
transferIndex <= 0)
break;
if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1))
// 转移老的数组到新的数组中
transfer(tab, nt);
}
else if (U.compareAndSwapInt(this, SIZECTL, sc,
// rs左移后变成一个负数,赋值给sc
(rs << RESIZE_STAMP_SHIFT) + 2))
// 转移老的数组到新的数组中
transfer(tab, null);
s = sumCount();
}
}
}
2.7、fullAddCount是对CounterCell的赋值、初始化、扩容
/**
* CounterCell的赋值、初始化、扩容
* x:1
* wasUncontended:false
*/
private final void fullAddCount(long x, boolean wasUncontended) {
// 当前线程探针哈希值
int h;
if ((h = ThreadLocalRandom.getProbe()) == 0) {
// 初始化线程
ThreadLocalRandom.localInit(); // force initialization
// 获取线程探针哈希值
h = ThreadLocalRandom.getProbe();
// 设置wasUncontended true
wasUncontended = true;
}
boolean collide = false; // True if last slot nonempty
for (;;) {
// as:计数器(2的n次幂)
// n:as的长度
// a:as的其中一个元素
CounterCell[] as; CounterCell a; int n; long v;
if ((as = counterCells) != null && (n = as.length) > 0) {
// 随机取一个计数器的值
if ((a = as[(n - 1) & h]) == null) {
// CounterCell[]数组无其他线程在使用
if (cellsBusy == 0) { // Try to attach new Cell
CounterCell r = new CounterCell(x); // Optimistic create
if (cellsBusy == 0 &&
// cas占用cellsBusy
U.compareAndSwapInt(this, CELLSBUSY, 0, 1)) {
boolean created = false;
try { // Recheck under lock
// counterCells被初始化过了,所以此处不为null
CounterCell[] rs; int m, j;
if ((rs = counterCells) != null &&
// counterCells的长度
(m = rs.length) > 0 &&
rs[j = (m - 1) & h] == null) {
rs[j] = r;
created = true;
}
} finally {
cellsBusy = 0;
}
if (created)
break;
continue; // Slot is now non-empty
}
}
// cellsBusy未获取到cas锁,设置counterCells具备扩容的条件
collide = false;
}
else if (!wasUncontended) // CAS already known to fail
wasUncontended = true; // Continue after rehash
else if (U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))
// 修改数组中元素的value+1
break;
else if (counterCells != as || n >= NCPU)
// 数组发生变化,或者counterCells的长度大于cpu核心数就不会扩容了
collide = false; // At max size or stale
else if (!collide)
// 产生竞争,下次扩容
collide = true;
else if (cellsBusy == 0 &&
U.compareAndSwapInt(this, CELLSBUSY, 0, 1)) {
try {
if (counterCells == as) {// Expand table unless stale
// 进行2倍扩容,扩容时不一定CounterCell[]全部元素都被使用了,可能存在从新定位到原来非空元素的位置
CounterCell[] rs = new CounterCell[n << 1];
for (int i = 0; i < n; ++i)
rs[i] = as[i];
counterCells = rs;
}
} finally {
cellsBusy = 0;
}
collide = false;
continue; // Retry with expanded table
}
// cas竞争失败更改线程探针哈希值
h = ThreadLocalRandom.advanceProbe(h);
}
// cellsBusy=0表示CounterCell[]数组无其他线程在使用
else if (cellsBusy == 0 && counterCells == as &&
// 标记使用
U.compareAndSwapInt(this, CELLSBUSY, 0, 1)) {
boolean init = false;
try { // Initialize table
if (counterCells == as) {
// 初始化CounterCell[]数组长度为2
CounterCell[] rs = new CounterCell[2];
// 占用一个元素
rs[h & 1] = new CounterCell(x);
counterCells = rs;
init = true;
}
} finally {
// 从新设置0
cellsBusy = 0;
}
if (init)
// 跳出循环返回
break;
}
// cellsBusy的cas竞争失败,baseCount值+1
else if (U.compareAndSwapLong(this, BASECOUNT, v = baseCount, v + x))
break; // Fall back on using base
}
}
2.8、transfer 移动老数组到新的数组中完成扩容(拆分高低位)
为什么扩容时拆分高低位
/**
* 移动老数组到新的数组中完成扩容
*/
private final void transfer(Node<K,V>[] tab, Node<K,V>[] nextTab) {
// n:扩容前数组长度
// stride:计算转移的步长(一次转移几个元素到新的数组中),最小值是16,每个线程步长都是相等的
int n = tab.length, stride;
// stride:如果cpu核心数大于1 n右移3位除cpu核心数,否则是n
if ((stride = (NCPU > 1) ? (n >>> 3) / NCPU : n) < MIN_TRANSFER_STRIDE)
stride = MIN_TRANSFER_STRIDE; // subdivide range
if (nextTab == null) { // initiating
try {
// 双倍扩容
@SuppressWarnings("unchecked")
Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n << 1];
// 扩容后的值赋值给nextTab
nextTab = nt;
} catch (Throwable ex) { // try to cope with OOME
sizeCtl = Integer.MAX_VALUE;
return;
}
// nextTable调整数组大小时非空
nextTable = nextTab;
// 扩容前数组长度
transferIndex = n;
}
// 扩容后的数组长度
int nextn = nextTab.length;
// 初始化ForwardingNode,构建一个node对象并且hash值设置-1,数据正在迁移
ForwardingNode<K,V> fwd = new ForwardingNode<K,V>(nextTab);
// 如果当前步长转移完后,是否需要继续处理前一个步长的数据(从后向前处理)
boolean advance = true;
// true表示当前线程的转移任务已经做完了,其他线程的转移任务是否做完未知
boolean finishing = false; // to ensure sweep before committing nextTab
// 死循环
// bound 剩余转移的长度(例如,步长是3,i是转移的位置,bound就是剩余转移的边界值)
// 扩容前的长度 - 1
for (int i = 0, bound = 0;;) {
// 下标i的元素,i下标元素的hash值
Node<K,V> f; int fh;
while (advance) {
// nextIndex:扩容前数组长度
// nextBound剩余转移的长度
int nextIndex, nextBound;
// 因为转移是从后向前转移,所以i下标是从大到小的,bound标记这个步长转移结束的位置
if (--i >= bound || finishing)
// 符合进来赋值false
advance = false;
else if ((nextIndex = transferIndex) <= 0) {
// 扩容前数组长度小于等于0
i = -1;
advance = false;
}
// 防止并发情况下多个线程同时转移同一个位置,实际就是计算线程转移的区域
else if (U.compareAndSwapInt
// nextIndex 修改为剩余未转移的长度
(this, TRANSFERINDEX, nextIndex,
// 扩容前数组长度与步长对比,nextBound剩余转移的长度
nextBound = (nextIndex > stride ?
nextIndex - stride : 0))) {
bound = nextBound;
// 扩容前的长度 - 1
i = nextIndex - 1;
advance = false;
}
}
if (i < 0 || i >= n || i + n >= nextn) {
int sc;
if (finishing) {
nextTable = null;
table = nextTab;
sizeCtl = (n << 1) - (n >>> 1);
return;
}
if (U.compareAndSwapInt(this, SIZECTL, sc = sizeCtl, sc - 1)) {
if ((sc - 2) != resizeStamp(n) << RESIZE_STAMP_SHIFT)
return;
finishing = advance = true;
i = n; // recheck before commit
}
}
// 获取tab中i位置元素
else if ((f = tabAt(tab, i)) == null)
// 将fwd赋值给i作为标记迁移中
advance = casTabAt(tab, i, null, fwd);
else if ((fh = f.hash) == MOVED)
// 如果正在转移中,则标记为继续向前处理
advance = true; // already processed
else {
// 当前位置非空,f加同步锁防止修改
synchronized (f) {
// 再次判断当前位置元素是否被修改
if (tabAt(tab, i) == f) {
// f的反序链表
Node<K,V> ln, hn;
// fh >= 0正常元素
if (fh >= 0) {
// 因为n是2的幂次方数,所以runbit只有两种结果:0和n
int runBit = fh & n;
// lastRun表示最后一个使fh & n发生变化的节点
Node<K,V> lastRun = f;
// 遍历链表
for (Node<K,V> p = f.next; p != null; p = p.next) {
// 0或n,0说明扩容前后原来的hash不会改变,n时扩容后hash值可能发生改变所以添加到新的数组下标下
// 例如n=16, 10000,扩容前n-1:1111,扩容后n-1:11111
// 扩容前hash: 0010 0010 0010 扩容前后值都是2,没改变
// 扩容前hash: 10010 10010 10010 扩容前是2,扩容后是18发生改变
// 如果扩容前为0的前提是右数第5位一定是0
int b = p.hash & n;
// 不是链表头部元素
if (b != runBit) {
runBit = b;
lastRun = p;
}
}
//如果高X位为0,此时runBit=0
//如果高X位为1,此时runBit=n
if (runBit == 0) {
// 如果最后更新的 runBit 是 0 ,设置低位节点
ln = lastRun;
hn = null;
}
else {
// 如果最后更新的 runBit 是 n, 设置高位节点
hn = lastRun;
ln = null;
}
for (Node<K,V> p = f; p != lastRun; p = p.next) {
int ph = p.hash; K pk = p.key; V pv = p.val;
// 形成反序链表,扩容后ph & n发生变化,所以才分成2个链表,提升性能
if ((ph & n) == 0)
ln = new Node<K,V>(ph, pk, pv, ln);
else
hn = new Node<K,V>(ph, pk, pv, hn);
}
// 将ln链表赋值在新tab的i位置
setTabAt(nextTab, i, ln);
// 将hn链表赋值在新tab的i+n位置
setTabAt(nextTab, i + n, hn);
// 将fwd赋值给i作为标记迁移中,不能继续在当前元素上新增数据
setTabAt(tab, i, fwd);
// 标记为继续向前处理
advance = true;
}
else if (f instanceof TreeBin) {
TreeBin<K,V> t = (TreeBin<K,V>)f;
TreeNode<K,V> lo = null, loTail = null;
TreeNode<K,V> hi = null, hiTail = null;
int lc = 0, hc = 0;
for (Node<K,V> e = t.first; e != null; e = e.next) {
int h = e.hash;
TreeNode<K,V> p = new TreeNode<K,V>
(h, e.key, e.val, null, null);
if ((h & n) == 0) {
if ((p.prev = loTail) == null)
lo = p;
else
loTail.next = p;
loTail = p;
++lc;
}
else {
if ((p.prev = hiTail) == null)
hi = p;
else
hiTail.next = p;
hiTail = p;
++hc;
}
}
// 如果拆分后的树的节点数量已经少于6个就需要重新转化为链表
ln = (lc <= UNTREEIFY_THRESHOLD) ? untreeify(lo) :
(hc != 0) ? new TreeBin<K,V>(lo) : t;
//如果拆分后的树的节点数量已经少于6个就需要重新转化为链表
hn = (hc <= UNTREEIFY_THRESHOLD) ? untreeify(hi) :
(lc != 0) ? new TreeBin<K,V>(hi) : t;
setTabAt(nextTab, i, ln);
setTabAt(nextTab, i + n, hn);
setTabAt(tab, i, fwd);
advance = true;
}
}
}
}
}
}
3、get获取key的值
- 为什么get方法不需要加锁,可以保证线程安全的?
因为 Node 的元素 val 和指针 next 是用 volatile修饰保证可见性和有效性,在多线程环境下写的时候也是synchronized或cas方式保证线程安全的
/**
* 获取key的值
*/
public V get(Object key) {
Node<K,V>[] tab; Node<K,V> e, p; int n, eh; K ek;
// 计算hash
int h = spread(key.hashCode());
// 判断数组是否存在,hash散列是否存在
if ((tab = table) != null && (n = tab.length) > 0 &&
(e = tabAt(tab, (n - 1) & h)) != null) {
// 判断hash是否相同
if ((eh = e.hash) == h) {
// 判断key是否相同
if ((ek = e.key) == key || (ek != null && key.equals(ek)))
return e.val;
}
// hash值小于0代表特殊意义
// 当前数据正在迁移 -1;
// 树的散列 -2;
// 当前位置已预订 -3;
else if (eh < 0)
return (p = e.find(h, key)) != null ? p.val : null;
// eh >=0 说明该节点是一个链表节点,直接遍历链表即可。
while ((e = e.next) != null) {
if (e.hash == h &&
((ek = e.key) == key || (ek != null && key.equals(ek))))
return e.val;
}
}
return null;
}
/*
* 查询数据
* h:key的hash值
* key:键值
*/
Node<K,V> find(int h, Object k) {
// node节点元素
Node<K,V> e = this;
if (k != null) {
do {
// 遍历元素的key
K ek;
if (e.hash == h &&
// 相等返回
((ek = e.key) == k || (ek != null && k.equals(ek))))
return e;
} while ((e = e.next) != null);
}
return null;
}
4、ConcurrentHashMap和Hashtable
虽然 ConcurrentHashMap 的整体性能要优于 Hashtable,但在某些场景中,ConcurrentHashMap 依然不能代替 Hashtable。例如,在强一致的场景中
ConcurrentHashMap 就不适用,原因是 ConcurrentHashMap 中的 get、size 等方法没有用到锁,ConcurrentHashMap 是弱一致性的,因此有可能会导致某次读无法马上获取到写入的数据。
ConcurrentHashMap在数据量比较大
的时候,链表会转换为红黑树。红黑树在并发情况下,删除和插入过程中有个平衡的过程,会牵涉到大量节点,因此竞争锁资源的代价相对比较高。而跳跃表的操作针对局部,需要锁住的节点少,因此在并发场景下的性能会更好一些。
在非线程安全的 Map 容器中,基于红黑树实现的 TreeMap 在单线程中的性能表现得并不比跳跃表差。而跳跃表的操作针对局部,需要锁住的节点少
,因此在并发场景下的性能会更好一些。
在非线程安全的 Map 容器中,用 TreeMap 容器来存取大数据;在线程安全的 Map 容器中,用SkipListMap 容器来存取大数据。
如果对数据有强一致要求,则需使用 Hashtable;在大部分场景通常都是弱一致性的情况下,使用 ConcurrentHashMap 即可;如果数据量在千万级别,且存在大量增删改操作,则可以考虑使用 ConcurrentSkipListMap。
下一篇《ConcurrentSkipListMap》