构造函数
// 默认构造函数
public ConcurrentHashMap() {
}
// 带容量参数的构造函数
public ConcurrentHashMap(int initialCapacity) {
if (initialCapacity < 0)
// 小于0,抛出异常
throw new IllegalArgumentException();
// 大于 最大值/2,则为容量为最大值
// 否则,取大于(initialCapacity+ initialCapacity/2 + 1)的最小2 的次方值,即如果initialCapacity为8,则cap > (8+4+1),cap = 16
int cap = ((initialCapacity >= (MAXIMUM_CAPACITY >>> 1)) ?
MAXIMUM_CAPACITY :
tableSizeFor(initialCapacity + (initialCapacity >>> 1) + 1));
this.sizeCtl = cap;
}
// 带初始集合数据参数的构造函数
public ConcurrentHashMap(Map<? extends K, ? extends V> m) {
// 默认容量为16
this.sizeCtl = DEFAULT_CAPACITY;
putAll(m);
}
// 容量和负载因子
public ConcurrentHashMap(int initialCapacity, float loadFactor) {
this(initialCapacity, loadFactor, 1);
}
// concurrencyLevel,并发线程数
public ConcurrentHashMap(int initialCapacity,
float loadFactor, int concurrencyLevel) {
if (!(loadFactor > 0.0f) || initialCapacity < 0 || concurrencyLevel <= 0)
throw new IllegalArgumentException();
if (initialCapacity < concurrencyLevel)
// 初始容量参数小于并发线程数,将初始容量参数赋值为并发线程数
initialCapacity = concurrencyLevel;
// 计算数组长度
long size = (long)(1.0 + (long)initialCapacity / loadFactor);
int cap = (size >= (long)MAXIMUM_CAPACITY) ?
MAXIMUM_CAPACITY : tableSizeFor((int)size);
this.sizeCtl = cap;
}
put方法
1、put()-方法入口
public V put(K key, V value) {
return putVal(key, value, false);
}
2、putVal()-添加节点
// put 和 putIfAbsent的实现
final V putVal(K key, V value, boolean onlyIfAbsent) {
// null键或null值,抛出异常
if (key == null || value == null) throw new NullPointerException();
// 扰动运算,将key的hash值本身与hash值的高16位进行异或, 然后在与32位的1进行位与预算, 得出新的hash值
int hash = spread(key.hashCode());
int binCount = 0;
// 自旋
for (Node<K,V>[] tab = table;;) {
Node<K,V> f; int n, i, fh;
// ConcurrentHashMap初始化是懒汉式,初次put时, 没有初始化table, 所以先初始化table
if (tab == null || (n = tab.length) == 0)
// 初始化table
tab = initTable();
// n为数组长度, 将hash值与(数组长度 - 1)进行位与预算, 获取该下标的node
else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
// 如果数组在该下标的位置没有node, 通过CAS将key和value构造成node填入数组内
// 参数1: 数组
// 参数2: 下标
// 参数3: 期望值
// 参数4: 要设置的新值
if (casTabAt(tab, i, null,
new Node<K,V>(hash, key, value, null)))
// CAS操作成功,退出循环
break;
}
// 如果该下标位置有node, 且该node的hash值为moved(即-1), 说明当前concurrenthashmap正在扩容, 那么本次操作将会帮助扩容
else if ((fh = f.hash) == MOVED)
tab = helpTransfer(tab, f);
else {
// node存在, 并且该下标位置不是扩容状态
// 扩容是一个下标一个下标进行的, 此时当前concurrenthashmap也可能在扩容, 但是还没处理到该下标, 该下标可以进行put操作, 并且该线程不会帮助扩容
V oldVal = null;
// 锁住该node, 该node就是该下标位置的第一个node
synchronized (f) {
// 再次确认该下标加锁前该node有没有发生变化
if (tabAt(tab, i) == f) {
// fh是该node的hash值, 如果hash值为正数, 说明该下标是按照链表存储的
if (fh >= 0) {
binCount = 1;
// 遍历该链表
for (Node<K,V> e = f;; ++binCount) {
K ek;
// 如果节点e的hash值等于hash, 并且key值也相等, 则需要更新value
if (e.hash == hash &&
((ek = e.key) == key ||
(ek != null && key.equals(ek)))) {
oldVal = e.val;
if (!onlyIfAbsent)
// 更新value
e.val = value;
break;
}
// 如果链表中不存在这个key, 则添加到链表末尾
Node<K,V> pred = e;
if ((e = e.next) == null) {
pred.next = new Node<K,V>(hash, key, value, null);
// 添加成功,退出循环
break;
}
}
}
// fh<0 代表该下标位置存储的是红黑树, 因为上面已经判断未在扩容了, 所以这里只能是红黑树
else if (f instanceof TreeBin) {
Node<K,V> p;
binCount = 2;
// 将节点插入到红黑树中,并返回旧节点
if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key, value)) != null) {
// 旧节点不为空,则为更新旧值
oldVal = p.val;
if (!onlyIfAbsent)
p.val = value;
}
}
}
}
// binCount为table数组在该下标中的节点个数,
// 判断binCount是否为0,为0则表示首节点发生变化,不需要做链表转红黑树
// 不为0,则跳出循环后判断binCount是否满足转换为红黑树的条件
if (binCount != 0) {
// 如果binCount >= 8, 则将该节点变为红黑树
// 新增的情况,在链表尾部添加节点完成直接退出循环, 并未将binCount+1, 所以其实是9个节点时开始转红黑树
// 如果刚好更新第8个节点,更新完也会转红黑树
if (binCount >= TREEIFY_THRESHOLD)
treeifyBin(tab, i);
if (oldVal != null)
return oldVal;
break;
}
}
}
// 总node数+1, 该方法中若满足条件会进行扩容
addCount(1L, binCount);
return null;
}
2.1、initTable()-初始化数组
private final Node<K,V>[] initTable() {
Node<K,V>[] tab; int sc;
while ((tab = table) == null || tab.length == 0) {
// table为空时, 如果sizeCtl<0, 说明有另一个线程在初始化table
if ((sc = sizeCtl) < 0)
// 放弃CPU执行权, 重新竞争CPU执行权
Thread.yield();
// sizeCtl>0, 说明没有线程竞争初始化table, 使用CAS将sizeCtl设置为-1, 代表初始化中
else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {
try {
// 再次判断table是否为空
if ((tab = table) == null || tab.length == 0) {
// sc为构造函数为sizeCtl赋的值, 如果使用的是默认构造函数, 则sc为0, 使用默认的容量为16, 反之则使用
// 计算数组长度
int n = (sc > 0) ? sc : DEFAULT_CAPACITY;
@SuppressWarnings("unchecked")
// 初始化长度为n的table
Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];
table = tab = nt;
// sc重新赋值为数组长度的0.75倍
sc = n - (n >>> 2);
}
} finally {
// 更新sizeCtl
sizeCtl = sc;
}
break;
}
}
return tab;
}
2.2、helpTransfer()-帮助扩容
final Node<K,V>[] helpTransfer(Node<K,V>[] tab, Node<K,V> f) {
Node<K,V>[] nextTab; int sc;
// 如果table不为空并且该下标的第一个node为ForwardingNode(ForwardingNode是一个代表扩容完毕的特殊node)
// 并且存储扩容后数据的nextTable不为空
if (tab != null && (f instanceof ForwardingNode) &&
(nextTab = ((ForwardingNode<K,V>)f).nextTable) != null) {
// 获取扩容标识戳
int rs = resizeStamp(tab.length);
// sizeCtl < 0代表正在扩容
while (nextTab == nextTable && table == tab &&
(sc = sizeCtl) < 0) {
// 条件1: 判断当前线程获取到的扩容标识戳与通过sc计算得出的是否一致,不一致则不是同一批次扩容,退出循环
// 条件2: JDK1.8 中有bug jira已经提出来了 其实想表达的是 = sc == (rs << 16 ) + 1, true-> 表示扩容完毕,当前线程不需要再参与进来了 false-> 扩容还在进行中,当前线程可以参与(其他人的解释,楼主不太懂)
// 条件3: JDK1.8 中有bug jira已经提出来了 其实想表达的是 = sc == (rs<<16) + MAX_RESIZERS(其他人的解释,楼主不太懂)
// 条件4: transferIndex表示扩容剩余任务区间,<=0则表示扩容任务已分配完毕
if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
sc == rs + MAX_RESIZERS || transferIndex <= 0)
break;
// 通过CAS将SIZECTL + 1
if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1)) {
// 扩容
transfer(tab, nextTab);
break;
}
}
// 返回扩容后的table
return nextTab;
}
return table;
}
2.2.1、transfer()-扩容
private final void transfer(Node<K,V>[] tab, Node<K,V>[] nextTab) {
int n = tab.length, stride;
// 根据CPU核数计算出步长, 用于分隔扩容任务, 方便其余线程帮助扩容, 最小为16
if ((stride = (NCPU > 1) ? (n >>> 3) / NCPU : n) < MIN_TRANSFER_STRIDE)
stride = MIN_TRANSFER_STRIDE; // subdivide range
// 判断nextTable是否为空, nextTable是暂时存储扩容后的node数组, 第一次进入这个方法的线程才会发现nextTable为空
// 前文提到的helpTransfer也会调用该方法, 当helpTransfer调用该方法时nextTable不为空
if (nextTab == null) { // initiating
try {
@SuppressWarnings("unchecked")
Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n << 1];
// 初始化nextTable为table长度的2倍
nextTab = nt;
} catch (Throwable ex) { // try to cope with OOME
// 如果发生了异常, 则将sizeCtl设为Integer的最大值, 因为前文提过数组长度大于1<<30就不能再扩容了
sizeCtl = Integer.MAX_VALUE;
return;
}
nextTable = nextTab;
// 将transferIndex赋值为原数组table的长度
transferIndex = n;
}
// 新数组的长度
int nextn = nextTab.length;
// ForwardingNode节点, 当某个桶位数据处理完毕后, 将此桶位设置为ForwardingNode节点
ForwardingNode<K,V> fwd = new ForwardingNode<K,V>(nextTab);
// 推进标记
boolean advance = true;
// 完成标记
boolean finishing = false; // to ensure sweep before committing nextTab
// i: 表示分配给当前线程任务执行到的数组下标; bound: 表示分配给当前线程任务的下界限制
// 自旋
for (int i = 0, bound = 0;;) {
// f: 当前数组下标的头节点; fh: 头节点的hash
Node<K,V> f; int fh;
// 该while循环的作用有两点 1.将扩容任务根据步长分块 2.确定本次循环要rehash的下标节点
while (advance) {
// nextIndex: 分配任务的开始下标; nextBound: 分配任务的结束下标
int nextIndex, nextBound;
// 条件1: --i >= bound
// true-> 表示当前任务尚未完成, 需要处理相应的下标数据
// false-> 表示当前线程任务已经完成或还未开始分配
if (--i >= bound || finishing)
advance = false;
// 前置条件: 当前任务已完成或未分配
// true-> 表示table数组所有区间都已分配完成, 设置当前线程的i为-1, 退出循环后, 执行退出迁移任务相关的逻辑
// false-> 当前table数组还有区间可以分配
else if ((nextIndex = transferIndex) <= 0) {
i = -1;
advance = false;
}
// 前置条件: 当前线程需要分配任务, 当前table数组还有区间可以分配
// true-> 当前线程分配任务成功
// false-> 当前线程分配任务失败, 区间扩容任务分配给了其他线程
else if (U.compareAndSwapInt
(this, TRANSFERINDEX, nextIndex,
nextBound = (nextIndex > stride ?
nextIndex - stride : 0))) {
// 设置下个边界
bound = nextBound;
// 设置table数组下标
i = nextIndex - 1;
advance = false;
}
}
// 条件1: i < 0
// true-> 当前线程为分配区间任务, 或所分配的任务都已经执行完成, 未分配新的任务
if (i < 0 || i >= n || i + n >= nextn) {
int sc;
// 任务完成状态已经设置成true, 代表所有区间任务都已经完成了
if (finishing) {
// 将临时新table设置为null
nextTable = null;
// 新table赋值为table
table = nextTab;
// 将sizeCtl设置为扩容阈值
sizeCtl = (n << 1) - (n >>> 1);
return;
}
// 将sizeCtl-1, 表示参与扩容的线程减少1
if (U.compareAndSwapInt(this, SIZECTL, sc = sizeCtl, sc - 1)) {
// true-> 当前线程不是最后一个退出transfer的线程
if ((sc - 2) != resizeStamp(n) << RESIZE_STAMP_SHIFT)
// 直接退出
return;
// 前置条件: 当前线程是最后一个退出transfer的线程
// 设置任务完成状态为完成
finishing = advance = true;
i = n; // recheck before commit
}
}
// 如果该下标内没有数据, 则将该下标处的节点(即为null)放入ForwardingNode, 代表该下标rehash结束
else if ((f = tabAt(tab, i)) == null)
advance = casTabAt(tab, i, null, fwd);
// 如果该下标处的节点的hash值为-1(即ForwardingNode的hash值), 代表已经rehash结束, 继续下一次循环
else if ((fh = f.hash) == MOVED)
advance = true; // already processed
else {
// 真正开始扩容, 锁住该下标的第一个node
synchronized (f) {
// 再次判断该node是否发生改变
if (tabAt(tab, i) == f) {
Node<K,V> ln, hn;
// 如果该node的hash值>=0, 代表该node是链表节点
if (fh >= 0) {
// 将该node的hash值和原数组长度进行位与运算
int runBit = fh & n;
Node<K,V> lastRun = f;
// 遍历链表, runBit为末尾节点的位与运算结果, lastRun是和末尾节点位与运算结果一致的最后一个节点
// 即lastRun之后的节点不需要再二次遍历, 遍历到此时, 直接将lastRun之后的链表放入新数组中即可, 因为位与运算结果一致
// 遍历完成后, 旧链表在新数组中的下标位置为i, i+n, ln为新数组下标i的末尾节点, hn为新数组下标i+n的末尾节点
for (Node<K,V> p = f.next; p != null; p = p.next) {
int b = p.hash & n;
if (b != runBit) {
runBit = b;
lastRun = p;
}
}
if (runBit == 0) {
ln = lastRun;
hn = null;
}
else {
hn = lastRun;
ln = null;
}
// 遍历链表, 将链表内的node重新分配到新nextTable的i位置和i+n位置
// 原始的链表会倒序分到两个下标内, 越靠后的node在新链表里越靠前
// 遍历完成后, ln为新nextTable中i位置的头节点, hn为新nextTable中i+n位置的头节点
for (Node<K,V> p = f; p != lastRun; p = p.next) {
int ph = p.hash; K pk = p.key; V pv = p.val;
if ((ph & n) == 0)
ln = new Node<K,V>(ph, pk, pv, ln);
else
hn = new Node<K,V>(ph, pk, pv, hn);
}
// 更新新的nextTab, 并将原table的该下标位置放入ForwardingNode
setTabAt(nextTab, i, ln);
setTabAt(nextTab, i + n, hn);
setTabAt(tab, i, fwd);
advance = true;
}
// 该node为红黑树
else if (f instanceof TreeBin) {
// 将链表节点转化为红黑树节点
TreeBin<K,V> t = (TreeBin<K,V>)f;
// 在新table中i位置的红黑树节点
TreeNode<K,V> lo = null, loTail = null;
// 在新table中i+n位置的红黑树节点
TreeNode<K,V> hi = null, hiTail = null;
int lc = 0, hc = 0;
// 红黑树节点是维护了一个链表的,e.next即可取出后继节点
for (Node<K,V> e = t.first; e != null; e = e.next) {
int h = e.hash;
TreeNode<K,V> p = new TreeNode<K,V>
(h, e.key, e.val, null, null);
if ((h & n) == 0) {
if ((p.prev = loTail) == null)
lo = p;
else
loTail.next = p;
loTail = p;
++lc;
}
else {
if ((p.prev = hiTail) == null)
hi = p;
else
hiTail.next = p;
hiTail = p;
++hc;
}
}
// 如果树的node数量<=6, 则将红黑树转换为链表
ln = (lc <= UNTREEIFY_THRESHOLD) ? untreeify(lo) :
(hc != 0) ? new TreeBin<K,V>(lo) : t;
hn = (hc <= UNTREEIFY_THRESHOLD) ? untreeify(hi) :
(lc != 0) ? new TreeBin<K,V>(hi) : t;
// 将新树或链表放到新的table对应的下标里
// 并将原table的该下标位置放入ForwardingNode
setTabAt(nextTab, i, ln);
setTabAt(nextTab, i + n, hn);
setTabAt(tab, i, fwd);
advance = true;
}
}
}
}
}
}
2.2.2、untreeify()-红黑树转链表
static <K,V> Node<K,V> untreeify(Node<K,V> b) {
// hd:新普通链表头节点 tl:上次遍历到的节点
Node<K,V> hd = null, tl = null;
// 遍历红黑树链表
for (Node<K,V> q = b; q != null; q = q.next) {
Node<K,V> p = new Node<K,V>(q.hash, q.key, q.val, null);
// tl为空,则新链表为空,设置头节点
if (tl == null)
hd = p;
else
// 设置p为tl的后继节点
tl.next = p;
// p赋值给tl,继续下次循环
tl = p;
}
// 返回头节点
return hd;
}
2.2.3、TreeBin()-红黑树链表节点构造函数
TreeBin(TreeNode<K,V> b) {
// 设置节点hash为-2, 表示此节点是TreeBin节点
super(TREEBIN, null, null, null);
// 将b赋值为first,表示红黑树链表的头节点
this.first = b;
// 用来表示红黑树根节点
TreeNode<K,V> r = null;
// x表示遍历的当前插入节点
for (TreeNode<K,V> x = b, next; x != null; x = next) {
next = (TreeNode<K,V>)x.next;
// 设置当前插入节点的左右子树为null
x.left = x.right = null;
// 第一次遍历,r为空,设置当前插入节点为根节点,赋值给r
if (r == null) {
x.parent = null;
x.red = false;
r = x;
}
// r不为null,则非第一次遍历
else {
// k表示插入节点的key
K k = x.key;
// h表示插入节点的hash
int h = x.hash;
// kc表示插入节点key的class类型
Class<?> kc = null;
// p 表示查找插入节点的父节点
// 从根节点开始遍历,查找插入节点应该放置的位置
for (TreeNode<K,V> p = r;;) {
// dir的值为-1或1, -1表示插入节点的hash值大于当前p节点的hash; 1表示插入节点的hash值小于当前p节点的hash
// ph p节点的hash
int dir, ph;
// 临时节点p的key
K pk = p.key;
// 插入节点的hash值小于当前节点
if ((ph = p.hash) > h)
// 插入节点可能需要插入到当前节点的左子节点 或者继续在左子树上查找
dir = -1;
else if (ph < h)
// 插入节点需要插入到当前节点的右子节点 或者继续在右子树上查找
dir = 1;
// 走到这里, 说明当前插入节点的hash与当前节点的hash一致
// comparableClassFor: 判断k是否Comparable接口的实现
// compareComparables: 通过Comparable接口的compareTo方法判断大小
// 如果(节点的Key的Class为null, 且不是Comparable接口的实现), 或通过compareTo比较为0, 即无法通过Comparable相关方法来比较, 在这里做最终排序, 最终拿到的dir一定不是0, 是-1或1
else if ((kc == null &&
(kc = comparableClassFor(k)) == null) ||
(dir = compareComparables(kc, k, pk)) == 0)
dir = tieBreakOrder(k, pk);
// xp表示插入节点的父节点
TreeNode<K,V> xp = p;
// 根据dir的值获取p的左子节点或者右子节点, 如果不为null, 则继续向下搜索
// 如果为null, 则当前p即为插入节点的父节点
if ((p = (dir <= 0) ? p.left : p.right) == null) {
// 设置插入节点的父节点为当前节点
x.parent = xp;
// 小于p节点, 需要插入到p节点的左子节点
if (dir <= 0)
xp.left = x;
else
// 大于p节点, 需要插入到p节点的右子节点
xp.right = x;
// 重新平衡红黑树
r = balanceInsertion(r, x);
break;
}
}
}
}
// 将r节点赋值给TreeBin对象的root引用
this.root = r;
// 进行递归不变检验
assert checkInvariants(root);
}
2.3、putTreeVal()-将节点插入到红黑树中
final TreeNode<K,V> putTreeVal(int h, K k, V v) {
Class<?> kc = null;
boolean searched = false;
// 从红黑树根节点开始遍历, p表示当前遍历到的节点
for (TreeNode<K,V> p = root;;) {
// dir的值为-1或1, -1表示插入节点的hash值大于当前p节点的hash; 1表示插入节点的hash值小于当前p节点的hash
// ph: p节点的hash pk: p节点的key
int dir, ph; K pk;
// 如果根节点为null, 则插入的节点为根节点
if (p == null) {
// 新建红黑树节点并设置为根节点
first = root = new TreeNode<K,V>(h, k, v, null, null);
// 退出循环
break;
}
// 比较插入节点和当前遍历到的节点hash大小
else if ((ph = p.hash) > h)
// 插入节点的hash 小于 当前遍历节点, dir为-1
dir = -1;
else if (ph < h)
dir = 1;
// 走到这里说明hash值相等
else if ((pk = p.key) == k || (pk != null && k.equals(pk)))
// 如果key相等, 即为更新, 返回当前遍历的节点
return p;
// 如果(节点的Key的Class为null, 且不是Comparable接口的实现), 或通过compareTo比较为0, 即无法通过Comparable相关方法来比较
else if ((kc == null &&
(kc = comparableClassFor(k)) == null) ||
(dir = compareComparables(kc, k, pk)) == 0) {
// 默认执行一次向下遍历, 先向左遍历, 如果没找到目标节点, 再向右遍历
if (!searched) {
TreeNode<K,V> q, ch;
searched = true;
if (((ch = p.left) != null &&
(q = ch.findTreeNode(h, k, kc)) != null) ||
((ch = p.right) != null &&
(q = ch.findTreeNode(h, k, kc)) != null))
return q;
}
// 做最终排序, 最终拿到的dir一定不是0, 是-1或1
dir = tieBreakOrder(k, pk);
}
// xp为插入节点x的父节点(xparent), 中间遍历, 用于下面给x的父节点赋值
TreeNode<K,V> xp = p;
// 根据dir判断向左还是向右遍历, 如果子节点为null, 则子节点即为x的插入位置
if ((p = (dir <= 0) ? p.left : p.right) == null) {
TreeNode<K,V> x, f = first;
// 新建红黑树节点, 并将该节点设置为红黑树链表的头节点
first = x = new TreeNode<K,V>(h, k, v, f, xp);
// 如果之前的头节点不为null, 设置之前的头节点的前驱指针为新增节点
if (f != null)
f.prev = x;
// dir<=0, 设置为左子节点
if (dir <= 0)
xp.left = x;
// dir>0, 设置为右子节点
else
xp.right = x;
if (!xp.red)
x.red = true;
else {
// 添加写锁, 锁住整棵树
lockRoot();
try {
// 重新平衡红黑树
root = balanceInsertion(root, x);
} finally {
// 解锁
unlockRoot();
}
}
break;
}
}
// 进行递归不变检验
assert checkInvariants(root);
return null;
}
2.3.1、lockRoot()-锁定红黑树
private final void lockRoot() {
// 将lockState设置为1, 如果设置不成功, 说明有其他读线程在TreeBin红黑树中读取数据
if (!U.compareAndSwapInt(this, LOCKSTATE, 0, WRITER))
contendedLock();
}
2.3.1.1、contendedLock()-等待红黑树上锁释放
private final void contendedLock() {
boolean waiting = false;
// s 表示lock的值, 即lockState
// 自旋
for (int s;;) {
// ~WAITER 将WAITER取其反码 0010 -> 1101
// lockState & ~WAITER为0, 则当前锁状态为WAITER(等待状态)
if (((s = lockState) & ~WAITER) == 0) {
// 将lockState更新为写锁状态, 0001
if (U.compareAndSwapInt(this, LOCKSTATE, s, WRITER)) {
if (waiting)
waiter = null;
return;
}
}
// lockState & WAITER为0, 则当前锁状态为读锁或写锁
else if ((s & WAITER) == 0) {
// 将将lockState更新为0110或0011
if (U.compareAndSwapInt(this, LOCKSTATE, s, s | WAITER)) {
// 设置waiting为true
waiting = true;
// 将等待者线程设置为当前线程
waiter = Thread.currentThread();
}
}
// 如果waiting为true
else if (waiting)
// 当前线程挂起
LockSupport.park(this);
}
}
2.3.2、unlockRoot()-解锁红黑树
private final void unlockRoot() {
// 将lockState置为0
lockState = 0;
}
2.4、treeifyBin()-链表转红黑树
private final void treeifyBin(Node<K,V>[] tab, int index) {
Node<K,V> b; int n, sc;
if (tab != null) {
// 如果数组长度<64, 不变为红黑树而是进行扩容
if ((n = tab.length) < MIN_TREEIFY_CAPACITY)
tryPresize(n << 1);
// 如果数组长度>=64并且该下标有数据并且为链表
else if ((b = tabAt(tab, index)) != null && b.hash >= 0) {
// 锁住该下标的第一个node
synchronized (b) {
// 再次校验下标的第一个node是否为b, 防止上述判断完与锁住该下标之间的空隙时间, 其他线程进行了链表变更为红黑树
if (tabAt(tab, index) == b) {
// hd:红黑树链表头节点 tl:红黑树链表尾节点
TreeNode<K,V> hd = null, tl = null;
// 遍历链表
for (Node<K,V> e = b; e != null; e = e.next) {
// 新建红黑树节点
TreeNode<K,V> p =
new TreeNode<K,V>(e.hash, e.key, e.val,
null, null);
// 尾节点为空,则红黑树链表为空链表,设置头节点
if ((p.prev = tl) == null)
hd = p;
else
tl.next = p;
tl = p;
}
// 将新生成的红黑树设置到table中
setTabAt(tab, index, new TreeBin<K,V>(hd));
}
}
}
}
}
2.5、addCount()-增加node节点总数
// 增加node总数的addCount方法, 该方法满足条件时会扩容
// put方法: x: 1, check: table在当前下标中元素个数
// remove方法: x: -1, check: -1
private final void addCount(long x, int check) {
// as: LongAdder.cells
// b: LongAdder.baseCount
// s: table数组中元素的数量
CounterCell[] as; long b, s;
// 条件1: true->表示cells已经初始化了, 当前线程应该去通过hash值查找合适的cells去累加数据
// false->表示当前线程应该将数据累加到base
// 条件2: false->表示写base成功, 数据累加到base中, 当前竞争不激烈, 不需要创建cells
// true->表示写base失败, 与其他线程在base上发生竞争, 当前线程应该尝试去创建cells
if ((as = counterCells) != null ||
!U.compareAndSwapLong(this, BASECOUNT, b = baseCount, s = b + x)) {
// 进入该if的情况
// 1. 条件1为true, 表示cells已经初始化, 需要查找合适的cells
// 2. 条件2为true, 表示写base失败, 当前线程尝试去创建cells
// a: 表示当前线程hash查找到的cell; v: 表示当前线程写cell是的期望值; m: 表示当前cells数组的长度
CounterCell a; long v; int m;
// true: 未发生锁竞争; false: 发生锁竞争
boolean uncontended = true;
// 条件1: as == null || (m = as.length - 1) < 0
// true->表示cells未初始化, 当前线程是通过写base失败进来的, 需要调用fullAddCount去扩容或重试
// 条件2: (a = as[ThreadLocalRandom.getProbe() & m]) == null, 前置条件cells已经初始化了
// true->表示当前线程命中的cell为空, 需要当前线程进入fullAddCount去初始化cell
// 条件3: !(uncontended = U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))
// false->表示当前线程通过CAS更新当前命中的cell成功
// true->表示当前线程通过CAS更新失败, 需要进入fullAddCount进行扩容
if (as == null || (m = as.length - 1) < 0 ||
(a = as[ThreadLocalRandom.getProbe() & m]) == null ||
!(uncontended =
U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))) {
fullAddCount(x, uncontended);
// 不再参与扩容逻辑, 直接返回
return;
}
if (check <= 1)
// table在当前下标中元素个数 < 1, 不需要扩容
return;
// 获取当前table元素个数, 这是一个期望值
s = sumCount();
}
// ****************** 判断扩容 ******************
// 前置条件, 是put操作调用的addCount
if (check >= 0) {
// tab: 当前table数组; nt: nextTable; n: table数组长度; sc: sizeCtl的临时值
Node<K,V>[] tab, nt; int n, sc;
// 条件1: s >= (long)(sc = sizeCtl)
// true-> 1.当前sizeCtl为一个负数, 表示正在扩容中. -1: 当前table正在初始化; 其他负数: 表示当前table数组正在进行扩容, 高16位表示扩容的标识戳, 低16位表示1+nThread, 当前参与并发扩容的线程数量
// 2.当前sizeCtl为一个正数, 表示扩容阈值
// false-> 表示当前table尚未达到扩容条件
while (s >= (long)(sc = sizeCtl) && (tab = table) != null &&
(n = tab.length) < MAXIMUM_CAPACITY) {
// 获取扩容批次唯一标识戳
int rs = resizeStamp(n);
// 当前table正在扩容, 当前线程应该协助table扩容
if (sc < 0) {
// 条件1: (sc >>> RESIZE_STAMP_SHIFT) != rs
// true-> 当前线程获取到的扩容标识戳非本批次扩容
// false-> 当前线程获取到的扩容表示戳是本批次扩容
// 条件4: (nt = nextTable) == null
// true-> 表示扩容结束
// false-> 扩容进行中
// 条件5: transferIndex <= 0
// true-> 没有扩容步长, 区间任务已分配完
// false-> 还有区间任务
if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
sc == rs + MAX_RESIZERS || (nt = nextTable) == null ||
transferIndex <= 0)
break;
// 前置条件: 当前table正在扩容, 当前线程有机会参与扩容
// true-> 当前线程成功过参与到扩容任务中, 并且将sc低16位加1, 表示多一个线程参与工作
// false-> 1. 当前很多线程尝试修改, 当前线程未修改成功
// 2. 已经参与扩容任务的线程修改了sizectl
if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1))
transfer(tab, nt);
}
// 条件成立, 说明当前线程是触发扩容的第一个线程, 在transfer中做一些准备工作
else if (U.compareAndSwapInt(this, SIZECTL, sc,
(rs << RESIZE_STAMP_SHIFT) + 2))
transfer(tab, null);
// 计算总node数, 用于下次while循环
s = sumCount();
}
}
}
总结
1、将当前key的hash值进行扰动运算,得出新的hash值
2、判断当前table是否初始化,未初始化则进行初始化
3、根据hash值找出数组下标,当前下标处为没有节点数据,则新增节点即可
4、如果当前table数组正在扩容,则帮助扩容
5.1、下标处有节点,且数组未在扩容,则锁定头节点,判断头节点的类型,如果为链表节点,遍历链表,找到了目标节点,则更新,未找到则新增;最后判断节点个数是否超过8,超过且数组长度超过64则将链表转化为红黑树。
更新第8个节点,新增第9个节点才会开始转换
5.2、如果头节点类型为红黑树节点,进行红黑树的节点插入
get方法
1、get()-方法入口
public V get(Object key) {
Node<K,V>[] tab; Node<K,V> e, p; int n, eh; K ek;
// 进行扰动运算,获取新的hashCode
int h = spread(key.hashCode());
// 如果table数组不为空, 长度不为空, 并且可以获取table下标的头节点不为空
if ((tab = table) != null && (n = tab.length) > 0 &&
(e = tabAt(tab, (n - 1) & h)) != null) {
// 如果hash值相等, key值相等, 该头节点即为要找的node, 返回
if ((eh = e.hash) == h) {
if ((ek = e.key) == key || (ek != null && key.equals(ek)))
return e.val;
}
// 如果头节点的hash值<0, 分为两种情况
// -1为FWD, 说明当前table正在扩容, 调用FWD的find方法
// -2为TreeBin, 调用TreeBin的find方法
else if (eh < 0)
return (p = e.find(h, key)) != null ? p.val : null;
// 链表遍历
while ((e = e.next) != null) {
if (e.hash == h &&
((ek = e.key) == key || (ek != null && key.equals(ek))))
return e.val;
}
}
return null;
}
2.1、find()-ForwardingNode的查找方法
Node<K,V> find(int h, Object k) {
outer: for (Node<K,V>[] tab = nextTable;;) {
Node<K,V> e; int n;
// n为nextTable数组的长度
// e为在nextTable中重新定位hash对应的头节点
if (k == null || tab == null || (n = tab.length) == 0 ||
(e = tabAt(tab, (n - 1) & h)) == null)
return null;
for (;;) {
// e节点类型: node类型, TreeBin类型, ForwardingNode类型
int eh; K ek;
// node类型的处理
if ((eh = e.hash) == h &&
((ek = e.key) == k || (ek != null && k.equals(ek))))
return e;
// eh<0分两种情况, TreeBin类型, ForwardingNode类型
if (eh < 0) {
// ForwardingNode类型的处理, 调用ForwardingNode的find方法, 即自身方法
if (e instanceof ForwardingNode) {
tab = ((ForwardingNode<K,V>)e).nextTable;
continue outer;
}
else
// TreeBin类型的处理, 调用红黑树的find方法
return e.find(h, k);
}
// 继续下次循环
if ((e = e.next) == null)
return null;
}
}
}
在正在扩容中的临时表nextTable中查找
2.2、find()-TreeBin的查找方法
final Node<K,V> find(int h, Object k) {
if (k != null) {
// 遍历红黑树链表, e为当前遍历到的节点
for (Node<K,V> e = first; e != null; ) {
// s: lock的临时状态 ek: 当前节点e的key
int s; K ek;
// WAITER|WRITER, 0010 | 0001 = 0011
// true-> 当前TreeBin有等待者线程或者写操作线程正在加锁
if (((s = lockState) & (WAITER|WRITER)) != 0) {
// 判断当前节点是否为目标节点. 是的话返回
if (e.hash == h &&
((ek = e.key) == k || (ek != null && k.equals(ek))))
return e;
// 不是目标节点, 继续下次循环
e = e.next;
}
// 前置条件: 当前TreeBin没有等待者线程或者写锁
// 通过CAS添加读锁, true-> 添加读锁成功
else if (U.compareAndSwapInt(this, LOCKSTATE, s,
s + READER)) {
// 添加读锁成功
TreeNode<K,V> r, p;
try {
p = ((r = root) == null ? null :
r.findTreeNode(h, k, null));
} finally {
Thread w;
// U.getAndAddInt(this, LOCKSTATE, -READER) == (READER|WAITER)
// 1. 当前线程查询红黑树结束, 释放当前线程的读锁, 就是将lockstate - 4
// READER|WAITER: 0100 | 0010 = 0110, 如果lockState为0110, 表示当前只有一个线程在读, 且有一个线程在等待
// 当前读线程为TreeBin中的最后一个读线程
// waiter != null, 说明有一个写线程在等待读操作完毕
if (U.getAndAddInt(this, LOCKSTATE, -READER) ==
(READER|WAITER) && (w = waiter) != null)
// 唤醒写线程
LockSupport.unpark(w);
}
return p;
}
}
}
return null;
}