并发容器——ConcurrentHashMap
在以往的java.util下的容器,例如HashMap,它是一个线程不安全的容器,在1.7因为头插法导致了可能出现的死循环,因为没有进行线程安全的一些控制,所以会出现一些问题,但是有一个HashTable,这个类在HashMap的基础上,给每个方法都增加上了Synchronized关键字,但是每次操作都会进行加锁解锁,并且,锁的粒度很大,就会导致锁冲突,多个线程会共同抢夺锁,性能比较差,所以道格李大师就提出了新的并发容器,ConcurrentHashMap
这个并发容器主要采用的就是锁分段以及CAS,同时引入了核心的多线程扩容等机制,在保证线程安全的情况下,性能相比前两个,要优秀。
(一):重要内部类
/**
* 红黑树结点,继承自Node
*/
static final class TreeNode<K,V> extends Node<K,V> {
TreeNode<K,V> parent; // red-black tree links
//左孩子
TreeNode<K,V> left;
//右孩子
TreeNode<K,V> right;
TreeNode<K,V> prev; // needed to unlink next upon deletion
boolean red;//红黑标志
TreeNode(int hash, K key, V val, Node<K,V> next,
TreeNode<K,V> parent) {
super(hash, key, val, next);
this.parent = parent;
}
}
/**
* 不负责对KV的键值对包装,用于在链表转红黑树时包装TreeNode结点
* 也就是说,ConcurrentHashMap中是使用TreeBin来存放我们结点,而不是TreeNode
*
* 当我们需要对红黑树进行加锁时,一般锁的是根节点,但是红黑树有可能因为平衡性根节点发生变化
* 所以我们需要锁住一个公共的,这个就是TreeBin,在这里包装了一个root结点
*
* @param <K>
* @param <V>
*/
static final class TreeBin<K,V> extends ConcurrentHashMap.Node<K,V> {
//根节点
ConcurrentHashMap.TreeNode<K,V> root;
volatile ConcurrentHashMap.TreeNode<K,V> first;
volatile Thread waiter;
volatile int lockState;
// values for lockState
static final int WRITER = 1; // set while holding write lock
static final int WAITER = 2; // set when waiting for write lock
static final int READER = 4; // increment value for setting read lock
(二):重要属性
/**
* 用来存放Node结点数据,默认为null,默认大小为16,每次扩容时总是2的幂
*/
transient volatile Node<K,V>[] table;
/**
* 扩容时新生成的数据,数组为table的两倍
*/
private transient volatile Node<K,V>[] nextTable;
//这是用来记录我们的concurrentMap的长度,但不是准确值,这是基于CAS进行更新的
private transient volatile long baseCount;
/**
* 控制标志符,用来控制table初始化和扩容操作的,在不同的地方有不同的用途
* 负数代表正在进行初始化或者扩容操作
* -1代表正在初始化
* -N代表有N-1个线程正在进行扩容操作
* 正数或0代表hash表还没有初始化,这个数值表示初始化或下一次进行扩容的大小
*/
private transient volatile int sizeCtl;
private transient volatile int transferIndex;
//辅助进行CAS我们的baseCount
private transient volatile CounterCell[] counterCells;
(三):构造方法
//默认无参,什么也没做
public ConcurrentHashMap() {
}
//传入初始化容量
public ConcurrentHashMap(int initialCapacity) {
//容量防止小于了0
if (initialCapacity < 0)
throw new IllegalArgumentException();
//如果容量大于了最大容量,就直接等于最大容量,否则,对传入的值进行一个
int cap = ((initialCapacity >= (MAXIMUM_CAPACITY >>> 1)) ?
MAXIMUM_CAPACITY :
//无符号右移1位+1,就是计算2的幂
tableSizeFor(initialCapacity + (initialCapacity >>> 1) + 1));
this.sizeCtl = cap;
}
/**
* 三参的构造函数
* @param initialCapacity 数组的初始化长度
* @param loadFactor 负载因子,默认0.75
* @param concurrencyLevel 并发等级,默认16,
*/
public ConcurrentHashMap(int initialCapacity,
float loadFactor, int concurrencyLevel) {
//判断参数是否范围有问题
if (!(loadFactor > 0.0f) || initialCapacity < 0 || concurrencyLevel <= 0)
throw new IllegalArgumentException();
if (initialCapacity < concurrencyLevel) // Use at least as many bins
initialCapacity = concurrencyLevel; // as estimated threads
long size = (long)(1.0 + (long)initialCapacity / loadFactor);
int cap = (size >= (long)MAXIMUM_CAPACITY) ?
MAXIMUM_CAPACITY : tableSizeFor((int)size);
this.sizeCtl = cap;
}
//干扰算法
static final int spread(int h) {
//将hash做一个扰动算法hash的hash右移16位的幂&上0x7fffffff
//0x7fffffff最高位是0,最后&操作得到的一定是正数
//将高位也进行运算
return (h ^ (h >>> 16)) & HASH_BITS;
}
先来说说Hash算法,为什么取模前需要两次Hash?
首先会取到HashCode,然后通过spread方法对HashCode继续进行一次哈希
为了使高位也进行运算,所以使用了异或^来进行了又一次的Hash,也就是减低hash冲突的概率
initialTable方法
1、数组判空
2、如果sizeCtl小于0,代表正在进行初始化,线程挂起
3、判断CAS我们的sizeCtl成功,
4、如果数组还是空
5、构建一个默认长度的Node数组
6、设置阈值等
private final ConcurrentHashMap.Node<K,V>[] initTable() {
ConcurrentHashMap.Node<K,V>[] tab; int sc;
//判断数组是不是空,
while ((tab = table) == null || tab.length == 0) {
//如果sizeCtl小于0,代表有其他线程正在进行初始化,需要将线程挂起
if ((sc = sizeCtl) < 0)
Thread.yield();
//该线程已经进行了初始化,因为上面那个判断是不是<0但是,走进这里的时候是没有初始化的,
// 这个应该是-1,利用CAS操作,利用Unsafe进行CAS
else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {
try {
//再进行一次判断,
if ((tab = table) == null || tab.length == 0) {
//进行初始化,判断如果sizeCtl是大于0的还是等于0,如果大于0就是sizeCtl,不然就是默认值16
int n = (sc > 0) ? sc : DEFAULT_CAPACITY;
//因为是初始化,所以new了一个节点数组
@SuppressWarnings("unchecked")
ConcurrentHashMap.Node<K,V>[] nt = (ConcurrentHashMap.Node<K,V>[])new ConcurrentHashMap.Node<?,?>[n];
//将节点数组赋值
table = tab = nt;
//设置阈值就是四分之三乘以N,0.75*n,设置下次的扩容阈值为
sc = n - (n >>> 2);
}
} finally {
//将阈值赋值给sizeCTL
sizeCtl = sc;
}
break;
}
}
return tab;
}
put方法
final V putVal(K key, V value, boolean onlyIfAbsent) {
//concurrentHashMap不允许空值空键
if (key == null || value == null) throw new NullPointerException();
//根据hash获取我们的hash,一定是一个正数,方便后面的节点来判断
int hash = spread(key.hashCode());
int binCount = 0;
//死循环,只要不break,就不会停,table:真正存储数据的数组
for (ConcurrentHashMap.Node<K,V>[] tab = table;;) {
ConcurrentHashMap.Node<K,V> f;
int n, i, fh;
//如果数组还没有初始化,
if (tab == null || (n = tab.length) == 0)
//进行数组的初始化。
tab = initTable();
//tableAt是一个cas操作,查看当前角标底下有无数据,i为下标(n-1)&hash当n为2的幂就可以看成取模
//如果这里没数据,直接采用CAS将数据放上去
else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
//为空利用CAS直接加上去,这里有可能CAS失败
if (casTabAt(tab, i, null,
new ConcurrentHashMap.Node<K,V>(hash, key, value, null)))
break; // no lock when adding to empty bin
}
//如果有线程正在扩容,当前结点的值为MOVED,
else if ((fh = f.hash) == MOVED)
//帮助扩容
tab = helpTransfer(tab, f);
else {
V oldVal = null;
//对该节点进行加锁处理(hash值相同的链表的头节点),对性能有点儿影响,锁的是f,即头结点
//分段
synchronized (f) {
//CAS判断头结点有没有更改
if (tabAt(tab, i) == f) {
//哈希值大于0代表是普通的链表结构,不然就是forward结点
if (fh >= 0) {
//用来计算树化?
binCount = 1;
//一直往后走
for (ConcurrentHashMap.Node<K,V> e = f;; ++binCount) {
K ek;
//如果hash相等,并且key值相等,或者
if (e.hash == hash &&
((ek = e.key) == key ||
(ek != null && key.equals(ek)))) {
//
oldVal = e.val;
if (!onlyIfAbsent)
//改变值
e.val = value;
break;
}
//记录前一个结点
ConcurrentHashMap.Node<K,V> pred = e;
//如果后一个结点为空
if ((e = e.next) == null) {
//直接放入后面
pred.next = new ConcurrentHashMap.Node<K,V>(hash, key,
value, null);
break;
}
}
}
//如果是树节点
else if (f instanceof ConcurrentHashMap.TreeBin) {
ConcurrentHashMap.Node<K,V> p;
//记录
binCount = 2;//
if ((p = ((ConcurrentHashMap.TreeBin<K,V>)f).putTreeVal(hash, key,
value)) != null) {
oldVal = p.val;
if (!onlyIfAbsent)
p.val = value;
}
}
}
}
//
if (binCount != 0) {
//维护链表结构
if (binCount >= TREEIFY_THRESHOLD)
//变为树,数组没到64,会直接扩容,而不是变为树
treeifyBin(tab, i);
if (oldVal != null)
return oldVal;
break;
}
}
}
//做了两件事,一件是更新baseCount,一个是检测是否进行扩容,size+1
addCount(1L, binCount);
return null;
}
上面的简单来说就是这个步骤
- 首先put()方法调用putVal()方法
- 判断KV是不是空的
- 利用spread()方法进行计算hash值
- 进行for死循环的自旋
- 如果元素数组没有进行初始化,调用initTable()方法进行初始化,创建元素数组
- 如果元素数组的下标处没有元素,直接new Node并尝试利用CAS来修改元素下标
- 如果元素数组正在进行扩容,调用helpTransfer来进行帮助扩容
- 否则,利用synchronized,对元素数组根节点进行加锁,分段锁,之后基本就是判断是不是链表,或者树节点,根据对应的类型来进行添加元素
- 添加完成后,判断需不需要进行树化,调用treeifyBin来变为树
- 调用addCount方法,更新BaseCount,同时判断是不是需要扩容
然后解析put方法中调用的一些方法,有几个很有意思的方法,一个是addCount,一个是helpTransfer,这两个我认为他们的思想可能很多地方都用的上
首先是addCount
private final void addCount(long x, int check) {
ConcurrentHashMap.CounterCell[] as;
long b, s;
//s=b+x,完成baseCount++操作.baseCount基数
//很多线程利用CAS的话有消耗,所以优化了一下,
// 先对BaseCount进行CAS+1,如果有一个线程CAS成功,没有成功的话,会有很多线程失败
//对于每个线程来说,会生成一个随机数,利用随机值的hash和我们的Concurrent的size进行取模
//countCell中维护了一个value,线程对这个value进行CAS,成功就改变value,在我们的size方法中
//会对这个countCell数组进行遍历取值,就可以拿到我们的size了,就不一定要去争一个值
//最后再计算baseCount+countCell的类似一个fork思想
if ((as = counterCells) != null ||
//利用CAS来进行修改BASECOUNT
!U.compareAndSwapLong(this, BASECOUNT, b = baseCount, s = b + x)) {
//对BaseCount进行CAS失败
ConcurrentHashMap.CounterCell a;
long v;
int m;
boolean uncontended = true;
//如果cell数组为空
if (as == null || (m = as.length - 1) < 0 ||
//计算下标以及countCell的值是不是空
(a = as[ThreadLocalRandom.getProbe() & m]) == null ||
!(uncontended =
//对我们cell里面的value加上我们传入的值,执行成功
U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))) {
//多线程对coount进行CAS发生失败时执行
fullAddCount(x, uncontended);
return;
}
//个数<=1,直接返回,因为一开始就不存在需要扩容
if (check <= 1)
return;
//记录当前size个数
s = sumCount();
}
//进行扩容
if (check >= 0) {
ConcurrentHashMap.Node<K,V>[] tab, nt;
int n, sc;
//如果当前size个数超过了sizeCtl阈值,16*0.75
while (s >= (long)(sc = sizeCtl) &&
(tab = table) != null &&
//桶的数量小于了最大容量
(n = tab.length) < MAXIMUM_CAPACITY) {
//这个rs左移后返回的一定是负数
int rs = resizeStamp(n);
//如果sizeCtl<0,代表正在进行扩容
if (sc < 0) {
if (
(sc >>> RESIZE_STAMP_SHIFT) != rs ||
sc == rs + 1 ||
sc == rs + MAX_RESIZERS ||
(nt = nextTable) == null ||
transferIndex <= 0)
break;
if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1))
//扩容
transfer(tab, nt);
}
//当前线程时唯一的或者是第一个发起扩容的线程,此时nextTable=null,只有一个线程能把sc改成负数
else if (U.compareAndSwapInt(this, SIZECTL, sc,
//这个rs左移后返回的一定是负数
(rs << RESIZE_STAMP_SHIFT) + 2))
//将table中的数据放入到nextTable
transfer(tab, null);
s = sumCount();
}
}
}
在这个方法中,它会更新我们的数量,同时去判断需不需要扩容,这里用到了CAS,同时,还有一个CountCell数组。
我们修改数量时,不再只修改BaseCount这个成员变量,当我们有很多线程都在进行CAS时,一次只能有一个成功,其他的还会继续去自旋,这样的方法,效率会不会差了点,虽然后像加synchronized那样,需要加锁解锁,然后上下文切换等,但是还是会有很多失败的计算,所以,当我们对BaseCount进行CAS失败后,就会去CAS我们的CountCell数组,这里就能将CAS的操作分发到不同的地方,在多线程情况下,还是很有用的,在之后计算总数量时,也会将两者之和给相加得到结果
关于addCount()方法的步骤
- 尝试直接对baseCount进行CAS
- 如果CAS失败,改为对我们的CountCell进行CAS
- 如果cell数组为空或者对CountCell进行CAS失败,就调用fullAddCount,毕竟一定要加上去,这里面会进行重新的Hash计算,然后进行自旋,然后还会涉及到CountCell的扩容
- 然后判断是不是需要进行扩容(等下会说)
- 当我们的size大于了sizeCtl,并且桶的数量小于最大容量
- 如果sizeCtl<0,代表现在正在进行扩容,CAS我们的sizeCtl,然后调用transfer进行扩容
- 如果当前线程是唯一一个或者第一个发起扩容的线程,CAS修改sc,调用transfer方法进行扩容
关于扩容
1、finishing:代表整个扩容过程已经结束
2、fwd:代表这个下标的地方已经处理完成
3、advance:true表示需要继续往bound走,false表示处理完成
扩容步骤
1、确定步长,最少会是16,然后一般是根据桶的数量/(8*CPU数)
2、判断如果nextTab是空的,就构建一个两倍长度的Node数组
3、自旋,然后准备开始设置自己的负责的区域
4、如果我们往前走的下标还是大于了bound,代表还没走完
5、如果我们的长度小于了0,代表走完了,将advance设置成-1
6、尝试CAS修改我们的transferIndex为我们的步长,设置范围为[bound,nextBound]
7、如果当我们已经转移完了,修改我们的sizeCtl,为1.5n,扩容阈值,因为是扩容两倍,然后负载因子是0.75,所以下次扩容阈值是1.5n
8、如果对sizeCtl进行CAS-1,代表我们当前线程任务已经完成了
9、如果第i个元素是空的,设置成fwd结点
10、如果是fwd结点,继续前进
11、进行迁移,根节点加锁,判断是链表还是树,链表的话然后构建两条链表,最后将我们的放入,树的话先变成链表,然后判断要不要转成树,new TreeBin,然后设置
/**
* 整个扩容操作分为两步
* 1、构建一个nextTable,大小为原来大小的两倍,这个是在单线程的环境下完成
* 2、将原来的table中的内容复制到nextTable中,允许多线程进行
* @param tab
* @param nextTab
*/
private final void transfer(ConcurrentHashMap.Node<K,V>[] tab, ConcurrentHashMap.Node<K,V>[] nextTab) {
//n是原来的长度
int n = tab.length, stride;
//根据我们的CPU数来进行,将长度/8*CPU数,如果我们的我们的核心数大于1,
if ((stride = (NCPU > 1) ? (n >>> 3) / NCPU : n) < MIN_TRANSFER_STRIDE)
//每个核心默认最小负责处理16的量
stride = MIN_TRANSFER_STRIDE; // subdivide range
//如果nextTab为空
if (nextTab == null) { // initiating
try {
//构建一个两倍长度的Node数组
@SuppressWarnings("unchecked")
ConcurrentHashMap.Node<K,V>[] nt = (ConcurrentHashMap.Node<K,V>[])new ConcurrentHashMap.Node<?,?>[n << 1];
nextTab = nt;
} catch (Throwable ex) { // try to cope with OOME
//出现异常,将sizeCtl置为Integer.MAX
sizeCtl = Integer.MAX_VALUE;
return;
}
//赋值
nextTable = nextTab;
//扩容前大小
transferIndex = n;
}
//新的长度大小
int nextn = nextTab.length;
//ForwardingNode结点,连接点指针,用于标志位(fwd的hash值为-1,fwd.nextTable=nextTab。
//用来标志当前位置的数据都已经在扩容转移
ConcurrentHashMap.ForwardingNode<K,V> fwd = new ConcurrentHashMap.ForwardingNode<K,V>(nextTab);
//需不需要往前帮忙扩容
boolean advance = true;
//当前线程是否做完了
boolean finishing = false; // to ensure sweep before committing nextTab
//遍历每个节点
for (int i = 0, bound = 0;;) {
ConcurrentHashMap.Node<K,V> f;
int fh;
//在这里设置自己要负责的转移区域
while (advance) {
int nextIndex, nextBound;
//因为是往前做,5,4,3,bound,留一个bound作为停止点
//第一个循环不符合条件,因为在第一个循环中,i=0,bound=0
if (--i >= bound || finishing)
//还没走完,i还是大于bound
advance = false;
// //如果我们的长度小于0,走完了
else if ((nextIndex = transferIndex) <= 0) {
//走完了
i = -1;
advance = false;
}
//一开始走判断能否修改transferIndex,修改成我们需要修改多少stride步长
else if (U.compareAndSwapInt
(this, TRANSFERINDEX, nextIndex,
nextBound = (nextIndex > stride ?
nextIndex - stride : 0))) {
//nextBound此时为nextIndex-stride或者0
//确定当前线程每次分配的待迁移桶的范围为[bound,nextBound]
bound = nextBound;
//下一个我们需要到的下标?
i = nextIndex - 1;
advance = false;
}
}
//已经转移到最后了,就会进行这个逻辑
if (i < 0 || i >= n || i + n >= nextn) {
int sc;
//完成所有的节点复制
if (finishing) {
//数组交换
nextTable = null;
table = nextTab;
//新的扩容阈值,2n-n/2
sizeCtl = (n << 1) - (n >>> 1);
return;
}
//对sc进行CAS-1
if (U.compareAndSwapInt(this, SIZECTL, sc = sizeCtl, sc - 1)) {
if ((sc - 2) != resizeStamp(n) << RESIZE_STAMP_SHIFT)
return;
finishing = advance = true;
i = n; // recheck before commit
}
}
//如果第i个元素的值是空
else if ((f = tabAt(tab, i)) == null)
//将我们的节点变成fwd节点,代表已经完成了
advance = casTabAt(tab, i, null, fwd);
//fwd节点
else if ((fh = f.hash) == MOVED)
//继续前进
advance = true; // already processed
else {
//开始进行,加锁,对根节点加锁
synchronized (f) {
//如果在我们的操作中并没有发生改变
if (tabAt(tab, i) == f) {
ConcurrentHashMap.Node<K,V> ln, hn;
//如果hash大于0
if (fh >= 0) {
//进行计算
int runBit = fh & n;
ConcurrentHashMap.Node<K,V> lastRun = f;
for (ConcurrentHashMap.Node<K,V> p = f.next; p != null; p = p.next) {
int b = p.hash & n;
if (b != runBit) {
runBit = b;
lastRun = p;
}
}
if (runBit == 0) {
ln = lastRun;
hn = null;
}
else {
hn = lastRun;
ln = null;
}
for (ConcurrentHashMap.Node<K,V> p = f; p != lastRun; p = p.next) {
int ph = p.hash; K pk = p.key; V pv = p.val;
if ((ph & n) == 0)
ln = new ConcurrentHashMap.Node<K,V>(ph, pk, pv, ln);
else
hn = new ConcurrentHashMap.Node<K,V>(ph, pk, pv, hn);
}
setTabAt(nextTab, i, ln);
setTabAt(nextTab, i + n, hn);
//将原数组的节点设为fwd
setTabAt(tab, i, fwd);
advance = true;
}
else if (f instanceof ConcurrentHashMap.TreeBin) {
ConcurrentHashMap.TreeBin<K,V> t = (ConcurrentHashMap.TreeBin<K,V>)f;
ConcurrentHashMap.TreeNode<K,V> lo = null, loTail = null;
ConcurrentHashMap.TreeNode<K,V> hi = null, hiTail = null;
int lc = 0, hc = 0;
for (ConcurrentHashMap.Node<K,V> e = t.first; e != null; e = e.next) {
int h = e.hash;
ConcurrentHashMap.TreeNode<K,V> p = new ConcurrentHashMap.TreeNode<K,V>
(h, e.key, e.val, null, null);
if ((h & n) == 0) {
if ((p.prev = loTail) == null)
lo = p;
else
loTail.next = p;
loTail = p;
++lc;
}
else {
if ((p.prev = hiTail) == null)
hi = p;
else
hiTail.next = p;
hiTail = p;
++hc;
}
}
ln = (lc <= UNTREEIFY_THRESHOLD) ? untreeify(lo) :
(hc != 0) ? new ConcurrentHashMap.TreeBin<K,V>(lo) : t;
hn = (hc <= UNTREEIFY_THRESHOLD) ? untreeify(hi) :
(lc != 0) ? new ConcurrentHashMap.TreeBin<K,V>(hi) : t;
setTabAt(nextTab, i, ln);
setTabAt(nextTab, i + n, hn);
setTabAt(tab, i, fwd);
advance = true;
}
}
}
}
}
}
put方法
put方法主要步骤
1、首先判空
2、调用spread()方法计算出hash值
3、自旋
4、如果元素数组未进行初始化,调用initTable方法进行初始化
5、如果目标下标没有元素,直接利用CAS,然后new一个Node上去
6、如果当前正在进行扩容,调用helpTransfer方法进行帮助扩容
7、可以直接进行加入,根节点加锁,然后判断是链表还是树,之后就是类似HashMap的添加操作
8、根据binCount判断需不需要进行树化,调用treeifyBin方法进行树化
9、调用addCount()更新BaseCount,同时判断是不是需要进行扩容
final V putVal(K key, V value, boolean onlyIfAbsent) {
//concurrentHashMap不允许空值空键
if (key == null || value == null) throw new NullPointerException();
//根据hash获取我们的hash,一定是一个正数,方便后面的节点来判断
int hash = spread(key.hashCode());
int binCount = 0;
//死循环,只要不break,就不会停,table:真正存储数据的数组
for (ConcurrentHashMap.Node<K,V>[] tab = table;;) {
ConcurrentHashMap.Node<K,V> f;
int n, i, fh;
//如果数组还没有初始化,
if (tab == null || (n = tab.length) == 0)
//进行数组的初始化。
tab = initTable();
//tableAt是一个cas操作,查看当前角标底下有无数据,i为下标(n-1)&hash当n为2的幂就可以看成取模
//如果这里没数据,直接采用CAS将数据放上去
else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
//为空利用CAS直接加上去,这里有可能CAS失败
if (casTabAt(tab, i, null,
new ConcurrentHashMap.Node<K,V>(hash, key, value, null)))
break; // no lock when adding to empty bin
}
//如果有线程正在扩容,当前结点的值为MOVED,
else if ((fh = f.hash) == MOVED)
//帮助扩容
tab = helpTransfer(tab, f);
else {
V oldVal = null;
//对该节点进行加锁处理(hash值相同的链表的头节点),对性能有点儿影响,锁的是f,即头结点
//分段
synchronized (f) {
//CAS判断头结点有没有更改
if (tabAt(tab, i) == f) {
//哈希值大于0代表是普通的链表结构,不然就是forward结点
if (fh >= 0) {
//用来计算树化?
binCount = 1;
//一直往后走
for (ConcurrentHashMap.Node<K,V> e = f;; ++binCount) {
K ek;
//如果hash相等,并且key值相等,或者
if (e.hash == hash &&
((ek = e.key) == key ||
(ek != null && key.equals(ek)))) {
//
oldVal = e.val;
if (!onlyIfAbsent)
//改变值
e.val = value;
break;
}
//记录前一个结点
ConcurrentHashMap.Node<K,V> pred = e;
//如果后一个结点为空
if ((e = e.next) == null) {
//直接放入后面
pred.next = new ConcurrentHashMap.Node<K,V>(hash, key,
value, null);
break;
}
}
}
//如果是树节点
else if (f instanceof ConcurrentHashMap.TreeBin) {
ConcurrentHashMap.Node<K,V> p;
//记录
binCount = 2;//
if ((p = ((ConcurrentHashMap.TreeBin<K,V>)f).putTreeVal(hash, key,
value)) != null) {
oldVal = p.val;
if (!onlyIfAbsent)
p.val = value;
}
}
}
}
//
if (binCount != 0) {
//维护链表结构
if (binCount >= TREEIFY_THRESHOLD)
//变为树,数组没到64,会直接扩容,而不是变为树
treeifyBin(tab, i);
if (oldVal != null)
return oldVal;
break;
}
}
}
//做了两件事,一件是更新baseCount,一个是检测是否进行扩容,size+1
addCount(1L, binCount);
return null;
}
get方法
//并没有做线程安全的处理
public V get(Object key) {
ConcurrentHashMap.Node<K,V>[] tab;
ConcurrentHashMap.Node<K,V> e, p;
int n, eh;
K ek;
//计算hash
int h = spread(key.hashCode());
//如果数组不为空,并且当前下标有只
if ((tab = table) != null && (n = tab.length) > 0 &&
(e = tabAt(tab, (n - 1) & h)) != null) {
//如果hash值相等
if ((eh = e.hash) == h) {
//如果key相等
if ((ek = e.key) == key || (ek != null && key.equals(ek)))
return e.val;
}
//如果hash<0,代表是树
else if (eh < 0)
//根据树的方式进行寻找
return (p = e.find(h, key)) != null ? p.val : null;
//如果是链表,就进行循环遍历
while ((e = e.next) != null) {
if (e.hash == h &&
((ek = e.key) == key || (ek != null && key.equals(ek))))
return e.val;
}
}
return null;
}
remove方法
final V replaceNode(Object key, V value, Object cv) {
int hash = spread(key.hashCode());
//遍历
for (ConcurrentHashMap.Node<K,V>[] tab = table;;) {
ConcurrentHashMap.Node<K,V> f;
int n, i, fh;
//如果为空
if (tab == null || (n = tab.length) == 0 ||
(f = tabAt(tab, i = (n - 1) & hash)) == null)
break;
//帮助扩容
else if ((fh = f.hash) == MOVED)
tab = helpTransfer(tab, f);
//准备删除元素
else {
V oldVal = null;
boolean validated = false;
//加锁
synchronized (f) {
if (tabAt(tab, i) == f) {
//如果节点hash值大于0,代表不是树
if (fh >= 0) {
validated = true;
for (ConcurrentHashMap.Node<K,V> e = f, pred = null;;) {
K ek;
//如果找到
if (e.hash == hash &&
((ek = e.key) == key ||
(ek != null && key.equals(ek)))) {
V ev = e.val;
if (cv == null || cv == ev ||
(ev != null && cv.equals(ev))) {
oldVal = ev;
if (value != null)
e.val = value;
else if (pred != null)
pred.next = e.next;
else
setTabAt(tab, i, e.next);
}
break;
}
pred = e;
if ((e = e.next) == null)
break;
}
}
else if (f instanceof TreeBin) {
validated = true;
TreeBin<K,V> t = (TreeBin<K,V>)f;
TreeNode<K,V> r, p;
if ((r = t.root) != null &&
(p = r.findTreeNode(hash, key, null)) != null) {
V pv = p.val;
if (cv == null || cv == pv ||
(pv != null && cv.equals(pv))) {
oldVal = pv;
if (value != null)
p.val = value;
else if (t.removeTreeNode(p))
setTabAt(tab, i, untreeify(t.first));
}
}
}
}
}
if (validated) {
if (oldVal != null) {
if (value == null)
addCount(-1L, -1);
return oldVal;
}
break;
}
}
}
return null;
}