东西很多,我就按照其他博客进行分类整理
1.7锁分段技术
https://blog.csdn.net/yansong_8686/article/details/50664351
结构如下,锁分段成数组,每个分段下面存kv
Segment是可重入锁
哈希分散后能够更均匀的分配到各个Segment上
get不加锁,很快,关键在于volatile保证可见性,但不保证原子性
put对分段Segment加锁,Segment提高效率的地方就在于操作时不需要对整个hashMap都加锁。之后和普通map一样都要考虑扩容
size将所有Segment的size相加,但考虑如果容器发生变化,则要加锁统计
最通俗易懂的1.7ConcurrentHashMap解释:
https://zhuanlan.zhihu.com/p/31614308
1.8并发写机制
https://mp.weixin.qq.com/s/e-ZA9oxzJGRVt0mBjCIi5A
先进去看put源码
注释很详细了
public V put(K key, V value) {
return putVal(key, value, false);
}
/** Implementation for put and putIfAbsent */
final V putVal(K key, V value, boolean onlyIfAbsent) {
if (key == null || value == null) thrownew NullPointerException();
int hash = spread(key.hashCode());
int binCount = 0;
// 基础数组
for (Node<K,V>[] tab = table;;) {
Node<K,V> f; int n, i, fh;
if (tab == null || (n = tab.length) == 0)
// 初始化
tab = initTable();
elseif ((f = tabAt(tab, i = (n - 1) & hash)) == null) { // 如果bucket==null,即没有hash冲突,CAS插入
if (casTabAt(tab, i, null,
new Node<K,V>(hash, key, value, null)))
break; // no lock when adding to empty bin
}
// 如果在进行扩容操作,则先扩容
elseif ((fh = f.hash) == MOVED)
tab = helpTransfer(tab, f);
// 否则,存在hash冲突
else {
V oldVal = null;
// 加锁同步
synchronized (f) {
if (tabAt(tab, i) == f) {
if (fh >= 0) {
binCount = 1;
for (Node<K,V> e = f;; ++binCount) {
K ek;
// 遍历过程中出现相同key直接覆盖
if (e.hash == hash &&
((ek = e.key) == key ||
(ek != null && key.equals(ek)))) {
oldVal = e.val;
if (!onlyIfAbsent)
e.val = value;
break;
}
Node<K,V> pred = e;
// 尾插法插入
if ((e = e.next) == null) {
pred.next = new Node<K,V>(hash, key,
value, null);
break;
}
}
}
// 如果是树节点,遍历红黑树
elseif (f instanceof TreeBin) {
Node<K,V> p;
binCount = 2;
if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,
value)) != null) {
oldVal = p.val;
if (!onlyIfAbsent)
p.val = value;
}
}
}
}
if (binCount != 0) {
if (binCount >= TREEIFY_THRESHOLD)
treeifyBin(tab, i);
if (oldVal != null)
return oldVal;
break;
}
}
}
addCount(1L, binCount);
returnnull;
}
put 操作过程如下:
- 如果没有初始化就先调用 initTable()方法来进行初始化过程
- 如果没有 hash 冲突就直接 CAS 插入
- 如果还在进行扩容操作就先进行扩容
- 如果存在 hash 冲突,就加锁来保证线程安全,这里有两种情况,一种是链表形式就直接遍历到尾端插入,一种是红黑树就按照红黑树结构插入
- 最后一个如果该链表的数量大于阈值 8,就要先转换成黑红树的结构,break 再一次进入循环
- 如果添加成功就调用 addCount()方法统计 size,并且检查是否需要扩容
加锁结构如下
关键是cas的实现:
https://mp.weixin.qq.com/s/7u63bPY_N5-0192akhuXjg
https://www.cnblogs.com/zuoyi2319516228/p/13552216.html
CAS 操作包含三个操作数——内存位置、预期原值及新值。执行 CAS 操作的时候,将内存位置的值与预期原值比较,如果相匹配,那么处理器会自动将该位置值更新为新值,否则,处理器不做任何操作
ConcurrentHashMap中实现的CAS
aba问题和解决办法:
1.7和1.8总结,写的很乱,等前面都了解后再看这个复习:
https://blog.csdn.net/weixin_44460333/article/details/86770169
1.7的map会有环形链表问题:
jdk1.7是头插法,多个线程去操作这个Entry,因为resize的赋值方式,也就是使用了单链表的头插入方式,同一位置上新元素总会被放在链表的头部位置,在旧数组中同一条Entry链上的元素,通过重新计算索引位置后,有可能被放到了新数组的不同位置上,出现B的下一个指针指向了A,一旦几个线程都调整完成,就可能出现环形链表,如果这个时候去取值,悲剧就出现了——Infinite Loop。
最后复习下HashMap的扩容机制
- 大于等于阈值时就进行扩容,负载因子默认时0.75,new一个map假如给定长度时16,16*0.75=12,也就是长度等于12时就需要扩容
- 扩容很费时间,方法是使用一个新的数组代替已有的容量小的数组
- 阿里规范定义了new map的时候最好能初始化长度大小
这一篇写了源码配合看很容易理解:
https://blog.csdn.net/pange1991/article/details/82347284