JDK1.7
HashTable容器在竞争激烈的并发环境下表现出效率低下的原因,是因为所有访问HashTable的线程都必须竞争同一把锁,那假如容器里有多把锁,每一把锁用于锁容器其中一部分数据,那么当多线程访问容器里不同数据段的数据时,线程间就不会存在锁竞争,从而可以有效的提高并发访问效率,这就是ConcurrentHashMap所使用的锁分段技术。
首先将数据分成一段一段的存储,然后给每一段数据配一把锁,当一个线程占用锁访问其中一个段数据的时候,其他段的数据也能被其他线程访问。有些方法需要跨段,比如size()和containsValue(),它们可能需要锁定整个表而而不仅仅是某个段,这需要按顺序锁定所有段,操作完毕后,又按顺序释放所有段的锁。
ConcurrentHashMap是由Segment数组结构和HashEntry数组结构组成。Segment在ConcurrentHashMap里扮演锁的角色,HashEntry则用于存储键值对数据。一个ConcurrentHashMap里包含一个Segment数组,Segment的结构和HashMap类似,是一种数组和链表结构, 一个Segment里包含一个HashEntry数组,每个HashEntry是一个链表结构的元素, 每个Segment守护者一个HashEntry数组里的元素,当对HashEntry数组的数据进行修改时,必须首先获得它对应的Segment锁。
1. ConcurrentHashmap
初始化HashEntry[] trable大小为16,segment[] 是为了分段加锁的。
并发级别指的是 segment数组的大小,默认也是16.
ConcurrentHashMap进行扩容时,是将 单个的segment[i]进行扩容,然后更新 segment[i], 而不是整体复制扩容。
2. HashEntry
3. concurrentHashMap 流程
1.7
分段锁:获取锁时,只需要等各自位置的锁即可。这样,可支持的线程数增多,最好情况下可以支持n个线程并发访问。
table[0]、table[1]两个位置公用同一把锁?
Segment对象可以理解为一个HashMap。
4. Segment<K,V>
是 concurrentHashMap中的内部类
里面包含HashEntry<K,V>属性
5. concurrentHashMap key不能为null。
加入keyu为null,
JDK1.7
segment内部的对象一开始会加锁。
Segment对象继承了ReentrantLock可重入锁。
concurrentHashMap put操作:
当线程调用put方法,首先调用 tryLock() 尝试获取一把锁,若得到锁返回null;否则:
reentrantLock.lock() 与 while(!reentrantLock.tryLock()) --> concurrentHashMap的获取锁的代码实现
可以在while循环中提前创建 new HashEntry<>(key, value)对象
把一个对象放到数组的第i个位置:
若该头结点为Null,则直接new插入;若头结点不为空,则遍历,如果发现key相同,则替换;若Key不相同,则遍历到最后节点为Null了,就退出循环,执行下面的else代码,会执行头插法,将新节点put到头部,再执行下移操作。
tryLock():尝试去加锁。如果能获取到,返回true;获取不到,返回false。不会阻塞。
lock():能获取到锁则获取;若在获取锁时,不能得到锁,则阻塞,直到能够获取到锁为止。
concurrentHashMap的put方法:把 key、value存到segment中
concurrentHashMap 扩容: rehash(node)
node表示当前所处位置链表的头结点
思路:segment内部扩容
双倍扩容,重新计算阈值,创建一个新的table newTable;
遍历老数组的每一位元素,