数据结构
HashMap
- 数组+单链表的组合,以KV形式存储元素。(hash表+分离链接法链表)
- put():对key做hash以计算Index,然后找到bucket(哈希桶)位置来储存Entry对象。如果发生hash碰撞,使用链表来解决。
- get():对key做hash以计算Index,找到bucket位置,然后调用key的equals()方法,按顺序遍历链表的每个 Entry,直到找到为止。
ConcurrentHashMap
- 分段锁,主干是Segment数组,Segment继承自ReentrantLock。Segment就是一个子哈希表,里面维护一个HashEntry数组,并发环境下对不同Segment进行操作不用考虑锁竞争。按默认ConcurrentLeve为16来讲,理论上就允许16个线程并发执行。
- get方法无需加锁,由于其中涉及的共享变量都用volatile修饰,可以保证内存可见性,不会读到过期数据。
- put方法要加锁,但锁粒度细了。
- JDK8抛弃分段锁机制,使用Unsafe类的CAS自旋赋值+synchronized同步+LockSupport阻塞实现高效并发。 在JDK7最大并发数就是Segment个数,加锁时其实锁住整个segment,好处在于数组扩容不会影响其他segment,不足在于并发粒度稍粗。所以JDK8去掉分段锁,将锁级别控制在更细粒度的table元素级别,只需锁住链表的head节点,不影响其他table元素读写,并发粒度更细,效率更好,但不足之处在于并发扩容的时,由于操作的table都是同一个,不像JDK7分段控制,所以需要等扩容完所有读写操作才能进行,所以扩容效率就成为瓶颈点,所以又对扩容做了优化,一个线程扩容时如果影响其他线程的数据,其他线程读写操作都应阻塞,优化为一起参与扩容任务。
初始化
HashMap
- 默认HashMap容量(capacity)16,好处是可以使用按位与替代取模来提升hash效率。当达到扩容条件时进行扩容,会从16变成32。
ConcurrentHashMap
- 首先判断sizeCtl。sizeCtl是用于多线程同步的互斥变量。当sizeCtl < 0表示已有线程正在初始化哈希表或哈希表正在扩容,此时不再进行操作。
- sizeCtl实现了自旋锁功能。即获取锁失败时,让出CPU,重复尝试直到获得到锁为止。让出CPU的动作通过Thread.yield()实现。
扩容
HashMap
- 底层新生成一个数组,然后拷贝旧数组里每一个Node链表到新数组,在多线程下有问题,问题在于基于头插法的数据迁移,会有几率造成链表倒置,引发链表循环导致死循环,并吃满CPU。
- JDK8里HashMap的底层数据结构变为数组+链表+红黑树,因为在hash冲突严重时链表查询效率是O(n),所以JDK8做了优化,对于单个链表的个数大于8的链表,会直接转为红黑树算是以空间换时间,这样查询效率就变为O(logN)。
ConcurrentHashMap
- JDK7时采用分段锁机制,维护一个Segment数组,Segment这个类继承重入锁ReentrantLock,并且类里维护一个 HashEntry<K,V>[] table数组,在put、remove、扩容时对Segment加锁,所以仅影响这个Segment,不同Segment还是可以并发的,解决了线程安全问题。