1.HashMap
用于存储key-value键值对的集合,这些键值对分散存储在一个数组中,这个数组就是HashMap的主干。
最常使用put,get
put方法,插入数据时HashMap会通过哈希函数来确认元素的插入位置,但是在存储数据更多的时候,哈希函数所算出的index也会出现冲突的情况,所以HashMap后面就采用链表方式存储,新插入的节点使用的是“头插入法”。(HashMap的发明者认为,后插入的Entry被查找的可能性更大。)
链表头插法的会颠倒原来一个散列桶里面链表的顺序。在并发的时候原来的顺序被另外一个线程a颠倒了,而被挂起线程b恢复后拿扩容前的节点和顺序继续完成第一次循环后,又遵循a线程扩容后的链表顺序重新排列链表中的顺序,最终形成了环。
HashMap的默认初始长度为1>>4 也就是16 (值为Null),并且每次扩展或者手动初始化时,长度必须是2的幂。
默认初始长度为什么是16?
为了服务于从key映射到value的hash算法,让它实现一个尽量均匀分布的hash函数。index = HashCode(Key) & (Length - 1) ,Length-1的值是所有二进制位全为1,这种情况下,index的结果等同于HashCode后几位的值。只要输入的HashCode本身分布均匀,Hash算法的结果就是均匀的。
高并发下的HashMap
resize()扩容的影响因素:
1.Capacity
HashMap的当前长度。HashMap的长度是2的幂。
2.LoadFactor
HashMap负载因子,默认值为0.75f。
HashMap.Size >= Capacity * LoadFactor
总结:
1.Hashmap在插入元素过多的时候需要进行Resize,
Resize的条件是 HashMap.Size >= Capacity * LoadFactor。2.Hashmap的Resize包含扩容和ReHash两个步骤,ReHash在并发的情况下可能会形成链表环。
3.在高并发的情况下可以改用HashTable或者Collections.synchronizedMap,但是这两者有个共同的问题就是性能,不管是读还是写,它们都会给整个集合加锁,导致同一时间的其他操作被阻塞。所以最好是使用ConcurrentHashMap。
HashMap 和 hashTable 区别?
HashMap | Hashtable |
HashMap是继承自AbstractMap类,而HashTable是继承自Dictionary类。不过它们都实现了同时实现了map、Cloneable(可复制)、Serializable(可序列化)这三个接口,但是是线程不安全的。 | Hashtable是线程安全的,效率比较低 |
HashMap支持一个Key为NUll,支持多个value为null | Hashtable既不支持Null key也不支持Null value。Hashtable的put()方法的注释中有说明 |
HashMap默认的初始化大小为16。之后每次扩充,容量变为原来的2倍 | Hashtable默认的初始大小为11,之后每次扩充,容量变为原来的2n+1。 |
HashMap为了提高计算效率,将哈希表的大小固定为了2的幂,这样在取模预算时,不需要做除法,只需要做位运算。位运算比除法的效率要高很多。 | Hashtable在计算元素的位置时需要进行一次除法运算,而除法运算是比较耗时的 |