HashMap源码解析
在JDK1.8中,HashMap是由数组+链表+红黑树组成的。我们上面提到,散列表将key转换为索引是通过hash函数进行转变的,hash值是一个int类型的整数,在次过程中少不了hash冲突。我们先来看看在Java中各个类是如何计算hashCode的。
1. HashMap的成员变量
/**
* 初始长度是16。懒加载,只有再第一次使用put时才会初始化。
*/
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
/**
* 负载因子,也就是说当hashMap的长度为16*0.75=12时就会进行扩容。
*/
static final float DEFAULT_LOAD_FACTOR = 0.75f;
/**
* 当链表长度>8(TREEIFY_THRESHOLD) 时转换为红黑树
*/
static final int TREEIFY_THRESHOLD = 8;
/**
*红黑树长度为6(UNTREEIFY_THRESHOLD)时红黑树退化为链表
*/
static final int UNTREEIFY_THRESHOLD = 6;
/**
* 如果哈希表中的节点总数>MIN_TREEIFY_CAPACITY ,即使链表中的节点没有>8
* 也需要转换成红黑树
*/
static final int MIN_TREEIFY_CAPACITY = 64;
2. hashCode()函数
2.1. int 和 float
int和float都占四个字节,32位。
读源码我们可以看到,在int中,直接返回了值本身。而float32位字节,我们可以看作一半整数,一半小数,比如float 1.0000;将整数和小数合并起来进行返回10000。
2.2 double和long
Long类型会将前32位左移32位,然后和原64位进行异或运算,然后去低32位。
Double类型是将Double转为Long类型再进行上述操作。
2.3 String类(UTF-8编码下)
String底层是一个char[ ]数组,计算hashCode时,会循环遍历String的每一个字符,将字符的ASCII码进行一系列的计算,最后得到一个int类型的hashCode。
上面的源码等同于下面的代码:
2.4 自定义对象
在介绍自定义对象的hash方法之前,我们先抛出一个问题,为什么重写equals方法一定要重写hashCode方法?
比如我们有一个Person类,里面有姓名,电话,身高属性。我们在判断Person p1 和 Person p2时,认定当姓名,电话,身高相同是那么这两个对象就相等。但如果你不重写hashCode方法的话,他会默认拿p1和p2的内存地址进行计算,那么即使他们的属性都相同,但hash值却不相同。所以我们要自定义hashCode方法,让两个姓名,电话,身高相同的对象计算出来的hash值相同。
2.5 HashMap中的hash
static final int hash(Object key) {
int h;
// ^:异或,相同为0,不同为1
// >>> 16:无符号右移16位
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
3. HashMap的初始化
HashMap的初始化不是在new HashMap( )时进行的,而是在使用put( )方法时才会进行初始化。
HashMap的默认长度是16。
也可以自行定义HashMap的初始化长度和负载因子:
推荐自行设置哈希表的容量,随着put的数据越多,会发生多次的扩容。每次扩容都会重建hash表,非常耗费性能。
4. put方法源码解析
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
// 判断是否初始化
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
//判断插入的元素是否是相等
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
//判断节点类型,是TreeNode的话就插入到红黑树中
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
//循环遍历链表,找到要插入的位置
for (int binCount = 0; ; ++binCount) {
//直接插入
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
//转为红黑树
treeifyBin(tab, hash);
break;
}
//覆盖
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
// 判断是否需要扩容
++modCount;
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
put方法的流程:在new HashMap时是不会初始化Node数组的,而是在第一次调用put方法时进行初始化。
- 先判断 Node数组 是否为空或者长度是否为0,如果是的话就进行HashMap的初始化,默认 Node数组长度大小为16。
- 如果HashMap已经初始化就根据计算出来的HashCode取模计算出数据应该存放的位置下标,进行数据的存放。
a. 如果该下标下没有数据,就直接放进去。
b. 如果存在数据则代表发生了hash冲突,发生hash冲突后,会先判断这两个对象的hashCode是否相等,以及key和equals比较是否相等。如果相等的话就覆盖。
c. 如果比较不相等的话就判断它是Node(向链表插入)节点还是TreeNode节点(向红黑树插入)。 - 在向链表插入时会再次判断应该覆盖还是添加节点。
- 如果是在第九次向链表插入节点的话就会把链表先转为双向链表,然后转为红黑树。
- 添加成功后会判断是否要扩容。
JDK1.8中链表使用的是尾插法,JDK1.7中使用的是头插法。
5. 扩容机制
1.8扩容机制:
当元素个数大于 threshold 时,会进行扩容,使用2倍容量的数组代替原有数组。采用尾插入的方式将原数组元素拷贝到新数组。1.8扩容之后链表元素相对位置没有变化,而1.7扩容之后链表元素会倒置。
1.7链表新节点采用的是头插法,这样在线程一扩容迁移元素时,会将元素顺序改变,导致两个线程中出现元素的相互指向而形成循环链表,1.8采用了尾插法,避免了这种情况的发生。
原数组的元素在重新计算hash之后,因为数组容量n变为2倍,那么n-1的mask范围在高位多1bit。在元素拷贝过程不需要重新计算元毒在数组中的位置,只需要看看原来的bash值新增的那人bit是1还是0,是0的话索引没变是1的话索引变成“原索引+oldCap" (根据 e.hash & oldCap == 8 判断)。这样可以省去重新计算hash值的时间,而且由于新增的1bit是0还是1可以认为是随机的,因此resize的过程会均匀的把之前的冲突的节点分散到新的bucket.
死循环问题:
死循环问题只出现在多线程的情况下,主要原因时因为JDK1.7中扩容拷贝链表时使用的是头插法。
假设在原来的链表中,A节点指向了B节点。
在线程1进行扩容时,由于使用了头插法,链表中B节点指向了A节点。
在线程2进行扩容时,由于使用了头插法,链表中A节点又指向了B节点。
在线程n进行扩容时,… 这就容易出现问题了。。
在并发扩容结束后,可能导致A节点指向了B节点,B节点指向了A节点,链表中便有了环!!!
导致的结果:CPU占用率100%