hashmap扩容机制
hashmap是java考察的重点知识,对于扩容机制也是重点,今天整理了扩容机制和它解决hash冲突的关系,方便讨论学习。
先把源码putVal方法贴出来
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
java版本1.8
扩容时机
hashmap中resize()是扩容方法,hashmap扩容时机有三个:
1、初始化扩容
2、达到阈值扩容
3、链表长度大于等于8扩容(前提是数组长度不大于64)
初始化扩容
如果hashmap还没保存过任何元素,即第一次调用put方法,table == null,就会调用resize方法初始化扩容。resize方法会初始化一个长度为16的数组,阈值初始化为16 x 0.75=12。
第一次调用put方法,数组并没有被初始化过,所以会判断为true,触发resize扩容。
阈值扩容
hashmap中的阈值参数是threshold,它的值等于当前hashmap的数组长度 x loadFactor(装载因子),默认数组的长度是16,装载因子是0.75f,所以初始化得到的扩容阈值就是16 x 0.75=12。它内部还会维护size参数,size参数等于该hashmap总共保存的数据个数。当我们调用put方法往hashmap中添加数据成功后,它内部维护的size参数会加1,并且再判断是否需要扩容,这里的条件判断非常简单,就是++size > threshold。假设我现在已经添加的正是弟13个数据,那么这里的判断会生效,那么就会调用resize()方法进行扩容。
当存储的数量大于阈值,触发resize扩容。
链表长度大于等于8扩容
hashmap在添加数据时候会采用尾插法插入,在插入后会判断是否转换为红黑树,判断的条件是当前链表的长度是否大于等于8,如果大于等于8那么会进入treeifyBin方法尝试转换红黑树。进入treeifyBin方法先判断hashmap的数组长度是否不大于64,如果不大于64那么就会对数组进行扩容,不转换为红黑树。换句话说,当发生hash冲突时,hashmap链表长度已经大于等于8,并且数组长度还小于64就会扩容,如果数组的长度已经扩容到64或者以上,那么这个扩容不会再发生,后续只会发生阈值扩容。
尾插法结束后判断是否需要转换为红黑树,TREEIFY_THRESHOLD的默认值是8,也就是说链表的长度大于等于8的情况下才会调用treeifyBin方法,而treeifyBin方法中会判断当前hashmap的数组长度是否小于64,小于就resize扩容。
final void treeifyBin(Node<K,V>[] tab, int hash) {
int n, index; Node<K,V> e;
if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)
resize();
else if ((e = tab[index = (n - 1) & hash]) != null) {
TreeNode<K,V> hd = null, tl = null;
do {
TreeNode<K,V> p = replacementTreeNode(e, null);
if (tl == null)
hd = p;
else {
p.prev = tl;
tl.next = p;
}
tl = p;
} while ((e = e.next) != null);
if ((tab[index] = hd) != null)
hd.treeify(tab);
}
}
MIN_TREEIFY_CAPACITY值为64,小于64,触resize扩容。
resize扩容
resize扩容方法中,除了初始化扩容会默认创建长度为16的数组,还会初始化阈值为12。后续非初始化扩容,都是扩容2倍,即下次扩容数组长度为32,阈值为24。
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
扩容中如果存在旧数据(非第一次扩容),经过rehash计算,数据分配的下标可能还是当前位置和(j + 旧容量)的位置
总结
hashmap扩容机制有三个时机会发生
1、初始化扩容
2、达到阈值扩容
3、链表长度大于等于8扩容(前提是数组长度不大于64)
可以看出阈值扩容是会一直延续下去的。
我们先来思考一个问题,hashmap解决hash冲突,链表数量达到8有多难?每轮数组一个下标得到一个元素的概率是12/16,要达到8个那就需要11轮次扩容,减去一次初始扩容,那么还需要10次扩容,总的元素数量就是16*2ⁿ,n=10,hashmap的zise为16384个元素的时候有理论上的链表转红黑树概率。不知道我算的对不对。
所以我认为hashmap解决hash冲突这个装载因子是非常关键的,它通过扩容减少了hash冲突的概率,但是它也带来了一个问题,这个装载因子导致频繁扩容,就像上面说的,我一个16长度的数组只能存储12个元素,平均算下来一个下标连一个元素都分不到,利用率很低,当然装载因子是可以设置的。提升装载因子的值会增大利用率,但是也会增加hash冲突的风险。
以上仅是我个人看法,欢迎讨论。