先看一组数据,里面是各个参数就不解释了,不明白的可以看看这里,HashMap 的初始化参数全部是默认的
resize()之前 [capacity = 16, size = 0, modCount = 0, threshold = 0, loadFactor = 0.75]
resize()之后 [capacity = 16, size = 0, modCount = 0, threshold = 12, loadFactor = 0.75]
resize()之前 [capacity = 16, size = 13, modCount = 13, threshold = 12, loadFactor = 0.75]
resize()之后 [capacity = 32, size = 13, modCount = 13, threshold = 24, loadFactor = 0.75]
resize()之前 [capacity = 32, size = 25, modCount = 25, threshold = 24, loadFactor = 0.75]
resize()之后 [capacity = 64, size = 25, modCount = 25, threshold = 48, loadFactor = 0.75]
resize()之前 [capacity = 64, size = 49, modCount = 49, threshold = 48, loadFactor = 0.75]
resize()之后 [capacity = 128, size = 49, modCount = 49, threshold = 96, loadFactor = 0.75]
resize()之前 [capacity = 128, size = 97, modCount = 97, threshold = 96, loadFactor = 0.75]
resize()之后 [capacity = 256, size = 97, modCount = 97, threshold = 192, loadFactor = 0.75]
下面是操作代码:
public static void main(String[] args) {
HashMap<Integer, Object> map = new HashMap<>();
for (int i = 0; i < 11111111; i++) {
map.put(i, i);
}
}
从上面 HashMap 每次扩容前后的参数变化中可以看到:
- 在 HashMap 初始化后,第一次 put 数据时会扩容一次,这里的第一第二行其实不是 HashMap 的真实容量,因为还没初始化,看到的是 DEFAULT_INITIAL_CAPACITY 的值
- 对比第三第四行,扩容后容量翻倍了,threshold 的值也是翻倍了,也等于 capacity * loadFactor
- 扩容前后 size 不变,这个肯定不变了,是当前 HashMap 的元素个数扩容前后 size 不变,这个肯定不变了,是当前 HashMap 的元素个数
- modCount 是操作次数,resize() 前会自增 1,和 size 的值一样,也就是说先把数据加到 HashMap 中才进行扩容的
下面再来看看 resize() 方法做了什么
final Node<K,V>[] resize() {
// 创建了一个临时变量 oldTab 来保存旧数据
Node<K,V>[] oldTab = table;
// 获取旧的 table 总容量,不是元素个数哦
int oldCap = (oldTab == null) ? 0 : oldTab.length;
// 临时保存扩容阈值
int oldThr = threshold;
// 创建 table 新容量和新扩容阈值的变量
int newCap, newThr = 0;
// 主要是用来判断是不是第一次扩容
if (oldCap > 0) {
// 如果元素个数已经到达默认总容量,则扩容阈值也调到 int 的最大值,20亿左右
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
// 不然的话,容量翻倍
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
// 如果翻倍后新容量没有超过默认最大容量,原来的容量也超过了默认最小容量,扩容阈值也会翻倍
newThr = oldThr << 1; // double threshold
}
// 在指定容量和装载因子在初始化空 HashMap 的情况下次才会执行下面这行
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
// 这里就是一切默认的情况下得出第一次扩容是的容量和扩容阈值了
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
// 当扩容后容量比默认的初始化容量还小,或者超过默认最大的容量的时候才会执行下面的代码
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
// 得出新的扩容阈值
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
// 根据新容量创建新的 table
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
// table 赋空
table = newTab;
// 如果有旧数据的话就做数据转移
if (oldTab != null) {
// 这里为啥遍历的次数是 oldCap 而不是 size 呢?因为在 table 中的 Node<K,V>[] 中,
// 由于是根据 hash 值来找到对应的第一个桶来存储元素,中间有些桶可能是 null
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
// 看吧,这里就是,如果当前的桶如果为 null 的话就不做操作了
if ((e = oldTab[j]) != null) {
// 释放元素内存,等待 gc
oldTab[j] = null;
if (e.next == null)
// 如果是桶里面只有一个元素,HashMap 也就完完全全是一个数组了,直接赋值转移元素到新计算的索引中
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
// 如果是已经树化的 HashMap 就会重新生成一棵树,或者会退化成链表
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
// 这里是对链表重新排列优化
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
// 这里其实是一个 reHash 的过程,桶中的元素拆开
do {
next = e.next;
// 用(e.hash & oldCap)是否为 0 判断,对桶中的元素进行分割,分成两个不同的链表
if ((e.hash & oldCap) == 0) {
// 判断是不是链头元素,然后就一个一个追加上去
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
// 判断是不是链头元素,然后就一个一个追加上去
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
// 把上面分割的两个链表分别放到新 table 中的 j 和 ( j + oldCap) 位置中
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
好了,没了,就这样,更加深入的话就需要将树化和退化成的方法了↖(^ω^)↗