剖析hashmap的resize扩容方法
前言
本文应该是hashmap的最后一篇文章,之前研读了hashmap的hash思想,红黑树结构,以及插入遍历等。本文将对剩下的扩容进行解析,若有结余,顺便讲下remove方法,对于了解过插入的读者而言,remove方法阅读起来没有难度。
正文
简单介绍一下,hashmap的数据结构是数组加链表或者红黑树组成,数组源码里赋值给table,每个数组的索引下可能挂载着链表或者树。
resize方法解析
final Node<K,V>[] resize() {
// 即当前table的长度
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
// 旧的扩容阈值
int oldThr = threshold;
int newCap, newThr = 0;
// 当前的hashmap不为空
if (oldCap > 0) {
// 如果当前的hashmap长度已经是最大值,调整扩容阈值为integer的最大值
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
// 左移一位相当于扩容两倍后,新的table长度小于最大值,且旧的table长度大于hashmap的默认值16
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
// 扩容的阈值也扩大两倍
newThr = oldThr << 1; // double threshold
}
// hashmap为空,即没初始化的情况
// 扩容阈值是否大于0 ,即调用hashmap的构造方法由没有传参,传入长度的参数
// 或者负载因子的时候都会给threshold赋值
else if (oldThr > 0) // initial capacity was placed in threshold
// 初始化的长度用扩容阈值
newCap = oldThr;
// 默认的构造方法,使用默认的长度
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
// 默认的扩容阈值=默认长度16*默认的负载因子0.75
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
// 不是默认构造方法
if (newThr == 0) {
// 计算新的扩容阈值
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
// 扩容后开始把旧的table下的数据进行重新分配到新的table下
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
// 递归遍历旧的table
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
// 数组索引下有节点
if ((e = oldTab[j]) != null) {
// 将节点从旧的table下删除
oldTab[j] = null;
// 该索引下只有一个节点
if (e.next == null)
// 重新分配,到新的数组下标,
newTab[e.hash & (newCap - 1)] = e;
// 如果索下不止一个节点,判断是否是树节点
else if (e instanceof TreeNode)
// 树节点单独处理
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
// 不是树节点,那就是链表结构
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
// e的hash值与上旧的table长度是否等于0
if ((e.hash & oldCap) == 0) {
// 等于0即在原索引下建立链表
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
// 不等于0 即为1 在新索引(原索引+oldcap)处建立新链表
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
// 放到原索引处
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
// 放到新索引处
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
这里解释一下if ((e.hash & oldCap) == 0)
这个判断,hashmap扩容都是左移一位扩两倍,而且旧的索引下的数据扩容后只会存在旧的索引下newTab[j]
或者旧的索引加上移动二次幂的位置即newTab[j + oldCap]
,所以无需重新进行hash计算,所以判断只是单纯的与位操作,而且值也是随机的,这样降低了冲突率。
针对树节点处理的split
方法思想和链表方式差不多,毕竟也是挂在同一索引位置下,只不过了加个降级处理,如长度不满足于6,进行降级处理,将树降级为链表,降级思想也很简单,从根节点遍历将树转成链表结构而已。
remove方法解析
相较之前提到的resize方法,remove方法就简单多了,remove方法里主要条用了removeNode
方法
final Node<K,V> removeNode(int hash, Object key, Object value,
boolean matchValue, boolean movable) {
Node<K,V>[] tab; Node<K,V> p; int n, index;
// 第一步 还是判断tablie是否为null有没有初始化
if ((tab = table) != null && (n = tab.length) > 0 &&
(p = tab[index = (n - 1) & hash]) != null) {
Node<K,V> node = null, e; K k; V v;
// 索引下的头节点判断是否与入参相等
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
node = p;
else if ((e = p.next) != null) {
// 如果是树节点,遍历获取要删除的树节点
if (p instanceof TreeNode)
node = ((TreeNode<K,V>)p).getTreeNode(hash, key);
else {
do {
// 链表结构,递归遍历寻找要删除的节点
if (e.hash == hash &&
((k = e.key) == key ||
(key != null && key.equals(k)))) {
node = e;
break;
}
p = e;
} while ((e = e.next) != null);
}
}
if (node != null && (!matchValue || (v = node.value) == value ||
(value != null && value.equals(v)))) {
// 调用树的删除处理
if (node instanceof TreeNode)
((TreeNode<K,V>)node).removeTreeNode(this, tab, movable);
else if (node == p)
// 链表的话直接删除,修正上个节点的next位置,让其指向删除节点的next
tab[index] = node.next;
else
p.next = node.next;
++modCount;
--size;
afterNodeRemoval(node);
return node;
}
}
return null;
}
树的删除笔者在前文中已经讲过,所以解析过put以及查询方法的读者而言,remove没有什么难点。
后话
hashmap系列到此算是完结了,从头开始介绍了hash的思想及原理,以及解读了各种常用方法,包括红黑树的数据结构。