初衷
HashMap设计精巧,A4纸记不下所有的细节,我也没有彻底读懂,所以有了这篇博客
节点
//静态内部类,实现了Map.Entry接口
static class Node<K,V> implements Map.Entry<K,V> {
final int hash; //避免重复运算
final K key;
V value;
Node<K,V> next;
//构造方法
Node(int hash, K key, V value, Node<K,V> next) {
this.hash = hash;
this.key = key;
this.value = value;
this.next = next;
}
public final K getKey() { return key; }
public final V getValue() { return value; }
public final String toString() { return key + "=" + value; }
//?
public final int hashCode() {
return Objects.hashCode(key) ^ Objects.hashCode(value);
}
public final V setValue(V newValue) {
V oldValue = value;
value = newValue;
return oldValue;
}
public final boolean equals(Object o) {
//先判断引用地址,然后是判断是否是Map.Entry的子类
//最后才判断是否相等
if (o == this)
return true;
if (o instanceof Map.Entry) {
Map.Entry<?,?> e = (Map.Entry<?,?>)o;
if (Objects.equals(key, e.getKey()) &&
Objects.equals(value, e.getValue()))
return true;
}
return false;
}
}
红黑树节点
不想在这里写,
变量
/**
* 默认初始容量16(必须是2的幂次方)
*/
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;
/**
* 最大容量,2的30次方
*/
static final int MAXIMUM_CAPACITY = 1 << 30;
/**
* 默认加载因子,用来计算threshold,体现了空间与性能的深仇大恨
* 此处应当注意threshold的大小与转成的红黑树的概率正相关(如果插入数据不是被特殊设计过的话)
*/
static final float DEFAULT_LOAD_FACTOR = 0.75f;
/**
* 链表转成树的阈值,当桶中链表长度大于8时转成树
threshold = capacity * loadFactor
*/
static final int TREEIFY_THRESHOLD = 8;
/**
* 进行resize操作时,若桶中数量少于6则从树转成链表
*/
static final int UNTREEIFY_THRESHOLD = 6;
/**
* 桶中结构转化为红黑树对应的table的最小大小
当需要将解决 hash 冲突的链表转变为红黑树时,
需要判断下此时数组容量,
若是由于数组容量太小(小于 MIN_TREEIFY_CAPACITY )
导致的 hash 冲突太多,则不进行链表转变为红黑树操作,
转为利用 resize() 函数对 hashMap 扩容
*/
static final int MIN_TREEIFY_CAPACITY = 64;
/**
保存Node<K,V>节点的数组
该表在首次使用时初始化,并根据需要调整大小。 分配时,
长度始终是2的幂。
*/
transient Node<K,V>[] table;
/**
* 存放具体元素的集
*/
transient Set<Map.Entry<K,V>> entrySet;
/**
* 记录 hashMap 当前存储的元素的数量
*/
transient int size;
/**
* 每次更改map结构的计数器
*/
transient int modCount;
/**
* 临界值 当实际大小(容量*填充因子)超过临界值时,会进行扩容
*/
int threshold;
/**
* 负载因子:要调整大小的下一个大小值(容量*加载因子)。
*/
final float loadFactor;
构造方法
/**
*总之各种构造方法了
*不过,构造方法并不负责table初始化,当需要put的时候才会调用resize()方法
*所以才会造成在resize()方法中判断oldTab,oldCap,oldThr
*/
//oldThr=大于或等于initialCapacity的最小2的整数次幂,oldCap=0,所以table会被初始化长度为oldThr
public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))//如果loadFactor设计的非常小,会造成反复扩容
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor;
this.threshold = tableSizeFor(initialCapacity);
}
//oldThr=大于或等于initialCapacity的最小2的整数次幂,oldCap=0,loadFactor=0.75
public HashMap(int initialCapacity) {
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
//oldThr=0,oldCap=0,loadFactor=0.75
public HashMap() {
this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}
public HashMap(Map<? extends K, ? extends V> m) {
this.loadFactor = DEFAULT_LOAD_FACTOR;
putMapEntries(m, false);
}
/**
* 找到大于或等于 cap 的最小2的整数次幂的数。
*/
static final int tableSizeFor(int cap) {
int n = cap - 1;//减一很重要,根据位运算的特点,快手有一道笔试题源于此处
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
查找方法
public V get(Object key) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
// 获取hash值
static final int hash(Object key) {
int h;
//由于hash值有时候可能会更于高16位有关系,但是(n-1)&hash的计算方式很难让高16位参与运算,n很难大于65536
//注意,此处与threadLocalMap中的hash值计算很不同,具体哪种散列方式更好呢?
// 通过这种方式,让高位数据与低位数据进行异或,以此加大低位信息的随机性,变相的让高位数据参与到计算中。
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);//可以得到HashMap允许key=null,而且总是放在第一个
}
final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab;
Node<K,V> first, e;
int n; K k;
// 定位键值对所在桶的位置
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
// 每次都要查找第一个
if (first.hash == hash &&
((k = first.key) == key || (key != null && key.equals(k))))
return first;
// 桶中不止一个结点
if ((e = first.next) != null) {
// 是否是红黑树,是的话调用getTreeNode方法
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
// 不是红黑树的话,在链表中遍历查找
do {
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}
添加方法
//从此处可以看出,HashMap不是线程安全的方式,如果put与get方法被同时反复调用,CPU很可能就会100%
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
if ((tab = table) == null || (n = tab.length) == 0) //table为空
n = (tab = resize()).length;
if ((p = tab[i = (n - 1) & hash]) == null)//桶为空
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
//因为很多时候,散列算法足够完美,插入key也足够随机,大多数桶中只有一个值,或者没值,所以往往只需要判断第一个值就可以了
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k)))) //先用引用地址判断,再用equals判断,所以equals与hashcode必须同步,总是检查第一个
e = p;//存在key相同的情况
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);//已经树化
else {
for (int binCount = 0; ; ++binCount) {//桶中值的数量
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);//链表尾了,插入
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);//树化,
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k)))) //
break;
p = e;//存在key值相同的情况
}
}
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null) //开启了替换旧值,或者旧值为null
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount; //fail-fast机制
if (++size > threshold)
resize();//扩容
afterNodeInsertion(evict);
return null;
}
扩容方法
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
// oldCap > 0,说明table已经初始化过了,也说明threadshold不会为0
if (oldCap > 0) {
// 如果比最大值还大,则赋值为最大值
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
// 如果扩容后小于最大值 而且 旧数组桶大于初始容量16, 阈值左移1(扩大2倍)
//换句话说扩容后大于最大值 而且 旧数组桶小于初始容量16(可能会发生吗?),newThr为0
//情况一
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
// table==null,对应于构造函数public HashMap(int initialCapacity)或public HashMap(int initialCapacity, float loadFactor)
else if (oldThr > 0)
// 新容量=旧阈值,旧阈值=tableSizeFor(initialCapacity)
//newThr=0.情况二
newCap = oldThr;
// 如果数组桶容量<=0 且 旧阈值 <=0,对应于构造函数public HashMap()
else { // zero initial threshold signifies using defaults
// 新容量=默认容量
newCap = DEFAULT_INITIAL_CAPACITY;
// 新阈值= 负载因子*默认容量
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
// 如果新阈值为0
if (newThr == 0) {//情况一与情况二
// 重新计算阈值
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
// 更新阈值
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
// 创建新数组
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
// 覆盖数组桶
table = newTab;
// 如果旧数组桶不是空,则遍历桶数组,并将键值对映射到新的桶数组中
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;//帮助GC过程
if (e.next == null)//总是检查第一个
newTab[e.hash & (newCap - 1)] = e;
// 如果是红黑树
else if (e instanceof TreeNode)
// 重新映射时,需要对红黑树进行拆分
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
// 如果不是红黑树,则按链表处理
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
// 遍历链表,并将链表节点按原顺序进行分组
/**
*这里实在有太多可以讲的了,包括
*1.绝大多数情况下为什么链表不会长于7,
*2.get方法的时间复杂度为多少
*3.为什么链表要转红黑树,
*第一个问题:在不经过特殊设计的情况下,当size<64时,链表长度>=8就会发生扩容,
*按照扩容算法与散列算法的特性可以分析得到旧链表的1/2会留在原来的桶中,
*1/2的桶编号+=oldCap,链表长度最长为4;当size=64时,红黑树中的节点数最大为48(0.75,特殊情况下),
*扩容后最大为24,此后再经过两次扩容后,就会变回链表;
*2.在不经过特殊设计的情况下,get方法的时间复杂度绝大部分时候为O(1),极少数情况下为O(log);
*3.为什么链表要转红黑树,为了防止有人特殊设计,使得get复杂度为O(n)
*/
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
// 将分组后的链表映射到新桶中
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
疑问
为什么要用红黑树,而不用平衡二叉树?
红黑树是基于平衡二叉树的改进,科学家研究了好几年的结果,不可能一下子吃透;总结一下就是,根据红黑树的性质:红色节点的子节点一定为黑色,且任意一个节点到任意一个叶子节点的的路径包含数目相同的黑色节点,即任意一个节点的左右子树高度差最大不会超过一倍,红黑树是黑色完美平衡的(总是趋于平衡的状态);具体表现为:插入效率比平衡二叉树高,查询效率比普通二叉树高(话说,科学家真的喜欢折中状态啊,loadFactor是性能与空间的折中)。
如何评价HashMap扩容的过程?
会使用老数组三倍的内存(1.新建数组(2倍) 2.扩容遍历老数组(1倍)老数组边遍历边释放内存)