文章目录
HashMap源码分析(JDK1.8)
HashMap是我们工作中常用的一个Map,面试也老爱问这个的原理,此处记录下个人源码分析过程
HashMap属性介绍
// ------------------成员变量 -----------------------------//
/**
* 存储数据的数组,Node是链表的节点,转为树后是树的节点
*/
transient Node<K,V>[] table;
/**
* 存储键值对的
*/
transient Set<Map.Entry<K,V>> entrySet;
/**
* Map当前的容量大小
*/
transient int size;
/**
* 修改次数
*/
transient int modCount;
/**
* 扩容的阈值
*/
int threshold;
/**
* 负载因子
*/
final float loadFactor;
// ------------------常量 -----------------------------//
/**
* 默认容量大小
*/
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
/**
* 最大容量大小
*/
static final int MAXIMUM_CAPACITY = 1 << 30;
/**
* 默认负载因子
*/
static final float DEFAULT_LOAD_FACTOR = 0.75f;
/**
* 链表转化为树的阈值, 链表长度>=8 就会转为红黑树存储
*/
static final int TREEIFY_THRESHOLD = 8;
/**
* 树退化阈值,树大小=6是,则会转为链表
*/
static final int UNTREEIFY_THRESHOLD = 6;
/**
* 最小树形化的容量
* 当有键值存入,导致数组中的链表到了转树的阈值,会对table数组的长度进行判断,
* 如果table数组的长度小于64,则不会转树,会进行一次扩容,每次只要到了转树的阈值都会扩容,
* 知道table数组长度大于等于64,则转树
*/
static final int MIN_TREEIFY_CAPACITY = 64;
HashMap存储结构
HashMap存储的结构时基于数组和链表,JDK1.8在链表长度超过8这个阈值时,会转换为红黑树存储,整个存储结构如下图:
相关的类(都是HashMap的内部类)
链表节点类
/**
* 链表结构的节点类 HashMap的节点结构是单向链表
*/
static class Node<K,V> implements Map.Entry<K,V> {
final int hash; // 节点的K使用HashMap的Hash方法算出来的hash值
final K key; // 节点的键位
V value; // 节点的value
Node<K,V> next; // 下一个节点
... ...
}
红黑树的节点类
/**
* 红黑树的树节点
*/
static final class TreeNode<K,V> extends LinkedHashMap.Entry<K,V> {
TreeNode<K,V> parent; // 父节点
TreeNode<K,V> left; // 左叶子节点
TreeNode<K,V> right; // 右叶子节点
TreeNode<K,V> prev; // 前方节点
boolean red; // 是否红色节点
... ...
}
HashMap构造方法
/**
* 我们定义HashMap时,一般都要求传递容量,
* 这个构造方法就是常用到的
*/
public HashMap(int initialCapacity, float loadFactor) {
// 判断容量的合法性,不能小于1,
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
// 大于最大容量,则直接设置为最大容量
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
// 负载因子必须大于0
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor;
// 通过容量计算扩容阈值
this.threshold = tableSizeFor(initialCapacity);
}
/**
* 传入的数字如果不是2的倍数,会在这里转成2的次方
*/
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
tableSizeFor方法是如何将传入的数字转换为大于传入值的最小的2的整次方的:
2的次方说白了就是整个二进制的位数只有一个为1
上面的方法判断,入参cap是大于等于0的,下面分几种情况来分析这个算法,
cap > 1
大于1的情况下,int类型是32位,那么必定有一位是1,该方法是在“或”和位移运算后进行+1,结果是2的次方,那么做完位移运算后的结果,必定是从最后一位开始,每个连续位都是1,如下格式:
00000000 11111111 11111111 11111111
01111111 11111111 11111111 11111111
00000000 00000000 00000000 00000011
“或”运算的结果是只要有一个为1,就是1,下面开始分析:
使用“或”运算,会让二进制最左边的1一直存在
“或”上本身右位移1位,会让在这32位中为1的左边一位为也为1,或运算后出现2个连续的1
“或”上本身右位移2位,上一步有2个连续的1,2个1右移2位,或运算正好组成4个连续的1
“或”上本身右位移4位,上一步有4个连续的1,4个1右移4位,或运算过后正好组成8个连续的1
“或”上本身右位移8位,上一步有8个连续的1,8个1右移8位,或运算过后正好组成16个连续的1
“或”上本身右位移16位,上一步有16个连续的1,16个1右移16位,或运算过后正好组成32个连续的1
int转为32位后,最大值是二进制的从右往左第31位为1的情况(二进制32位是符号位),上面的算法覆盖了32个连续的1,也就是大于1的int数,经过上面算法必定会组成一个从该数二进制最左边的1开始,往右全是1的数。如:
00010000 00000000 00000000 00000011
运算后:
00011111 11111111 11111111 11111111
此时再进行+1操作,得出的结果就是2的整次方。
那么是如何保证是大于传入值的最小的2的整次方,分两种情况来说明,一种是传入值是2的整次方,一种是传入值不是2的整次方
传入值为2的整次方:
2的整次方,那么32位的二进制中只有一个1,进入方法后减去1,那么组成的格式就是之前1所在位置改为0,
往右的所有位转为1,如:
100000(二进制) - 1 = 11111(二进制)
由于是连续的1组成,经过算法后,还是本身,在方法返回时,再进行加1,最终结果就是传入值
传入值为非2的整次方:
非2的整次方,那么二进制位中一定有多个1,进入方法后减去1,那么高位的那个1还是不会变,经过算法后,
结果是高位1所在位及其后所有位都为1,在方法返回时,再进行加1,得到的结果是,高位1前面的位置改为1,
高位1所在位 及其后所有位都为0,正好是该数最接近的2的整次幂。如:
先减1:100010 -1 = 100001
或和位移运算后: 111111
方法返回时+1: 1000000
cap = 1
cap=1的情况下,参与运算的n也就为0,0的二进制进行上面的运算最终还是为0,方法最后进行+1,最终得出结果是2的0次方(2的0次方为1)
cap = 0
cap=0的情况下,参与运算的n也就为-1,-1二进制如下
11111111 11111111 11111111 11111111
该值无符号右移,永远等于自身,因此“或”上本身右位移运算后,n还是等于-1,依据上面返回的三目判断,n小于0也就返回1,结果是2的0次方(2的0次方为1)
HashMap put方法
put方法整个流程梳理如下:
下面看下具体代码(关键方法):
/**
* 放入键值对的方法
*/
public V put(K key, V value) {
// 具体实现在HashMap的putVal方法
return putVal(hash(key), key, value, false, true);
}
/**
* HashMap计算key值的hash方法
*/
static final int hash(Object key) {
int h;
// 使用异或方法,混合key的hashcode高低位的特征,减少hash碰撞的可能性
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
/**
* 具体的put实现
*/
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
// 先判断是否表格以及初始化,如果没有调用resize方法进行初始化
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
// (n - 1) & hash来确定键值对所在的位置
// n是数组的长度,
// hash是key调用HashMap的hash方法计算出来的hash值
// 如果该位置不存在数据,直接新建节点并放入
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
// 如果存在则需要判断是链表还是树节点
Node<K,V> e; K k;
// 先判断该位置的key是不是equals方法或==于方法相同,如果相同的则替换掉value的值即可
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
// 如果是树节点,则放入树
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
// 非树节点,也就是链表,则往链表中放入
else {
// 遍历链表
for (int binCount = 0; ; ++binCount) {
// 遍历到链表的最后节点(next==null),则往链表后新增一个节点
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
// 判断新增节点后是否超过树化的阈值,超过则树化
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
// 如果链表中有节点的key和本次要放入的key相同(==或equals为true),
// 则替换该节点的值
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
// e是本次插入的节点,
if (e != null) {
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
// 替换新旧值
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
// 判断size是否到了扩容的阈值,到了调用resize扩容
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
整个代码中,有4个需要重点了解
1) key的hash&(数组长度-1)来确定数组位置,如何保证不越界
2)resize方法
3)putTreeVal,往树里面添加值 (TODO)
4)treeifyBin树化方法 (TODO)
下面就这4个点来讲下:
1) key的hash&(数组长度-1)来确定数组位置,如何保证不越界
&运算符,规则是二进制位同时为1时,才为1,数组下标最大就是数组的长度-1,因此&上数组长度减1,得到的值区间为 [0-数组长度),由数组长度都为2的幂,减去1得到的结果的二进制都是连续的1,此时用key的hash的&运算,也就保留了hash的特征,减少了碰撞,这也是为啥数组容量都需要为2的幂。
举个例子,假定数组容量可以不为2的幂,假定数组长度为17,长度减去1,得到的二进制为:
00000000 00000000 00000000 00010000
由于“&”计算的特性,都为1才能为1,否则为0,那么key的hash值与上面的二进制计算的值,得到的值只会为: 16 和 0,大大增加了碰撞。
2)resize方法
resize方法用于扩容或初始化HashMap的数组,下面看下代码分析:
/**
* resize方法用于扩容或初始化HashMap的数组
*/
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
// 旧数组容量大于0,走扩容
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
// 左移一位,就是 *2
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
// 新建数组,如果旧的扩容阈值存在,则使用该阈值作为容量
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
// 新建数组,如果旧的扩容阈值不存在,则使用该默认容量作为容量
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
// 初始化数组,以及新的容量
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
// 拷贝旧数组中的数据到新数组
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
// 如果链表只有一个节点,直接使用新数组长度计算节点位置
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
// 如果是树节点,则调用树节点的split方法切割
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
// 多节点链表
// 多节点链表会拆成两个链表,一种是下标不变,一种是旧下标+旧数组容量
// 代码后面会介绍这个
else { // preserve order
// 拆分出来下标不变的的节点组成的链表的头和尾
Node<K,V> loHead = null, loTail = null;
// 拆分出来下标为位置下标+旧数组容量的节点组成的链表的头和尾
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
看resize完整个代码介绍,还有两点需要详细说下,
1)为啥多节点链表会拆成两个链表,一个链表位置是旧数组的位置,一种链表是位置旧数组下标+旧数组容量
2)TreeNode的split方法
为啥多节点链表会拆成两个链表,一种是下标不变,一种是旧下标+旧数组容量
假定旧数组容量是16,那么扩容后新数组的容量是32,上面说到,确定数组的下标是由 数组长度-1&key的hash,我们将两个数组容量转为二机制,如下:
00000000 00000000 00000000 00010000 ---> 旧数组容量:16
00000000 00000000 00000000 00100000 ---> 新数组容量:32
----------------分别减去1---------------
00000000 00000000 00000000 00011111 ---> 旧数组容量:16-1
00000000 00000000 00000000 00111111 ---> 新数组容量:32-1
通过上面的格式,只有当key的hash的值的二进制在第6位为0时,使用“&”运算新旧数组长度减1,得到的结果都是一样,这种类型的key,在新旧数组中存储的下标是一样的。
第二种情况下,当第6位为1时,新数组长度减1&key的hash得到的结果的第7位及以后的为必定为0,且结果的第6位前的位数和旧数组长度减1&key的hash得到的结果一致,如下:
00000000 00000000 00000000 00110010 ---> key的hash
00000000 00000000 00000000 00010010 ---> 旧数组容量:16-1& key的hash
00000000 00000000 00000000 00110010 ---> 新数组容量:32-1& key的hash
多出来的一位的值正好的旧数组的容量,因此代码才会写: newTab[j + oldCap] = hiHead;
TreeNode的split方法
树节点的key的hash也如同链表一样,在数组扩容时,一种是位置下标不变,一种是旧下标+旧数组容量,因此树需要切割成两颗树,这个split方法就是将树切割为两颗树。代码如下:
/**
* bit是旧数组容量
*/
final void split(HashMap<K,V> map, Node<K,V>[] tab, int index, int bit) {
TreeNode<K,V> b = this;
// Relink into lo and hi lists, preserving order
// 下标不变的树的节点的头和尾
TreeNode<K,V> loHead = null, loTail = null;
// 拆分出来下标为旧下标+旧数组容量的节点组成的链表的头和尾
TreeNode<K,V> hiHead = null, hiTail = null;
int lc = 0, hc = 0;
for (TreeNode<K,V> e = b, next; e != null; e = next) {
next = (TreeNode<K,V>)e.next;
e.next = null;
if ((e.hash & bit) == 0) {
if ((e.prev = loTail) == null)
loHead = e;
else
loTail.next = e;
loTail = e;
++lc;
}
else {
if ((e.prev = hiTail) == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
++hc;
}
}
if (loHead != null) {
// 拆分的树是否需要退化
if (lc <= UNTREEIFY_THRESHOLD)
tab[index] = loHead.untreeify(map);
else {
tab[index] = loHead;
if (hiHead != null) // (else is already treeified)
loHead.treeify(tab);
}
}
if (hiHead != null) {
// 拆分的树是否需要退化
if (hc <= UNTREEIFY_THRESHOLD)
tab[index + bit] = hiHead.untreeify(map);
else {
tab[index + bit] = hiHead;
if (loHead != null)
hiHead.treeify(tab);
}
}
}
3)putTreeVal,往树里面添加值(TODO)
final TreeNode<K,V> putTreeVal(HashMap<K,V> map, Node<K,V>[] tab, int h, K k, V v) {
Class<?> kc = null;
boolean searched = false;
// 先找到根节点
TreeNode<K,V> root = (parent != null) ? root() : this;
for (TreeNode<K,V> p = root;;) {
int dir, ph; K pk;
if ((ph = p.hash) > h)
dir = -1;
else if (ph < h)
dir = 1;
else if ((pk = p.key) == k || (k != null && k.equals(pk)))
return p;
else if ((kc == null &&
(kc = comparableClassFor(k)) == null) ||
(dir = compareComparables(kc, k, pk)) == 0) {
if (!searched) {
TreeNode<K,V> q, ch;
searched = true;
if (((ch = p.left) != null &&
(q = ch.find(h, k, kc)) != null) ||
((ch = p.right) != null &&
(q = ch.find(h, k, kc)) != null))
return q;
}
dir = tieBreakOrder(k, pk);
}
TreeNode<K,V> xp = p;
if ((p = (dir <= 0) ? p.left : p.right) == null) {
Node<K,V> xpn = xp.next;
TreeNode<K,V> x = map.newTreeNode(h, k, v, xpn);
if (dir <= 0)
xp.left = x;
else
xp.right = x;
xp.next = x;
x.parent = x.prev = xp;
if (xpn != null)
((TreeNode<K,V>)xpn).prev = x;
moveRootToFront(tab, balanceInsertion(root, x));
return null;
}
}
}
4) treeifyBin树化方法 (TODO)
HashMap get方法
/**
* get方法主要看getNode方法
*/
public V get(Object key) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
/**
*
*/
final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
// 如果table初始化了,或使用数组长度-1&hash值,存在数据,则开始查询,否则返回null
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
// 检查第一个节点的以下两个条件:
// 1)的hash值和key的hash是否相等
// 2)key是否equasl或==相等,
// 都相等直接返回第一个节点的值
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
return first;
// 检查是否还有后续节点,有则继续,没有返回null
if ((e = first.next) != null) {
// 判断是否是树节点,是则查询树
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
// 不是树节点则循环链表,检查每个节点是否满足以下两个条件:
// 1)的hash值和key的hash是否相等
// 2)key是否equasl或==相等,
// 都相等直接返回该节点的值
do {
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}
HashMap为啥线程不安全(JDK1.8)
- 在JDK1.7中,当并发执行扩容操作时会造成环形链和数据丢失的情况。
- 在JDK1.8中,在并发执行put操作时会发生数据覆盖的情况
这里只分析1.8, 主要在put方法:
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
if ((p = tab[i = (n - 1) & hash]) == null)
// 此处多线程进来,会导致值覆盖
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
// ++操作不是原子,会导致size不正常
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}