本章主要详细分析HashMap底层源码
目录
HashMap数据结构(JDK1.8)
- 数组+链表+红黑树
HashMap的层次关系与继承结构
- 继承了一个AbstractMap,也就是用来减轻实现Map接口的编写负担。
HashMap的实现接口
public class HashMap<K,V> extends AbstractMap<K,V>
implements Map<K,V>, Cloneable, Serializable {
...
}
-
Map<K,V>:在AbstractMap抽象类中已经实现过的接口。
-
Cloneable:能够使用Clone()方法,在HashMap中,实现的是浅拷贝,即对拷贝对象的改变会影响被拷贝的对象。
-
Serializable:能够使之序列化,即可以将HashMap对象保存至本地,之后可以恢复状态。
HashMap的属性
public class HashMap<K,V> extends AbstractMap<K,V> implements Map<K,V>,
Cloneable, Serializable {
// 序列号
private static final long serialVersionUID = 362498820763181265L;
/*
初始容量:哈希表中桶的数量 (桶这个概念怎么理解?可以理解为相当于在数组中每个位置上放一个桶装元素)
每个桶里就是装一个链表,链表中可以有很多个元素,这就是桶的意思。也就相当于把元素都放在桶中
*/
// 默认的初始容量是16
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;
// 最大容量 也就是最大的容量为2^30
static final int MAXIMUM_CAPACITY = 1 << 30;
/*
加载因子:哈希表在其容量自动增加之前可以达到多满的一种尺度
loadFactor的默认值为0.75f,计算HashMap的实时装载因子的方法为:size/capacity,size指存放元素的个数
为什么加载因子为0.75
加载因子过高,例如为1,虽然减少了空间开销,提高了空间利用率,但同时也增加了查询时间成本
加载因子过低,例如0.5,虽然可以减少查询时间成本,但是空间利用率很低,同时提高了rehash(即重建内部数据结构)操作的次数
选择0.75作为默认的加载因子是提高空间利用率和减少查询成本的折中,hash桶中遵循泊松分布,选择0.75的话hash碰撞最小
*/
// 默认的加载因子为0.75
static final float DEFAULT_LOAD_FACTOR = 0.75f;
// 当桶(bucket)上的结点数大于这个值时会转成红黑树
static final int TREEIFY_THRESHOLD = 8;
// 当桶(bucket)上的结点数小于这个值时树转链表
static final int UNTREEIFY_THRESHOLD = 6;
/*
桶中结构转化成红黑树的两个条件:1.桶中链表长度要超过8,注意这里是超过8,可看下面源码 2.数组长度要达到64
结合之前的源码,数组的某个桶有一个node,并且key和要添加的node不同,才会触发下列语句
也就是说,当binCount=0,要往该桶put第2个node;当binCount=1,要往该桶put第3个node
以此类推,当binCount=7,要往该桶put第9个node,而该桶已经有8个node了
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
final void treeifyBin(Node<K,V>[] tab, int hash) {
...
if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)
resize();
...
}
*/
// 桶中结构转化为红黑树对应的table的最小大小
static final int MIN_TREEIFY_CAPACITY = 64;
// 存储元素的数组,总是2的幂次倍
transient Node<k,v>[] table;
// 存放具体元素的集
transient Set<map.entry<k,v>> entrySet;
// 存放元素的个数,注意这个不等于数组的长度。
transient int size;
// 每次扩容和更改map结构的计数器
transient int modCount;
// 临界值 threshold = capacity * loadFactor 当size>=threshold的时候,那么就要考虑对数组的扩增
int threshold;
// 加载因子
final float loadFactor;
}
HashMap的构造方法
无参构造 HashMap()
public HashMap() {
//加载因子默认0.75
this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}
有参构造 HashMap(int initialCapacity)
public HashMap(int initialCapacity) {
//调用HashMap(int initialCapacity, float loadFactor) 自定义初始容量
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
有参构造 HashMap(int initialCapacity, float loadFactor)
//自定义初始容量和加载因子
public HashMap(int initialCapacity, float loadFactor) {
//初始容量不能小于0,否则报错
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
//初始容量不能大于最大值,否则为最大值
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
//加载因子不能小于或等于0,不能为非数字
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
//初始化加载因子
this.loadFactor = loadFactor;
//初始化threshold大小
this.threshold = tableSizeFor(initialCapacity);
}
//源码的解释是:返回一个指定容量大小的2次幂,
//其实就是返回比给定参数大的、最接近的2的n次方那个数,比如传入10返回16,传入18返回32
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
//>>>为逻辑右移 |为或,也就是00得0,11得1,10得0,01得1
比如说tableSizeFor(10) 以8位为例,n=cap-1=9
n=00001001 n >>> 1,n=00000100 n |= n >>> 1,n=00001101=13
n=00001101 n >>> 2,n=00000011 n |= n >>> 2,n=00001111=15
n=00001111 n >>> 4,n=00000000 n |= n >>> 4,n=00001111=15
之后几轮都是如此最后执行完 n |= n >>> 16之后n=15
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
n不大于MAXIMUM_CAPACITY所以执行n+1=16
n大于0所以返回16
有参构造 HashMap(Map<? extends K, ? extends V> m)
public HashMap(Map<? extends K, ? extends V> m) {
//初始化加载因子
this.loadFactor = DEFAULT_LOAD_FACTOR;
//将m中的所有元素添加至HashMap中
putMapEntries(m, false);
}
final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) {
//size()方法返回哈希映射中存在的键/值映射的数量
int s = m.size();
if (s > 0) {
//table为空
if (table == null) { // pre-size
//+1.0F是因为((float)s / loadFactor)使用float计算,在转换成整数的时候会进行舍入,为了保证最终计算出来的size足够大不至于触发扩容,所以进行了+ 1.0F操作。
//size/loadFactor=capacity 可以理解为ft存的是m的容量
float ft = ((float)s / loadFactor) + 1.0F;
//如果ft小于最大容量则t=ft,否则使t=最大容量
int t = ((ft < (float)MAXIMUM_CAPACITY) ?
(int)ft : MAXIMUM_CAPACITY);
//如果t > threshold,即传进来的m的容量达到阈值,初始化threshold
if (t > threshold)
threshold = tableSizeFor(t);
}
//table不为空,如果s > threshold,即传进来的m的size达到阈值。扩容
else if (s > threshold)
//resize函数会在put方法中讲到
resize();
//将map中的元素逐一添加到HashMap中
for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) {
K key = e.getKey();
V value = e.getValue();
//putVal函数会在put方法中讲到
putVal(hash(key), key, value, false, evict);
}
}
}
HashMap核心方法
put(K key, V value)
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
//hash函数是通过key来计算出hash值
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
//进入putVal函数
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
// table为空或者长度为0,进行扩容
if ((tab = table) == null || (n = tab.length) == 0)
//resize函数的分析在下面,返回之后将数组赋给tab,用n记录数组长度
n = (tab = resize()).length;
//判断数组的hash位置是否为空
if ((p = tab[i = (n - 1) & hash]) == null)
//如果为空则直接插入newNode
tab[i] = newNode(hash, key, value, null);
//如果不为空
else {
Node<K,V> e; K k;
//当前位置的节点和新插入的节点的key值相同
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
//则将e指向p
e = p;
//如果该节点为TreeNode类型
else if (p instanceof TreeNode)
//就按树的方式进行比对
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
//进行到这一步,说明这个桶存的是单向链表
else {
//遍历链表
for (int binCount = 0; ; ++binCount) {
//e指向p的下一个,如果该位置为空,说明已经遍历到最后了
if ((e = p.next) == null) {
//然后往这个节点后面添加newNode
p.next = newNode(hash, key, value, null);
//如果链表的个数超过8,可能执行下列链表和树之间的转换
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
//e指向p的下一个,该节点不为空,就比较当前位置的节点和新插入的节点的key值,如果相同,则跳出循环
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
//如果e不为空
if (e != null) { // existing mapping for key
//oldValue记录下e的value值
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
//e的value为新传进来的value
e.value = value;
//访问后回调
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
//如果实际大小大于阈值则扩容
if (++size > threshold)
resize();
//插入后回调
afterNodeInsertion(evict);
return null;
}
//resize函数
final Node<K,V>[] resize() {
//当前所有元素所在的数组,称为老的元素数组
Node<K,V>[] oldTab = table;
//oldCap记录下老的容量,如果老的元素数组 = null则oldCap = 0,否则就为老数组元素的长度
int oldCap = (oldTab == null) ? 0 : oldTab.length;
//oldThr记录下老的扩容阀值
int oldThr = threshold;
//创建新的容量newCap,创建新的扩容阈值newThr,赋值为0
int newCap, newThr = 0;
//如果oldCap > 0,说明已经存在元素
if (oldCap > 0) {
//如果老容量大于等于最大容量
if (oldCap >= MAXIMUM_CAPACITY) {
//扩容阀值设置为int最大值(2的31次方 -1)
threshold = Integer.MAX_VALUE;
//返回老的数组
return oldTab;
}
//如果老容量小于最大容量,大于等于默认初始容量,即数组元素个数在正常范围内,那么新的容量newCap为老的数组容量oldCap的2倍
//<< 1为算术左移1位,左移1位相当于乘以2
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
//新的扩容阈值newThr为老的扩容阈值oldThr的2倍
newThr = oldThr << 1; // double threshold
}
//如果oldCap = 0,说明里面没有元素
else if (oldThr > 0) // initial capacity was placed in threshold
//如果老的扩容阀值oldThr大于0,那么设置新的容量newCap为该阀值
newCap = oldThr;
//oldCap = 0并且oldThr = 0,使用缺省值(如使用HashMap()构造函数,之后再插入一个元素会调用resize函数,会进入这一步)
else { // zero initial threshold signifies using defaults
//设置新的容量为16
newCap = DEFAULT_INITIAL_CAPACITY;
//设置新数组扩容阀值为 16*0.75 = 12
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
//说明是这个else if (oldThr > 0){}存在的情况
if (newThr == 0) {
//计算得到新的阈值
float ft = (float)newCap * loadFactor;
//将得到的阈值赋给newThr
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
//经过以上这些情况之后,最终把newThr赋值给threshold,即设置扩容阀值为新的阀值
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
//创建新的数组(对于第一次添加元素,那么这个数组就是第一个数组;对于存在oldTab的时候,那么这个数组就是要需要扩容到的新数组)
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
//将table指向新的数组newTab
table = newTab;
//如果老的数组不为空,说明涉及到元素的移动
if (oldTab != null) {
//遍历老数组
for (int j = 0; j < oldCap; ++j) {
//创建一个Node结点
Node<K,V> e;
//如果当前位置元素不为空,那么需要设计到元素的移动
if ((e = oldTab[j]) != null) {
//释放掉老数组对于要转移走的元素的引用(主要为了使得数组可被回收)
oldTab[j] = null;
//如果元素没有下一个节点,说明该元素不存在hash冲突,则进行直接赋值
if (e.next == null)
//比如e的hash值为21没有进行扩容时容量为16,进行扩容之后的容量为32,以8位为例
//扩容前,21->00010101 16-1=15->00001111 00010101&00001111=5
//扩容后,21->00010101 32-1=31->00011111 00010101&00011111=21 增加了oldCap个长度
//hash & (newCap - 1)等同于hash%newCap
newTab[e.hash & (newCap - 1)] = e;
//如果该节点为TreeNode类型
else if (e instanceof TreeNode)
//就在树中添加节点
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
//进行到这步则e.next != null,如果该元素有下一个节点,那么说明该位置上存着个链表
else { // preserve order
//创建低位首尾节点指针 低位指的是新数组的0到oldCap-1
Node<K,V> loHead = null, loTail = null;
//创建高位收尾节点指针 高位指定的是oldCap到newCap-1
Node<K,V> hiHead = null, hiTail = null;
//创建next节点
Node<K,V> next;
do {
//让这个节点指针指向e的下一个节点
next = e.next;
//(e.hash & oldCap) == 0则说明该节点的位置不会发生变化
//比如e.hash=10->00001010 oldCap=16->00010000 e.hash&oldCap=0则位置不发生变化
if ((e.hash & oldCap) == 0) {
//如果尾节点指针为空
if (loTail == null)
//则e为低位链表的首节点,低位首节点指针指向e
loHead = e;
//如果尾节点指针不为空
else
//则e添加到低位链表的最后一个节点(尾节点)
loTail.next = e;
//让低位尾节点指针指向e
loTail = e;
}
//(e.hash & oldCap) == 1则说明该节点的位置发生变化
//比如e.hash=17->00010001 oldCap=16->00010000 e.hash&oldCap=1则位置发生变化
//新下标位置 = 原下标位置 + 老数组长度
//else语句解释同上,只不过添加到高位链表中
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);//然后e指向next,也就是下一个节点,如果不为空,继续循环
//如果低位链表尾节点指针不为空
if (loTail != null) {
//把低位链表尾节点的下一个赋为空
loTail.next = null;
//低位的元素组成的链表还是放置在原来的位置
newTab[j] = loHead;
}
//如果高位链表尾节点指针不为空
if (hiTail != null) {
//把高位链表尾节点的下一个赋为空
hiTail.next = null;
//高位的元素组成的链表放置的位置只是在原有位置上偏移了老数组的长度个位置
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
Hi, welcome to JasperのBlog!