HashMap不论是在工作还是面试中是都会遇见的,并且本身也是非常重要的,下面我们来看看其内部的真容。
一、整体轮廓
自己去看这类数据结构时,不论是map、set、list,首先去了解他们的存储的结构,自身的一些属性,相应的常用方法。那我们这里也是一样,首先把这三个方面过一眼。
1、数据存储方式
jdk1.8中的HashMap相比1.7中数据的存储方式发生了一些改变,下面这幅图就是1.8中HashMap的数据存储方式。
首先,数据在map中是通过节点对象来描述的,如果之前了解过List的应该能清楚节点的含义。在HashMap中有一个节点数组,这个就相当于原始的坑位,有数据存储时会根据相应的算法计算出这个节点对象该入几号坑。
但是这个算法在计算时,有可能下一个数据存储时会计算出的坑位里面已经有人了,那这个时候1.7和1.8就有区别了,1.7中则会以链表的形式将这个数据拼接在原来坑位中节点的后面,关联起来。在1.8中,同样也是会以链表的形式关联,但是链表过长的话会影响到查询速度,所以1.8就做了一个改变,当链表长度超过一个阈值时,就会将链表转换成红黑树结构,就是上面这幅图,提升查询速度。
所以,你会在1.8的HaspMap中看到两个节点类:
- Node:链表对应的节点类
static class Node<K,V> implements Map.Entry<K,V> {
final int hash;
final K key; // 数据的key
V value; // 保存实际数据:value
Node<K,V> next;
....
}
- TreeNode:红黑树对应的节点类,Node的子类
static final class TreeNode<K,V> extends LinkedHashMap.Entry<K,V> {
TreeNode<K,V> parent; // red-black tree links
TreeNode<K,V> left;
TreeNode<K,V> right;
TreeNode<K,V> prev; // needed to unlink next upon deletion
boolean red;
...
}
2、重要属性
/**
* 节点数组
*/
transient Node<K,V>[] table;
/**
* 初始的节点数组table的长度,默认16(值必须为2的整数幂)
*/
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
/**
* 节点数组table的最大长度,2^30次方
*/
static final int MAXIMUM_CAPACITY = 1 << 30;
/**
* 默认的加载因子,与数组扩容有关
*/
static final float DEFAULT_LOAD_FACTOR = 0.75f;
/**
* 链表树型化的阈值
*/
static final int TREEIFY_THRESHOLD = 8;
/**
* 树型结构转为链表的阈值(树型结构中长度小于这个值时又会转成List)
*/
static final int UNTREEIFY_THRESHOLD = 6;
/**
* 需要树型化时table的最小容量(长度)
*/
static final int MIN_TREEIFY_CAPACITY = 64;
/**
* table发生扩容的阈值
*/
int threshold;
/**
* table发生扩容的阈值
*/
/**
* 加载因子(上面有个默认的,是静态属性)
*/
final float loadFactor;
上面这些属性待会再后面会一一涉及到。
3、主要方法
- 构造方法
- get()
- put()
- resize()
二、源码分析
1、初始化
最常见的构造方法HashMap()中只是对loadFactor进行了赋值0.75。后两个构造函数可以自定义table的初始容量和加载因子。
public HashMap() {
this.loadFactor = DEFAULT_LOAD_FACTOR; // 初始化加载因子0.75
}
public HashMap(int initialCapacity) {
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
public HashMap(int initialCapacity, float loadFactor) {
// 首先判断初始容量和加载因子是否
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor; // 初始化加载因子,传入的值
this.threshold = tableSizeFor(initialCapacity); // 计算出数组扩容的容量
}
/**
* ,例如3->4,7->8,8->8
*/
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
在第三个构造方法中有个tableSizeFor()方法,这个方法是在自己指定table初始容量时,通过传入的自定义容量,计算出扩容的临界值,且是满足2的整数幂中的最小值,为什么是2的幂次方,这个主要跟后面计算key的位置所采用的算法有关。这里可以看到三个构造方法都没有初始化table,都是在第一次插入数据时才会初始化table。
2、put方法
插入数据时,这里面涉及到了数据存放位置的计算、链表与树的转换、数组的扩容。这里以
public V put(K key, V value) {
// 计算出key的hash值,调用putVal方法,这里是通过定义得hash()方法进行处理后得到hash值
return putVal(hash(key), key, value, false, true);
}
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
if ((tab = table) == null || (n = tab.length) == 0) // // 通过上面构造方法的阅读我们知道,第一次存入数据时table为null
n = (tab = resize()).length; // 所以会执行resize()方法初始化table
// 当不是第一次存入数据时,会结合key的hash值计算位置(下标),
// (n - 1) & hash相当于就是取模,n就是table的长度,在上个if中赋值的
if ((p = tab[i = (n - 1) & hash]) == null)
// 如果当前位置为null,则可将数据直接放到table的这个位置
tab[i] = newNode(hash, key, value, null);
else { // 当前位置不为null
Node<K,V> e; K k;
// p就是当前位置table中已存在的节点
// 首先判断插入的key跟当前list或者tree的根节点(p)的key是否相同
// 这里判断了相同的依据是两个key的hash值、地址、以及文本值
// 如果key相同了,就会将新的value数据覆盖原来的,不去创建新节点了(在最下面那个if中处理的)
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
else if (p instanceof TreeNode) // 否则判断是否为树的节点类型,是则添加到树中,同样也会判断key时候存在,存在就会返回对应节点,然后在下面替换value
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
// 最后如果不是树型的节点,那就说明是list,遍历list将数据插入list的尾部,同样也会判断key时候存在
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
// binCount = 7时,相当于当前list长度为8了
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash); // 这里就会将链表转换成红黑树,但是还有个条件就是table长度要>=64,否则就回去扩容table,在扩容的时候会重新打散节点计算位置,这样相当于降低了list或者树的深度,比直接转换成树查询效率更高
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
// 如果key相同了,就会将新的value数据覆盖原来的
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
// 如果当前table数组存在的节点(不是总的节点,list或者树中)的达到了扩容的阈值,则会进行数组扩容
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
hash()
这个方法主要就是将key的hash值做了进一步的处理,为了降低存入数据时位置的冲突
static final int hash(Object key) {
int h;
// 原本hash跟hash右移16位进行异或
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
treeifyBin()
将list转换成树
final void treeifyBin(Node<K,V>[] tab, int hash) {
int n, index; Node<K,V> e;
// 这里table的长度如果小于MIN_TREEIFY_CAPACITY(64)是不会转换成树,直接扩容
if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)
resize();
else if ((e = tab[index = (n - 1) & hash]) != null) {
// ....
}
}
resize()
数组扩容的方法,这里面会将table的容量翻倍,同时扩容的阈值也是翻倍,当扩容是table中有节点,会重新分配节点的位置
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
// 当table不为null扩容时,newCap = oldCap << 1表示扩容为原来2倍
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // 阈值翻倍
}
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
else {
// 还记得在第一次存入数据时调用过当前方法,那这里就会执行这个else,上面两个判断都不满足
newCap = DEFAULT_INITIAL_CAPACITY; // 默认容量16
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); // 扩容阈值0.75*16=12
}
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr; // 赋值新的扩容阈值
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap]; // 创建节点数组
table = newTab; // 赋值给table
// 这里就是在table不为空时扩容,下面就会重新计算节点的位置
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
3、get
分析了put方法后,get方法就非常简单了,里面还是通过相同的算法计算key的目标位置,然后加以判断,从而获取数据
public V get(Object key) {
Node<K,V> e;
// hash(key)还是计算key的hash值
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
// key相同就返回对应节点对象
final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
// table不为空
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
// first = tab[(n - 1) & hash,通过(n-1)&hash获取位置,得到table对应位置的节点
if (first.hash == hash && // 先判断第一个
((k = first.key) == key || (key != null && key.equals(k))))
return first;
if ((e = first.next) != null) { // 接着判断后面的节点树的或者list的
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
do {
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}
三、总结
- 创建HaspMap对象时,不会初始化table数组,当有指定加载因子或者初始容量时,会计算出符合要求的初始容量
- 存入数据时,根据特定算法计算出在table中位置,然后判断key是否相等,并且存入时list长度等于8并且table长度>=64时,才会将list转换成树,否则进行table扩容
- table扩容为原来2倍,扩容阈值也会进行变大