之前也看了很多关于HashMap的博客,但是看了没多久也会忘,所以呢根据自己的理解记录一下HashMap。
这里主要是讲解的JDK1.8版本的。
讲解HashMap之前需要了解一下数组和链表的优劣势。
散列表(也叫哈希表)整合了数组和链表的优势。
关于哈希,基本原理就是把任意长度的输入,通过Hash算法变成固定长度的输出。
首先看看HashMap的底层存储结构:数组 + 链表 + 红黑树
注意点:
当Hash表中的所有元素超过64时,在某一个链上节点>8才会转化为红黑树。
红黑树节点个数<6转化为链表。
HashMap的put过程流程图,首先展示的是一个比较形象容易理解的图:
也可以根据下面的流程图进行理解:
判断数组是否为空,为空进行初始化;
不为空,计算 k 的 hash 值,通过(n - 1) & hash计算应当存放在数组中的下标 index;
查看 table[index] 是否存在数据,没有数据就构造一个Node节点存放在 table[index] 中;
存在数据,说明发生了hash冲突(存在二个节点key的hash值一样), 继续判断key是否相等,相等,用新的value替换原数据(onlyIfAbsent为false);
如果不相等,判断当前节点类型是不是树型节点,如果是树型节点,创造树型节点插入红黑树中;
如果不是树型节点,创建普通Node加入链表中;判断链表长度是否大于 8, 大于的话链表转换为红黑树;
插入完成之后判断当前节点数是否大于阈值,如果大于开始扩容为原数组的二倍。
关于HashMap扩容,是为了提高查询效率,以空间换时间。
OK,概念说了一部分,开始记录源码啦!
先讲解以下HashMap中的常量:
//默认的初始容量-必须为2的幂。
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
//最大容量
static final int MAXIMUM_CAPACITY = 1 << 30;
//默认负载因子
static final float DEFAULT_LOAD_FACTOR = 0.75f;
//树化阈值
static final int TREEIFY_THRESHOLD = 8;
//树降级称为链表的阈值
static final int UNTREEIFY_THRESHOLD = 6;
//树化的另一个参数,当哈希表中的所有元素超过64时,才会允许树化
static final int MIN_TREEIFY_CAPACITY = 64;
HashMap核心属性:
//哈希表
transient Node<K,V>[] table;
//当前哈希表中元素个数
transient int size;
//当前哈希表结构修改次数
transient int modCount;
//扩容阈值,当哈希表中的元素超过阈值时,触发扩容
//threshold = capacity * loadFactor
int threshold;
//哈希表中的负载因子
final float loadFactor;
再来讲解HashMap的构造方法,这是从官网上截取的:
这里主要讲解含有两个参数的构造方法:
public HashMap(int initialCapacity, float loadFactor) {
//其实就是一些校验
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor;
this.threshold = tableSizeFor(initialCapacity);
}
/**
* 作用:返回一个大于或等于当前值cap的一个数字,并且这个数字是2的次方数
* 假设:
* cap = 10
* n = 10 - 1 => 9
* 0b1001 | 0b0100 => 0b1101 (或运算,只要有1就得1)
* 0b1101 | 0b0011 => 0b1111
* 0b1111 | 0b0000 => 0b1111
* 0b1111 => 15
* return 15 + 1;
*/
static final int tableSizeFor(int cap) {
int n = cap - 1; //如果不减1,就会得到比想要的数字大一倍。
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
再来讲解put()方法:
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
/**
* 作用:hash函数是先拿到通过key 的hashcode,是32位的int值,然后让hashcode的高16位和低16位进行异或操作。
* 异或(^):相同则返回0,不同则返回1
*
*/
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
//tab:引用当前HashMap的散列表
//p:表示当前散列表的元素
//n:表示散列表数组的长度
//i:表示路由寻址结果
Node<K,V>[] tab; Node<K,V> p; int n, i;
//延迟初始化逻辑,第一次调用putVal时会初始化HashMap对象中最耗费内存的散列表
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
//最简单的一种情况:寻址找到的桶位刚好是null,这个时候直接讲当前k-v封装成node直接扔进去就可以了
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
//e:不为null的话,找到了一个与当前要插入的key-value一致的key元素
//k:临时的一个key
Node<K,V> e; K k;
//表示桶位中的该元素,与你当前插入的元素的key完全一致,表示后续需要进行替换操作
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
//树化
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
//链表情况,而且链表的头元素与我们要插入的key不一致
for (int binCount = 0; ; ++binCount) {
//条件成立的话,说明迭代到链表的最后一个元素了,也没有找到一个与要插入的key一致的node
//说明需要加入到当前链表的末尾
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
//条件成立的话,说明当前链表的长度,达到树化的标准了,需要进行树化
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
//树化操作
treeifyBin(tab, hash);
break;
}
//条件成立的话,说明找到了相同的key的node元素,需要进行替换操作
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
//e不等于null,条件成立的话,说明找到了与插入元素key完全一致的数据,需要进行替换操作
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
//modCount:表示散列表结构被修改的次数,替换Node元素的value不计数
++modCount;
//插入新元素,size自增,如果自增后大于扩容的阈值,则触发扩容
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
hash函数为什么要这样设计呢?
也叫扰动函数,这么设计有二点原因:
一定要尽可能降低hash碰撞,越分散越好;
算法一定要尽可能高效,因为这是高频操作, 因此采用位运算;
开始讲解扩容机制:
扩容的作用:为了解决哈希冲突导致的链化影响查询效率的问题,扩容会缓解该问题
//扩容的作用:为了解决哈希冲突导致的链化影响查询效率的问题,扩容会缓解该问题
//未扩容之前,查询时间有O(1)变为 O(n)
final Node<K,V>[] resize() {
//oldTab:引用扩容前哈希表
Node<K,V>[] oldTab = table;
//oldCap:表示扩容之前table数组的长度
int oldCap = (oldTab == null) ? 0 : oldTab.length;
//oldThr:扩容之前的扩容阈值,触发本次扩容的阈值
int oldThr = threshold;
//newCap:扩容之后table数组的长度
//newCap:扩容之后,下次触发扩容的条件
int newCap, newCap = 0;
//条件如果成立,说明HashMap中的散列表已经初始化过了,是一次正常扩容
if (oldCap > 0) {
//扩容之前的table数组大小已经达到最大阈值后,则不扩容,其设置扩容条件为int的最大值
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
//oldCap << 1:表示oldCap左移一位,大小翻倍
//newCap小于数组的最大限制,并且扩容之前的阈值>=16
// 如果条件成立,下一次扩容阈值 = 当前阈值翻倍;
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
//oldThr == 0,说明HashMap中的散列表是null
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
//oldThr == 0
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
//创建出一个更长更大的数组
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
//说明HashMap本次扩容之前,table不为null
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
//当前Node节点
Node<K,V> e;
//说明当前桶位中有数据,但是数据具体是单个数据,是链表还是红黑树并不知道
if ((e = oldTab[j]) != null) {
//方便JVM GC时回收内存
oldTab[j] = null;
//第一种情况:当前桶位只有一个元素,从未发生过碰撞,这种情况直接计算出当前元素应存放在新数组中的位置,直接放进去进行了
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
//第二种情况,当前节点已经树化
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
//第三种情况:桶位已经形成链表
else { // preserve order
//低位链表(01111):存放在扩容之后的数组的下标位置,与当前数组下标位置一样
//hash & (16-1) => 1111 => 15 (hash中后四位一定是1111,第五位有可能是0,也有可能是1)
Node<K,V> loHead = null, loTail = null;
//高位链表(11111):存放在扩容之后的数组的下标位置,为当前数组下标位置 + 扩容之前的数组长度
//可以参考下面的扩容图
Node<K,V> hiHead = null, hiTail = null;
//表示当前链表的下一个元素
Node<K,V> next;
do {
next = e.next;
//hash => ....1 1111
//hash => ....0 1111
//oldCap的值可能是0b 10000
//该条件表示当前元素要放在低位链中
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
//如果不为0表示当前元素要放在高位链中
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
//表示低位链表有数据
if (loTail != null) {
loTail.next = null;
//将数据存放到扩容后的新数组中
newTab[j] = loHead;
}
//表示高位链表有数据
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
再来分析get()方法:
public V get(Object key) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
final Node<K,V> getNode(int hash, Object key) {
//tab:引用当前HashMap的散列表
//first: 桶位中的头元素
//e: 临时Node元素
//n: table数组长度
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
//第一种情况:定位出来的桶位元素,即为要get的数据
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
return first;
//说明当前桶位不止一个元素,可能是链表,也可能是红黑树
if ((e = first.next) != null) {
//第二种情况:桶位升级为红黑树
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
//第三种情况:桶位形成链表
do {
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}
再来分析remove()方法:
public V remove(Object key) {
Node<K,V> e;
return (e = removeNode(hash(key), key, null, false, true)) == null ?
null : e.value;
}
/**
* Implements Map.remove and related methods
*
* @param hash hash for key
* @param key the key
* @param value the value to match if matchValue, else ignored
* @param matchValue if true only remove if value is equal
* @param movable if false do not move other nodes while removing
* @return the node, or null if none
*/
final Node<K,V> removeNode(int hash, Object key, Object value,
boolean matchValue, boolean movable) {
//tab:引用当前HashMap的散列表
//p: 当前node元素
//n: 表示散列表数组长度
//index: 表示寻址结果
Node<K,V>[] tab; Node<K,V> p; int n, index;
//说明路由的桶位是有数据的,需要进行查找操作,并且删除
if ((tab = table) != null && (n = tab.length) > 0 &&
(p = tab[index = (n - 1) & hash]) != null) {
//node: 查找到的结果
//e: 当前Node的下一个元素
Node<K,V> node = null, e; K k; V v;
//第一种情况:当前桶位中的元素即为要删除的元素
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
node = p;
//说明当前桶位要么是链表,要么是红黑树
else if ((e = p.next) != null) {
//判断当前桶位是否升级为红黑树
if (p instanceof TreeNode)
//第二种情况:红黑树查找操作
node = ((TreeNode<K,V>)p).getTreeNode(hash, key);
else {
//第三种情况:链表查找
do {
if (e.hash == hash &&
((k = e.key) == key ||
(key != null && key.equals(k)))) {
node = e;
break;
}
p = e;
} while ((e = e.next) != null);
}
}
//判断node不为空的话,说明按照key查找到需要删除的数据了
if (node != null && (!matchValue || (v = node.value) == value ||
(value != null && value.equals(v)))) {
//第一种情况:node是树节点,需要进行树节点的操作
if (node instanceof TreeNode)
((TreeNode<K,V>)node).removeTreeNode(this, tab, movable);
//第二种情况:桶位元素即为查找结果,则将该元素的下一个元素放至桶位中
else if (node == p)
tab[index] = node.next;
//第三种情况:将当前元素p的下一个元素设置成要删除的下一个元素
else
p.next = node.next;
++modCount;
--size;
afterNodeRemoval(node);
return node;
}
}
return null;
}
有关HashMap的讲解基本上就到这里,其中里面有关于红黑树的内容,也会单独进行讲解。当然HashMap也涉及·了其他的东西,比如ConcurrentHashMap,也会进行记录。