这一篇开始,我们进入集合中map的学习。我们首先从HashMap开始。
源码中的介绍
一样的套路,一样的开始,我们从HashMap源码中介绍开始,值得一说的是,笔者使用的是8版本的jdk,所以一下是jdb1.8中HashMap的介绍。
-
基于哈希表的map接口实现,这个实现停工了map的所有可选操作,并且允许null的value以及null的key。HashMap类大致相当于Hashtable除了他不是同步的以及允许null。这个类对他其中存储的元素的顺序没有保证,特别的是,他不保证顺序随着时间的推移保持不变。
-
假定散列函在桶之间正确的分散元素则HashMap能提供恒定时间性能表现对于基础操作:get、put。对此集合进行迭代操作所需要的时间与这个HashMap实例的容量加上这个HashMap的键值对数量成正比,所以如果迭代性能很重要的情况下,不要讲初始容量设置的太高或者将负载因子设置的太低。
-
两个参数影响HashMap的性能,初始容量以及负载因子,容量是指哈希表的桶的容量,在下面中我们会讲解什么是桶。初始容量就简单的值哈希表创建的时候的容量。负载因子则是一个度量代表哈希表多满的时候进行扩容。当哈希表中entries的数量即键值对的数量大于当前容量与负载因子的乘积时,哈希表进行rehashed,即重建内部数据结构,扩容后的桶数量时扩容前的两倍。
-
默认的增长因子的数值为0.75。这个数值在时间与空间上做了一个很好的权衡,更高的值会增加空间利用率,但是会降低查询性能。
-
如果需要存储很多数量的键值对,那么创建一个初始容量大的哈希表所表现出来的性能要比让其自动扩容到需要的大小的哈希表的性能好。当然,使用很多hashcode一样的key同样也会降低HashMap的性能。
-
HashMap不是同步的,当有多个线程并发读取并且至少有一个线程对其进行了结构更改,那么必须要做额外的加锁操作。可以使用以下方法进行加锁: Map m = Collections.synchronizedMap(new HashMap(...));
-
这个类中返回的所有迭代器(Iterator)都是快速失败机制的。如果在迭代器创建后,这个map结构发生改变,则调用iterator的next与hasNext方法会尽最大努力抛出ConcurrentModificationException。因此在面对并发修改时,迭代器干净而快速的失败。
-
值得一说的是,在这个版本中HashMap中加入了红黑树,当一个桶中键值对的数量大于8时,会进行树化操作。我们会在下面的章节中讲解。
存储结构
HashMap在未树化前的存储结构如下图:
由图可以看出,存储结构是数组+链表的形式。
HashMap树化后的存储结构如下图:
可以看出,数组中存储的是每棵树的root。
现在我们来看一下两种不同的存储结构的节点源码:
这个是未树化前的节点结构
这个是树化后的节点结构
为什么要引入红黑树
现在咱们来探讨一下,为什么java8要引入红黑树,我们仔细观察未树化前的HashMap的存储结构,当我们有许多hashCode相同的key要插入到HashMap中时会发生什么情况呢? 我们知道,HashMap在存储的时候会根据hashcode去计算出数组中的索引,然后将这个键值对插入到数组这个索引的链表里。我们再来想一下HashMap的查询顺序,我们需要先计算出hashcode定位到数组的某一个桶即某一个索引。之后我们迭代查询对比key,之后返回结果。所以,当有大量hashcode相同的key插入到红黑树中时,这个链表就会变得特别长,长到HashMap的查找操作几乎变成线性的,如下图:
这种情况下,查询的速度将堆大大降低,所以在此引入了树的概念,那么为什么是红黑树呢?因为直接使用二叉搜索树的话也会出现极端情况,如下:
这样导致的结果依然改善hashcode碰撞几率大情况下,HashMap的查询性能。而使用红黑树则可以改善这种情况,因为红黑树有良好的自平衡性质,不会出现如上图所示的情况,并且能将查询速度控制在log(n)上。
基本操作中看原理
我们根据put方法去查看HashMap的存储机制:
其中的这个putVal就是关键了,我们看看他的源码:
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
复制代码
其中我们可以很清晰的看到HashMap计算hash值的代码如下:
他通过这个计算出改key应该处于哈希表中的哪一个桶中即哪一个索引上。 之后又根据判断投链表中是否已有这个Key或者这个链表的头结点是不是树类型的节点,来进行后面的操作。判断的代码如下:
如果已存在根据onlyIfAbsent来决定是否更新,如果不存在,则判断是不是树类型的节点来进行操作,是的话,调用putTreeVal方法,不是的话,则迭代链表进行查询是否已有此key,并且根据binCount来记录链表中元素个数,当binCount超过TREEIFY_THRESHOLD(默认为8)时将此链表进行树化。
扩容机制
我们先从构造函数说起:
我们可以看到,在构造函数中,我们并没有直接使用initialCapacity,而是使用了tableSizeFor来进行了一次计算并设置了threshold的值即下一次扩容时的阈值。我们来看一下tableSizeFor这个方法:
看注释是返回给定目标容量的最接近的2的幂数,这句话翻译不如直接看结果,我们把代码沾出来跑一下:
运行结果如下:
可以看出这个函数是根据初始容量来讲下一个扩容的阈值调整为2`n。那么这么调整有什么用呢?为什么扩容阈值必须是2的幂呢?这个我们后面就会讲到。
现在我们正式开始探讨HashMap的扩容机制,我们在上一节中粘了putVal的代码,并且注意到,当table即HashMap数组的大小为0或者,增加元素后,size的大小大于threshold的大小时会进行扩容,其实不管设置初始容量为多大,在进行第一次插入的时候都会进行一次扩容。这个可以在源码中体现出来。我们现在看看肉resize()这个方法:
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
复制代码
在这个方法的注释上,是这么解释的,初始化或者将table的size加倍。如果table为null,则根据threshold中的值进行分配,否则,因为我们正在使用二次幂扩展,所以每个bin中的元素必须保持相同的索引,或者在新表中以两个偏移的幂移动。那么这句话是啥意思呢,别急,快讲到了。
先看看这个resize()干了点啥,首先resize方法先根据旧的数组的大小计算出新的数组的大小,然后根据新的容量以及负载因子计算出新的阈值。 我们知道数组不能动态调整大小,所以只能是重新生成一个数组,并对新数组进行操作,resize方法计算完新的容量与新的阈值后就开始了这一步骤。
在进行旧数组对新数组的复制时,由于容量是double增长,所以,原来在一个bucket中也就是一个索引中的一个链表将拆分成两个分别分配到新的数组中不同的索引也就是不同的bucket中。如果这个链表的长度为1也就是只有一个节点则根据新的容量直接计算新的索引,并将此节点直接放到计算出的索引位置。
如果此链表是红黑树的话则进行相应的分裂函数,并将一棵树分裂成两颗分配到对应的两个索引位置。
那旧的索引里的应该分配到哪两个索引位置呢?其实在注解中都说了,应该分配到旧的索引位置,以及旧的索引位置+旧的容量的索引位置处。如下图:
扩容后:
可以发现原来在某个索引index上的节点被分到 index与index+oldCap的2索引上。
那在HashMap中这种分配是怎么实现的呢?我们继续研究:
在这里的代码中,我们发现HashMap通过元素的hash值&oldCap是否等于0来将进行分割。
回到前面的问题,容量为什么是2的n次方呢?当我们利用一个hash码去求一个数组的索引,一般都是hash%length,也就是取余数的方式,而当这个length为2的n次方时 hash&(length-1) = hash % length,并且按位运算比较快,所以这就是为什么容量是2的n次方的原因。
总结
-
HashMap底层存储结构是数组+链表 当链表的长度超过8则会进行树化,转换成数组+红黑树的存储形式,当链表长短少于6时会有红黑树转回链表。
-
HashMap扩容后,容量为原来的二倍,旧的索引位置上的链表会被分成两份存放在新数组的这个索引位置以及这个索引加上旧的容量的索引位置处。
-
HashMap的特点就是高性能,查询与存取性能都是高效的。缺点是元素无序。不是同步的。
-
存入某键值对时的顺序是根据hashCode获得索引位置,之后调用equals方法进行比较。