今日闲来无事,撸了一把jdk 1.8HashMap源码的源码,随手记录一番,便于后期复习也可以更好的消化吸收,如果有理解不周,不吝赐教。如果对 集合上不太了解的同学可以先参考助力掌握常用Java集合了解一波,希望你有所收获。本文从HashMap的一些重要参数说起。
-
HashMap重要参数
/**
* The default initial capacity - MUST be a power of two.
* 默认的初始化容量,必须是2的整数倍,默认16,也就是默认会创建 16 *个箱子,箱子的个数不能太多或太少。如果太少,很容易触发扩容,如果太多,遍历哈希表会比较慢。
*/
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
/**
*最大容量为2的30次方,一般情况下只要内存够用,哈希表不会出现问题。
*/
static final int MAXIMUM_CAPACITY = 1 << 30;
/**
*默认的负载因子。因此初始情况下,当键值对的数量大于 16 * 0.75 = 12 时,就会触发扩容
*/
static final float DEFAULT_LOAD_FACTOR = 0.75f;
/**
*上文说过,如果哈希函数不合理,即使扩容也无法减少箱子中链表的长度,因此 Java *的处理方案是当链表太长时,转换成红黑树。这个值表示当某个箱子中,链表长度大于 8 *时,有可能会转化成树。
*/
static final int TREEIFY_THRESHOLD = 8;
/**
* 在哈希表扩容时,如果发现链表长度小于 6,则会由树重新退化为链表。
*/
static final int UNTREEIFY_THRESHOLD = 6;
/**
* 在转变成树之前,还会有一次判断,只有键值对数量大于 64 *才会发生转换。这是为了避免在哈希表建立初期,多个键值对恰好被放入了同一个链表中而导致不必要的*转化。
*/
static final int MIN_TREEIFY_CAPACITY = 64;
这里面有些参数比如说为要设置为2的整数倍,为什么负载因子达到8的时候要转为红黑树等等,勿急,会在下文介绍。
这里面有两个参数影响HashMap性能:初始容量和加载因子。默认初始容量是16,加载因子是0.75。容量是哈希表中桶(Entry数组)的数量,初始容量只是哈希表在创建时的容量。加载因子是哈希表在其容量自动增加之前可以达到多满的一种尺度。当哈希表中的条目数超出了加载因子与当前容量的乘积时,通过调用 rehash 方法将容量翻倍。
-
HashMap构造方法
HashMap的构造方法有以上四种一、二、四都比较简单,点进去看一下就明白了,重要点来分析一下第三种构造方法。毕竟,上面也写道初始容量和加载因子两个参数会影响HashMap性能,细谈究竟怎样影响的。
/**
* Constructs an empty <tt>HashMap</tt> with the specified initial
* capacity and load factor.
* 根据初始化容量和加载因子构造一个空的HashMap
* @param initialCapacity the initial capacity
* @param loadFactor the load factor
* @throws IllegalArgumentException if the initial capacity is negative
* or the load factor is nonpositive
*/
public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
//如果入参初始化容量大于设定的最大值,就将其设置为最大值。
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor;
this.threshold = tableSizeFor(initialCapacity);
}
主要为初始化容量和负载因子进行初始化,仔细阅读发现这段并不难,但是我们到结尾处发现为初始化容量赋值的是tableSizeFor()的返回值,那它又对我们传入参数initialCapacity做了什么操作呢???
-
细究tableSizeFor()
//初始化临界值的具体实现
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;//现将n无符号右移1位,并将结果与右移前的n做按位或操作,结果赋给n;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
//中间过程的目的就是使n的二进制数的低位全部变为1,比如10,11变为11,100,101,110,111变为
111;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
看到这里,想大家都明白了吧,这个方法在结果上的体现就是,检查所传的参数是否为2的幂次方,且不能为负数(负数变为1),且不能超过常量MAXIMUM_CAPACITY(超过变为MAXIMUM_CAPACITY),如果不为2的幂次方,将其变为,比cap大的最小的2的幂。为什么变为2的次幂而不是直接设置为我们传入的值呢?同样,勿急(?),会在下文有详细说明。
这边我们来分析下上述代码的详细过程
先来分析有关n位操作部分:先来假设n的二进制为01xxx...xxx。接着
对n右移1位:001xx...xxx,再位或:011xx...xxx
对n右移2为:00011...xxx,再位或:01111...xxx
此时前面已经有四个1了,再右移4位且位或可得8个1
同理,有8个1,右移8位肯定会让后八位也为1。
综上可得,该算法让最高位的1后面的位全变为1。
最后再让结果n+1,即得到了2的整数次幂的值了。
现在回来看看第一条语句:
int n = cap - 1;
让cap-1再赋值给n的目的是另找到的目标值大于或等于原值。例如二进制1000,十进制数值为8。如果不对它减1而直接操作,将得到答案10000,即16。显然不是结果。减1后二进制为111,再进行操作则会得到原来的数值1000,即8。
这种方法的效率非常高,可见Java8对容器优化了很多,很强。
上面是初始化过程,接下来我们进行重头戏,上面遗留的问题也会在这里有彩蛋,仔细阅读,结合代码效果更佳。
-
HashMap的put过程
废话不多说,直接上代码,有详细注解,仔细寻找彩蛋吆,也有面试官喜欢问的一些问题也有体现,为了节约大家的时间,偷偷提示下注释拓展下面都是面试官喜欢问的奥。
HashMap的put过程
**
* Associates the specified value with the specified key in this map.
* If the map previously contained a mapping for the key, the old
* value is replaced.
*将key和value联系起来,如果map包含一个映射关于这个key,旧的值将会被替换
*
* @param key key with which the specified value is to be associated
key联系了一个确定的值
* @param value value to be associated with the specified key
值被联系到一个确定的key
* @return the previous value associated with <tt>key</tt>, or
* <tt>null</tt> if there was no mapping for <tt>key</tt>.
* (A <tt>null</tt> return can also indicate that the map
* previously associated <tt>null</tt> with <tt>key</tt>.)
* 返回先前key关联的值,如果key之前没有映射返回一个null值
*
*
*/
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
/**
* Implements Map.put and related methods.
*
* @param hash hash for key
* key的hash值
* @param key the key
* key
* @param value the value to put
* 被put的值
* @param onlyIfAbsent if true, don't change existing value
* 如果为真,不改变存在的值
* @param evict if false, the table is in creation mode.
* 如果为false,表处于创建过程中
* @return previous value, or null if none
* 返回以前的值,如果没有返回null
*/
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab;//hash表
Node<K,V> p; //解决hash冲突链表
int n, i;
//如果表为null或者表的长度为0,进行resize()扩容,并将其长度赋给n
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
/*hash值和hash表长度减一进行&运算
*拓展:
*为什么要和tab-1进行&运算
*1>效率问题
*在底层的执行效率而言来说:加减法>乘除法>%运算 由此可见%运算效率极低,所以采用&运算
*2>
*数组越界问题
*hash值和n-1进行&运算,它的取值范围只会在0~n-1之间
*举例:
*hash: 5634276829768796
*tab初始化长度为16 则:n-1为15
*n-1二进制:0000 0000 0000 1111
* 10011100010111110111011010111111101111011000110 0011 0101 0100 1100
* &运算 前面均为0 0000 0000 0000 1111
* 结果: 只与后四位有关:要么为全0要么为全1,保证了数据越问题
**/
if ((p = tab[i = (n - 1) & hash]) == null)
//如果tab[i]为空,说明没有hash冲突,直接插入即可
tab[i] = newNode(hash, key, value, null);
else {
//有hash冲突
Node<K,V> e; K k;
/**
*1)进行当前hash值和传入的hash值是否相等并且判断他们的key值是否相等
*2)判断传入key值是否为空并且判断当前key和传入key是否相等
*两条件若满足其一说明,当前节点key和传入的key值发生hash冲突
*将这个当前节点赋值给变量Node<K,V> p;
*
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
/**
*扩展:
*由于jdk1.8引入红黑树的数据结构
*why:
*解决链表的缺点:
*如果链表长度过长,查找元素效率低,引入红黑树提高查找效率
*
*判断当前节点是否是树节点,插入红黑树
**/
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
//说明是链表,for循环找到最后一个节点,进行插入
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
/**
*如果链表长度超过设置的阈值,将链表转为红黑树,默认为8
*扩展:
*为什么设置为8呢?
*这里面涉及到一个概率问题,设计人员根据大量的测试发现插入的元素进入
*同一个桶的概率符合泊松分布(自行百度了解,不做概述),当链表长度达到
*8的时候几乎不会再有元素进入桶中,除非数据量特别大的情况下。
*所以说,在数据量不是特别大的情况下,引入红黑树进行优化链表的一些缺点,
*并没有提升很大的效率。
**/
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
//转化为红黑树
treeifyBin(tab, hash);
break;
}
//判断当前插入的值是否存在,如果存在跳出当前循环
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
//当节点不为空的时候说明有key有映射(对应值)
if (e != null) { // existing mapping for key
V oldValue = e.value;
//当值为空时直接插入
if (!onlyIfAbsent || oldValue == null)
e.value = value;
//这个方法是为子类LinkedHashMap服务的,保证元素的插入顺序
afterNodeAccess(e);
return oldValue;
}
}
//modCount记录被修改的次数
++modCount;
/**
*拓展
*如果数组长度大于数组扩容的阈值(默认为加载因子*默认数组长度),进行扩容
*加载因子loadFactor:默认为0.75
*加载因子为什么设为0.75?
*假如说加载因子设为0.5,空间利用率低,会减少hash冲突,提高查询效率,节省查找时间
*假如说加载因子设为1,空间利用率会提高,但相应hash冲突会增加,增加时间复杂度
*所以说出于时间和空间的综合考虑最终定为0.75
*/
if (++size > threshold)
resize();
//这个方法是为子类LinkedHashMap服务的,用来回调移除最早放入Map的对象
afterNodeInsertion(evict);
return null;
}
好了HashMap的put方法我们就看到这里,里面都有详细注解,可能闲余时间会对重要问题进行总结,后补。
接下来我们看看HashMap的一个扩容问题,在jdk1.7中我们都知道在并发情况下,HashMap会出现循环链表问题,是线程不安全的,jdk1.8对其进行了优化,是如何优化的呢?仔细阅读下文源码,关于jdk1.7的循环链表问题,自行百度,这里不做称述,后期如有空闲再来分享。
再来看看在put过程中它是如何计算hash值的
-
HashMap中hash(Object key)的原理
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
相信基本都能看懂,是不是很简单,但是估计知道这一步(h = key.hashCode()) ^ (h >>> 16)原因的人很少。
首先这个方法的返回值还是一个哈希值。为什么不直接返回key.hashCode()呢?还要与 (h >>> 16)异或。
讲到这里还要看一个方法indexFor,在jdk1.7中有indexFor(int h, int length)方法。jdk1.8里没有,但原理没变。下面看下1.7源码
1.8中用tab[(n - 1) & hash]代替但原理一样。
static int indexFor(int h, int length) {
return h & (length-1);
}
这个方法返回值就是数组下标。我们平时用map大多数情况下map里面的数据不是很多。这里与(length-1)相&,
但由于绝大多数情况下length一般都小于2^16即小于65536。所以return h & (length-1);结果始终是h的低16位与(length-1)进行&运算。如下例子(hashcode为四字节)
例如1.
length = 8; (length-1) = 7;转换二进制为111;
hashcode = 78897121 转换二进制:100101100111101111111100001
0000 0100 1011 0011 1101 1111 1110 0001
&运算
0000 0000 0000 0000 0000 0000 0000 0111
= 0000 0000 0000 0000 0000 0000 0000 0001 (就是十进制1,所以下标为1)
由于和(length-1)运算,length 绝大多数情况小于2的16次方。所以始终是hashcode 的低16位参与运算。要是高16位也参与运算,会让得到的下标更加散列。
所以这样高16位是用不到的,如何让高16也参与运算呢。所以才有hash(Object key)方法。让他的hashCode()和自己的高16位^运算。所以(h >>> 16)得到他的高16位与hashCode()进行^运算。
重点来了,为什么用^:因为&和|都会使得结果偏向0或者1 ,并不是均匀的概念,所以用^。
这就是为什么有hash(Object key)的原因。
-
HashMap的resize()方法
resize()扩容
/**
* Initializes or doubles table size. If null, allocates in
* accord with initial capacity target held in field threshold.
* Otherwise, because we are using power-of-two expansion, the
* elements from each bin must either stay at same index, or move
* with a power of two offset in the new table.
*
*初始化或者将表加倍也就是扩展为原来的两倍。
*如果表是空的,通过初始化容量来设置一个符合阈值的初始化表
*否则,就进行二倍扩展
*
* @return the table
*/
final Node<K,V>[] resize() {
//将当前表赋值给oldTab
Node<K,V>[] oldTab = table;
//oldCap:扩展前表的容量
int oldCap = (oldTab == null) ? 0 : oldTab.length;
//oldThr:扩展前表的加载因子
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {//扩容前的数组大小如果已经达到最大(2^30)了
threshold = Integer.MAX_VALUE;//修改阈值为int的最大值(2^31-1),这样以后就不会扩容了
return oldTab;
}
/**
*没超过最大值,就扩充为原来的2倍
*MAXIMUM_CAPACITY:最大容量
*DEFAULT_INITIAL_CAPACITY:默认初始化容量
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
扩充为原来的2倍
newThr = oldThr << 1; // double threshold
//说明原来的容量为0
else if (oldThr > 0)
newCap = oldThr;// 初始容量设置为阈值
else {
newCap = DEFAULT_INITIAL_CAPACITY; // 初始阈值为零表示使用默认值
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
//计算新的resize上限
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
//把每个bucket都移动到新的buckets中
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)//节点下一个元素为空,直接放入新数组
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)//类型为Tree,插入红黑树
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { //进入链表,此处优化了在并发情况下jdk1.7出现的循环链表问题
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
// 保存下一个节点
next = e.next;
// 原索引
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
// 原索引+oldCap
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
//原索引放到bucket里
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
// 原索引+oldCap放到bucket里
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
最后我们再来看看get过程,get元素的过程相对来说是比较简单的。
public V get(Object key) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
//当前下表是否有空
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
//当前key是否是要查找的key
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
return first;
//如果不是找下一个
if ((e = first.next) != null) {
//是否是树节点
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
do {
//链表 往下循环依次查找
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
//没有找到
return null;
}
没有多复杂,仔细看看就明白了。