以散列值实现的O(1)级别的查找速度,键值对的存取方式,数组加链表加红黑树的数据结构,没错,今天我们要说的就是大名鼎鼎的HashMap。
本篇文章默认各位读者已经有了对HashMap的基本了解,对他的一些特性和使用方法将不再做介绍。
好的,废话就这两段,我们直入正题,先从源码中看看HashMap中有哪些重要属性
HashMap中的重要属性
static final float DEFAULT_LOAD_FACTOR = 0.75f;
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
HashMap的属性没有很多,我选了其中两个我认为比较有价值的给大家讲解一下
- static final float DEFAULT_LOAD_FACTOR = 0.75f;
这个属性叫做HashMap的负载因子,他的作用是决定HashMap在何时进行扩容,例如默认的负载因子为0.75,如果HashMap的最大容量是16.则会在16 * 0.75 = 12 ,即HashMap已经存储了12个元素时进行扩容
我们知道HashMap是基于散列值实现的一个数据结构,当存储了大量数据的时候,很容易出现Hash冲突,增加查找时间,而在适当的时候进行扩容,可以降低Hash冲突出现的概率,因此在何时扩容是一个很关键的问题,而且在Java1.8中,HashMap扩容需要计算每个元素的散列值,并将他们重新放在合适的位置,这是一个很消耗性能的任务
不过我们也不用担心太多,虽然HashMap给我们提供了可以设置负载因子的构造函数,但绝大部分情况我们都不必要对他进行修改,0.75这个数值大小是Java设计者们根据随机情况下的hash碰撞,统计得出的一个泛用数值。
public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor;
this.threshold = tableSizeFor(initialCapacity);
}
- static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;
这是HashMap的默认容积大小,这里使用位运算得到数值大小为16,需要注意的是HashMap的容积大小必须是2的幂,如果在初始化时传入了一个大小不为2的幂的数,会调用下列方法将他转换为一个最近的2的幂
static final int tableSizeFor(int cap) {
int n = -1 >>> Integer.numberOfLeadingZeros(cap - 1);
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
这是因为我们在计算数组下标值的时候,会使用这个公式进行计算 h & (table.length -1),其实这就是一个将散列值对容积大小取模的过程,这是为了进一步分散元素,降低hash冲突的概率,而用这个公式取模的前提就是,容积大小必须是2的幂。
putVal()方法
//实现put和相关方法。
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
//如果table为空或者长度为0,则resize()
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
//确定插入table的位置,算法是(n - 1) & hash,在n为2的幂时,相当于取摸操作。
找到key值对应的槽并且是第一个,直接加入
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
//在table的i位置发生碰撞,有两种情况,1、key值是一样的,替换value值,
//2、key值不一样的有两种处理方式:2.1、存储在i位置的链表;2.2、存储在红黑树中
else {
Node<K,V> e; K k;
//第一个node的hash值即为要加入元素的hash
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
//2.2
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
//2.1
else {
//不是TreeNode,即为链表,遍历链表
for (int binCount = 0; ; ++binCount) {
///链表的尾端也没有找到key值相同的节点,则生成一个新的Node,
//并且判断链表的节点个数是不是到达转换成红黑树的上界达到,则转换成红黑树。
if ((e = p.next) == null) {
// 创建链表节点并插入尾部
p.next = newNode(hash, key, value, null);
超过了链表的设置长度8就转换成红黑树
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
//如果e不为空就替换旧的oldValue值
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
注:图中对链表扩展为红黑树的判断条件缺少了一部分,懒得重新画图了,hhh,需要链表的长度大于等于8且HashMap中元素个数大于等于64时,才会将链表扩展为红黑树
HashMap在最后还会进行是否需要扩容的判断,如果需要则调用resize()方法
resize()方法
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
//如果旧表的长度不是空
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
//把新表的长度设置为旧表长度的两倍,newCap=2*oldCap
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
//把新表的门限设置为旧表门限的两倍,newThr=oldThr*2
newThr = oldThr << 1; // double threshold
}
//如果旧表的长度的是0,就是说第一次初始化表
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
//新表长度乘以加载因子
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
//下面开始构造新表,初始化表中的数据
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
//把新表赋值给table
table = newTab;
//原表不是空要把原表中数据移动到新表中
if (oldTab != null) {
//遍历原来的旧表
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
//说明这个node没有链表直接放在新表的e.hash & (newCap - 1)位置
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
//如果e后边有链表,到这里表示e后面带着个单链表,需要遍历单链表,将每个结点重新计算在新表的位置,并进行搬运
else {
// preserve order保证顺序
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
//记录下一个结点
next = e.next;
//新表是旧表的两倍容量,实例上就把单链表拆分为两队,
//e.hash&oldCap为偶数一队,e.hash&oldCap为奇数一对
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
//lo队不为null,放在新表原位置
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
//hi队不为null,放在新表j+oldCap位置
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
注意:JDK1.7 扩容是重新hash,JDK1.8扩容是优化,只需要看看原来的hash值新增的那个bit是1还是0就好了,是0的话索引没变,是1的话索引变成“原索引+oldCap”