概述
本文基于jdk1.8,关于树的部分先简要介绍,大体跳过,后续回来补坑~
hahsmap底层是由哈希桶组成的,何谓哈希桶?其实就是数组,每个数组元素我们称之为桶,桶一般是由链表组成,链表长度到8时,会转化为红黑树,以此来提升效率。
hashmap中计算key的hash值时候,使用了扰动函数。hashmap计算元素下标方法是hash&(n-1),n即哈希桶的容量,因为哈希桶容量有限,这就导致计算下标时,hash的高位不能有效参与运算,容易造成更多哈希碰撞。因此,我们使用扰动函数综合利用hash的高低位,减少哈希碰撞。
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
初始化
链表节点
static class Node<K,V> implements Map.Entry<K,V> {
final int hash;
final K key;
V value;
Node<K,V> next;
}
可以看到一个节点由键值对和hash以及后向指针组成
构造函数
// Node数组
transient Node<K,V>[] table;
// 键值对在这里也存一份
transient Set<Map.Entry<K,V>> entrySet;
// 键值对的数量
transient int size;
transient int modCount;
// 哈希表元素数量到达threshold需要进行扩容操作(capacity*loadFactor)
int threshold;
// 能把哈希桶填满的比例
final float loadFactor;
public HashMap(int initialCapacity, float loadFactor) {
// 初始化容量不能为负
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
// 初始化容量不能大于最大容量
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
// 装载因子不能为负
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor;
// 将阈值设为大于等于初始化容量的2的n次方
this.threshold = tableSizeFor(initialCapacity);
}
public HashMap(Map<? extends K, ? extends V> m) {
this.loadFactor = DEFAULT_LOAD_FACTOR;
putMapEntries(m, false);
}
hashmap中的capacity其实就是哈希桶的数
hashMap的初始化构造函数主要说下这两种
- 根据指定容量进行初始化,注意最后计算阈值函数
- 根据已有的map进行初始化
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
假设cap=65,n=64=1000000;n>>>1=100000;n|=n>>>1=1100000;同理推得最后n=1111111;再加1就是10000000,也就是128。这个函数就是要将哈希表的阈值(实际容量)变为2的N次方。
添加元素
final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) {
int s = m.size();
if (s > 0) {
if (table == null) { // pre-size
float ft = ((float)s / loadFactor) + 1.0F;
int t = ((ft < (float)MAXIMUM_CAPACITY) ?
(int)ft : MAXIMUM_CAPACITY);
if (t > threshold)
threshold = tableSizeFor(t);
}
else if (s > threshold)
resize();
for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) {
K key = e.getKey();
V value = e.getValue();
putVal(hash(key), key, value, false, evict);
}
}
}
- 首先取得m中键值对数目s
- 如果当前哈希桶是空的,根据s/loadFactor计算得到所需capacity,然后进行边界条件规范;如果不是空哈希桶,判断是否需要扩容
- 上两步是确保通能装下所有元素,最后一步迁移节点键值对就好了
扩容
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {
// 此时capacity已达到极限无法扩容
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
// 新容量是旧容量2倍(不超界的话)
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
// 到了这一步说明原哈希表是空的
// 此时旧容量<=0,oldThr>0,说明旧哈希表第一次初始化capacity中存放着初始容量
else if (oldThr > 0)
newCap = oldThr;
// 此时旧容量<=0,oldThr<=0,使用默认值
else {
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
// 上边操作解决了新数组中的capacity问题
// 对应上边旧容量<=0,oldThr>0
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
// 至此,threshold问题解决
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
// 旧数组不为空,遍历旧数组
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
// 此桶只有一个节点,直接迁移节点
/*
hash&(newCap-1)可以很快地算出index,计算机中hash%newCap=hash(newCap-1),当且仅当newCap是2的n次方时。位运算代替取余运算,更加高效
*/
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
// 多个节点的话,区分是否是树节点
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
// 此时是链表节点
else { // preserve order
/*
判断hash&oldcap,如果是0的话,那么hash&(oldcap-1)和hash&(newcap-1)结果是一样的,
比如我们要判断的hash值是1110(14),原始容量若是16,此时hash&(oldcap)==1110&10000==0,
原始index是1110&1111==1110,newcap是32,那么32-1=11111&1110=1110,即新的index和原来额index一样。
若是hash&oldcap不是0,比如我们的hash是10100,oldcap=10000,10100&10000==10000;
那我们的新的index是oldcap+oldindex
oldindex=hash&(oldcap-1)==10100&1111==00100=4
newindex=hash&(newcap-1)==10100&11111==10100=20
其实很容易看出来就只是最前边多了一个1;
*/
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
// 上述do{}while;过程构造链表,然后把头节点放入新的哈希桶数组即可。
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
上述就是扩容过程,
添加元素节点
@param onlyIfAbsent if true, don't change existing value
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
// 原数组是空先扩容
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
// 根据hash计算在新数组中的位置,若该位置为空直接放入节点
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
// 计算得到的位置处不为空,此时p是该位置已存在节点
else {
Node<K,V> e; K k;
// 若p.key等于是新节点的key,e=p
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
// p是树节点
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
// p是链表节点
else {
// 遍历链表
for (int binCount = 0; ; ++binCount) {
// 此时p是尾节点
if ((e = p.next) == null) {
// 新节点插入尾节点,如果满足转树条件就转为红黑树
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
// 找到跟新节点key相同的节点
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
// 不停往后挪节点
p = e;
}
}
// 至此,基本已经结束
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
移除元素节点
public V remove(Object key) {
Node<K,V> e;
return (e = removeNode(hash(key), key, null, false, true)) == null ?
null : e.value;
}
/**
* @param value the value to match if matchValue, else ignored
* @param matchValue if true only remove if value is equal
* @param movable if false do not move other nodes while removing
*/
final Node<K,V> removeNode(int hash, Object key, Object value,
boolean matchValue, boolean movable) {
Node<K,V>[] tab; Node<K,V> p; int n, index;
// 哈希桶不为空且hash计算所得index处元素p不为空
if ((tab = table) != null && (n = tab.length) > 0 &&
(p = tab[index = (n - 1) & hash]) != null) {
Node<K,V> node = null, e; K k; V v;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
node = p;
// 如果p处第一个元素不相等,且p有下节点
else if ((e = p.next) != null) {
if (p instanceof TreeNode)
node = ((TreeNode<K,V>)p).getTreeNode(hash, key);
// 此时p处是链表,遍历链表找到key相等的赋值给e,否则返回null
else {
do {
if (e.hash == hash &&
((k = e.key) == key ||
(key != null && key.equals(k)))) {
node = e;
break;
}
p = e;
} while ((e = e.next) != null);
}
}
// 进行node节点的删除操作,简单的链表删除节点
if (node != null && (!matchValue || (v = node.value) == value ||
(value != null && value.equals(v)))) {
if (node instanceof TreeNode)
((TreeNode<K,V>)node).removeTreeNode(this, tab, movable);
else if (node == p)
tab[index] = node.next;
else
p.next = node.next;
++modCount;
--size;
afterNodeRemoval(node);
return node;
}
}
return null;
}
查找结点
public V get(Object key) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
return first;
if ((e = first.next) != null) {
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
do {
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}
其实写到这里,已经没什么好写的了,毕竟删除就是先查找再删除,但是值得注意的是,hashMap的查找是先看hash是否匹配,然后再判断equals(key),其实可以延伸出一个问题
为什么重写了equals一定要重写hashcode
如果不重写hashcode,两个不一样的key可能equals,但是hashcode不一样,就插入到了两个不同的哈希桶中,这是违反规则的。同时一般euals是比hashcode更为复杂的计算,更为严格,即equals相等的hashcode一定相等,但是hashcode计算更为快,所以不妨先计算hashcode,若是连hahscode都不想等,那必然是不同的元素,在hashcode相等的基础上,进一步使用equals区分。
总结
- hashmap不是线程安全的,还是通过一系列modCount保证快速失败,使用迭代器进行安全遍历
- hashmap可以key和value为null
- hashmap遍历时是无序的
- 扩容hash时会发生数组的复制,是一个代价比较大的操作
- hashmap遍历时,是基于entryset的迭代器,实质上是按照哈希桶数组挨个儿遍历,有链表就去链表转一圈,然后下一个桶,所以并不保证是有序的,毕竟我们是打乱了放入哈希桶的
公众号:程序员二狗
每日原创内容,欢迎交流学习