分享一位大佬的博客内容讲解的比较详细:https://segmentfault.com/a/1190000012926722#item-3
自己的总结:
1.基本概述
- JDK1.8HashMap的结构:数组+链表+红黑树
- 使用拉链式散列函数(减少哈希冲突),注意这里是尾插法。
- 当链表的长度达到了8,再往里面put那么链表就转化成红黑树。也就是说链表的最大长度是8,不可能出现长度大于8的链表。(看源码的时候注意,最后走到了null才进去判断阈值)。此外还有一个点要注意,当进入treeifyBin()里面会发现如果桶的长度小于64,那么就会选择扩容将链表长度变短而不是直接转成红黑树。
- 构造方法有四个,HashMap 构造方法做的事情比较简单,一般都是初始化一些重要变量,比如 loadFactor 和 threshold。而底层的数据结构则是延迟到插入键值对时再进行初始化
几个重要的参数:
补充:Size就是当前HashMap所容纳的键值对数量。当Size大于阈值就会扩容。
负载因子loadFactor为什么默认的是0.75??
简单的理解负载因子是0.75的时候,空间利用率比较高,而且避免了相当多的Hash冲突,使得底层的链表或者是红黑树的高度比较低,提升了空间效率。
当为0.5的时候,空间利用率太低了,查询效率比较高。
当为1.0的时候,空间利用率高了,但是查询效率太低了,桶里面的树的高度可能已经变得很高了。
2.扩容
-
传入的初始化容量是空参,那么第一次插入值时就数组容量扩容到16,阈值threshold变为16*0.75=12。下次再进行扩容时,数组容量和阈值均扩大两倍。
-
传入的初始化容量非空,举个例子传入的初始化容量如果是7,那么阈值threshold就被初始化为8,2的3次方, tableSizeFor(int cap) 方法就是找到比初始化容量大的最小2的n次方的那个数。这种初始化情况下,第一次扩容容量直接扩到newCap=8(threshold),新的阈值threshold=newCap* 0.75=6.0,直接取整就是6。下次要是再扩容那么数组容量直接翻倍,但是阈值是newCap *0.75=12。如果下次又要扩容,因为老容量已经不小于默认的16了那么就是容量和阈值都直接翻倍。前提是不溢出
-
DeBug跟进去就能看清楚了!!! 总的来说扩容resize做了三件事:
1.计算新桶数组的容量 newCap 和新阈值 newThr。
2.根据计算出的 newCap 创建新的桶数组,桶数组 table 也是在这里进行初始化的。
3.将键值对节点重新映射到新的桶数组里。如果节点是 TreeNode 类型,则需要拆分红黑树。如果是普通节点,则节点按原顺序进行分组。
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
3.遍历、插入、删除
遍历:遍历出来的顺序和插入进去的顺序一般不一样,但是同一个HashMap多次遍历的顺序结果都是一样的。底层原理就是逐个遍历桶,桶不空就逐个遍历里面的链表或者红黑树,桶如果空就直接跳过到下一个桶。即每次遍历生成的keySet都是固定的顺序,每次遍历的结果都一样。
插入: 引入了红黑树这个过程就变得复杂了,但是要知道的是链表转化成红黑树的条件是链表的长度达到了8。
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
删除: 三部曲,找到桶的位置、遍历到节点、删除节点。
final Node<K,V> removeNode(int hash, Object key, Object value,
boolean matchValue, boolean movable) {
Node<K,V>[] tab; Node<K,V> p; int n, index;
if ((tab = table) != null && (n = tab.length) > 0 &&
// 1. 定位桶位置
(p = tab[index = (n - 1) & hash]) != null) {
Node<K,V> node = null, e; K k; V v;
// 如果键的值与链表第一个节点相等,则将 node 指向该节点
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
node = p;
else if ((e = p.next) != null) {
// 如果是 TreeNode 类型,调用红黑树的查找逻辑定位待删除节点
if (p instanceof TreeNode)
node = ((TreeNode<K,V>)p).getTreeNode(hash, key);
else {
// 2. 遍历链表,找到待删除节点
do {
if (e.hash == hash &&
((k = e.key) == key ||
(key != null && key.equals(k)))) {
node = e;
break;
}
p = e;
} while ((e = e.next) != null);
}
}
// 3. 删除节点,并修复链表或红黑树
if (node != null && (!matchValue || (v = node.value) == value ||
(value != null && value.equals(v)))) {
if (node instanceof TreeNode)
((TreeNode<K,V>)node).removeTreeNode(this, tab, movable);
else if (node == p)
tab[index] = node.next;
else
p.next = node.next;
++modCount;
--size;
afterNodeRemoval(node);
return node;
}
}
return null;
}
4.序列化
transient,在 Java 中,被该关键字修饰的变量不会被默认的序列化机制序列化。
HashMap 并没有使用默认的序列化机制,而是通过实现readObject/writeObject两个方法自定义了序列化的内容。
序列化 talbe 存在着两个问题
- table 多数情况下是无法被存满的,序列化未使用的部分,浪费空间
2.同一个键值对在不同 JVM 下,所处的桶位置可能是不同的,在不同的 JVM 下反序列化 table 可能会发生错误。(不同的java虚拟机本地实现的hashCode都不一样,要是那些键没有覆盖本地的hashCode,而是直接调用本地的方法,那么就会导致算出来的hash值不一样,从而找不到对应的桶)