目录
1.HashMap
1.1简介
HashMap基于哈希表的Map接口实现,是以key-value存储形式存在(除了不同步和允许使用 null 之外,HashMap 类与 Hashtable 大致相同)。HashMap 的实现不是同步的,这意味着它不是线程安全的。它的key、value都可以为null。此外,HashMap中的映射不是有序的。在 JDK1.8 中,HashMap 是由 数组+链表+红黑树构成,新增了红黑树作为底层数据结构,结构变得复杂了,但是效率也变的更高效。
1.2数据结构
HashMap底层是以数组+链表+红黑树构成,当没有hash冲突时,保存为数组形式,当存在冲突时,冲突位置将会以链表形式继续保存,当某一位置冲突过多时(阙值为8)链表将会转化为红黑叔继续保存。
![](https://img-blog.csdnimg.cn/20201209161009806.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2xvdmVramw=,size_16,color_FFFFFF,t_70)
1.3类结构与属性
其实现了Cloneable接口,是可clone的,实现了Serializable接口,是可序列化的。继承了AbstractMap接口,map的骨干实现,至于为什么又去实现Map接口,纯粹是当时一种写法上的错误,并没有什么深意。
//默认初始化容量为2的幂次方
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
//最大容量,必须是2的幂次方,不大于2的30次方
static final int MAXIMUM_CAPACITY = 1 << 30;
//当未指定时使用默认加载因子0.75
static final float DEFAULT_LOAD_FACTOR = 0.75f;
//默认设置链表转为红黑树的阙值为8
static final int TREEIFY_THRESHOLD = 8;
//默认设置红黑树节点数目下降转为链表阙值为6
static final int UNTREEIFY_THRESHOLD = 6;
//默认设置允许链表转为红黑树(Map树形化)的最小数组长度
static final int MIN_TREEIFY_CAPACITY = 64;
//该表在首次使用时初始化,并根据需要调整大小。长度满足2的幂次方(在某些操作中,可允许长度为零,以允许使用当前不需要的引导机制。)
transient Node<K,V>[] table;
//存放缓存
transient Set<Map.Entry<K,V>> entrySet;
//此映射中包含的键-值映射数
transient int size;
//已对HashMap进行结构修改的次数,便于迭代器的快速失败
transient int modCount;
//用来调整大小下一个容量的值计算方式为(容量*负载因子)
int threshold;
//加载因子
final float loadFactor;
重点属性:
- table就是HashMap中的数组
- size为HashMap中K-V的实时数量
- loadFactor加载因子,是用来衡量 HashMap 满的程度,计算HashMap的实时加载因子的方法为:size/capacity,而不是占用桶的数量去除以capacity。capacity 是桶的数量,也就是 table 的长度length。
- threshold计算公式:capacity * loadFactor。这个值是当前已占用数组长度的最大值。超过这个数目就重新resize(扩容),扩容后的 HashMap 容量是之前容量的两倍
两个关于存储的内部类:
1.节点类
//Node是HashMap中存放数据实体的静态内部类,实现了Map接口中定义的Entry接口,可以对Node作为Entry进行操作
static class Node<K,V> implements Map.Entry<K,V> {
final int hash;
final K key;
V value;
Node<K,V> next;
...
}
2.树结构
//当链表转换成红黑树时,对应的Node也转换成TreeNode,因以用作常规节点或链接节点的扩展。
static final class TreeNode<K,V> extends LinkedHashMap.Entry<K,V> {
TreeNode<K,V> parent; // red-black tree links
TreeNode<K,V> left;
TreeNode<K,V> right;
TreeNode<K,V> prev; // needed to unlink next upon deletion
boolean red;
...
}
1.4.构造方法
HashMap中一个提供了四种构造方式,如下所示:
//创建自定义容量,自定义加载因子的HashMap
public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor;
this.threshold = tableSizeFor(initialCapacity);
}
//创建自定义容量的HashMAp,默认加载因子
public HashMap(int initialCapacity) {
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
//创建默认的HashMap,默认加载因子为0.75,容量为16
public HashMap() {
this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}
//将Map转化为HashMap
public HashMap(Map<? extends K, ? extends V> m) {
this.loadFactor = DEFAULT_LOAD_FACTOR;
putMapEntries(m, false);
}
其中在自定义容量时都会调用tableSizeFor函数来保证HashMap的长度是2的次幂,至于原因,在解惑中会详细讲解。
//约束扩容的临界值大小为2的次幂,通过判断容量前导0的个数,将-1(带符号位)移动到指定位置进行判断
static final int tableSizeFor(int cap) {
int n = -1 >>> Integer.numberOfLeadingZeros(cap - 1);
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
//采用二分法判断前导0的个数
public static int numberOfLeadingZeros(int i) {
// HD, Count leading 0's
if (i <= 0)
return i == 0 ? 32 : 0;
int n = 31;
if (i >= 1 << 16) { n -= 16; i >>>= 16; }
if (i >= 1 << 8) { n -= 8; i >>>= 8; }
if (i >= 1 << 4) { n -= 4; i >>>= 4; }
if (i >= 1 << 2) { n -= 2; i >>>= 2; }
return n - (i >>> 1);
}
优化HashMap思路:如果能够大致预期HashMap大小,那么我们应该初始化时就指定好 capacity ,减少扩容次数,提升 HashMap 的效率,也提高了安全性。(扩容是最耗性能的事,所以要尽量较少扩容,又要根据实际确定好hashMap的容量)
1.5操作
1.5.1添加操作
//添加元素,调用putVal方法
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
//计算哈希值,如果key不为空,值为key的hashcode异或key的hashcode无符号右移16位。
//hashcode值若高位变化很大,低位变化很小,或者没有变化,那么如果直接用hashcode和数组长度进
//行&运算时,很容易导致结果一致,导致hash冲突。
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
//添加元素
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
//哈希数组
Node<K,V>[] tab;
//哈希桶首节点
Node<K,V> p;
//n为容量,i为哈希数组下标
int n, i;
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
//通过key的hash值计算得到对应的哈希桶下标i,并且将此哈希桶的首节点赋值给p,如果位置为
//空,则调用newNode创建节点直接插入
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
//创建临时节点e,和存放首节点p的key值k
Node<K,V> e; K k;
//如果插入节点的key与首节点相等,则将首节点p复制给e,后续会将e的值用新值给覆盖掉
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
//如果不等,且首节点p为红黑树的节点,则调用putTreeVal按照红黑树的添加方式添加节点
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
//插入节点不与首节点等价(可能hash值一样,key值不同,即存在冲突,需要以链表形式继续保存)
for (int binCount = 0; ; ++binCount) {
//插入到链表尾部,同时计算链表长度,如果未计算e在内的链表长度大于等于7,
//则调用treeifBin判断是否需要树形化,需要则直接树形化
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
//遍历到等价的节点,跳出循环
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
//对key重复的情况进行统一处理,用value覆盖旧值
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
//判断是否需要扩容
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
(k = p.key) == key || (key != null && key.equals(k))说明:我们知道==是判断首地址是否相等,equal是判断目标值是否相等,这里主要做的是多重过滤操作,首先判断地址是否相同,如果相同直接返回,如果不相同再进行值的判断。
源码中,注释的非常详细,在此总结一下整个过程:
首先会通过传入的key调用hash()方法,得到hash值,然后通过调用putVal,传入hash,key,value等参数进行元素的添加操作。在正式添加之前,会进行HashMap的初始化判断,如果未初始化,则先调用resize()进行扩容。
添加节点判断过程:
- 通过计算得到的hash值,得到对应的hash数组下标i
如果此位置为空,则新建node直接复制给p[i](直接存储)
如果此位置不为空:
是否key值与hash值相同,若相同则赋值临时节点e。
是否是红黑树的节点,是则调用putTreeVal()方法加入到红黑树中
首位置hash值相同,key值不相同,则遍历该位置的链表,在尾部插入新节点,并判断插入后是否满足树形化的条件。
- 节点存在的情况下(即key存在),将旧值用新值覆盖
1.5.2获取操作
//通过传入的key值计算hash值,并调用getNode方法获取节点,若存在,则返回节点的value
public V get(Object key) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
//通过传入的hash值和key值确定唯一节点
final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
//tab不为空且长度大于0且所找到的第一个节点不为空
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
//第一个节点的和所给的hash值,key值均相等,则返回第一个节点即我们所要查询的节点
if (first.hash == hash && ((k = first.key) == key || (key != null && key.equals(k))))
return first;
if ((e = first.next) != null) {
//所查找的节点属于红黑树的节点,则调用getTreeNode()方法查询目标节点
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
//如果不属于红黑树节点,则顺序遍历链表查找目标节点
do {
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}
1.5.3删除操作
//调用removeNode方法移除key值节点
public V remove(Object key) {
Node<K,V> e;
return (e = removeNode(hash(key), key, null, false, true)) == null ?
null : e.value;
}
//根据计算的hash值,key值删除节点
final Node<K,V> removeNode(int hash, Object key, Object value,
boolean matchValue, boolean movable) {
Node<K,V>[] tab; Node<K,V> p; int n, index;
//跟获取操作一样,总是根据hash值查找首节点判断非空
if ((tab = table) != null && (n = tab.length) > 0 &&
(p = tab[index = (n - 1) & hash]) != null) {
Node<K,V> node = null, e; K k; V v;
//首节点正是需要删除的节点
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
node = p;
//首节点不是所要删除的节点,分为红黑树和链表继续查找,找到节点并赋值给node
else if ((e = p.next) != null) {
if (p instanceof TreeNode)
node = ((TreeNode<K,V>)p).getTreeNode(hash, key);
else {
do {
if (e.hash == hash &&
((k = e.key) == key ||
(key != null && key.equals(k)))) {
node = e;
break;
}
p = e;
} while ((e = e.next) != null);
}
}
//分为首节点、红黑树和链表删除,如果为红黑树的节点,则调用removeTreenode删除该节点
if (node != null && (!matchValue || (v = node.value) == value ||
(value != null && value.equals(v)))) {
if (node instanceof TreeNode)
((TreeNode<K,V>)node).removeTreeNode(this, tab, movable);
else if (node == p)
tab[index] = node.next;
else
p.next = node.next;
++modCount;
--size;
afterNodeRemoval(node);
return node;
}
}
return null;
}
删除首先是查找该节点,而后通过判断该节点是首节点,还是红黑树,还是链表节点进行相应的删除操作
1.5.4扩容
//扩容,返回扩容后的数组table
final Node<K,V>[] resize() {
//获取旧table与旧数组长度,旧临界值
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
//旧长度大于0,不是首次初始化
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
//若旧数组长度>=16且扩容两倍后也没超过最大长度,临界值相应也扩大两倍
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
//此时oldCap==0,数组为空,但是临界值不为空,说明是删除导致数组为空,此时将临界值赋值给新长度
else if (oldThr > 0)
newCap = oldThr;
//未被初始化,实行初始化操作
else {
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;//新临界值的确定
@SuppressWarnings({"rawtypes","unchecked"})
//新建一个扩容后的table
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
//将旧值复制到新table里
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
//将旧值清空
oldTab[j] = null;
//该位置只有一个节点,直接重新计算hash值得到数组坐标
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
//该位置为红黑树节点,则调用split进行操作
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
//以链表形式存在的节点
else {
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
//hash位置没有发生变化,利用loHead记录头结点,loTail记录尾节点
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
//hash位置发生了改变,利用hiHead记录头结点,hitail记录尾节点
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
//针对位置未变化的,将尾节点指向空,头结点直接赋值到原位置
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
//针对位置发生变化的,将尾节点指向空,重进计算hash值(j+oldCap),将头结点赋值给新位置。
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
默认负载因子是0.75,即当map中的元素个数(全部桶元素的总和)超过容量的75%时,就会进行扩容。且扩容是增加到旧数组的两倍。
(即按照默认情况下数组长度为16为例,当hashMap中的元素超过12个的时候,就会进行扩容:创建一个长度为32的数组,然后再重新计算各个元素在新数组中对应的位置,注意这里的位置确定在JDK8中不需要像JDK7一样重新计算Hash值,再去求余,而是只需要看原来的hash值新增的bit【假设扩容是N位,扩容后就是N+1位了】是0还是1,0则放在原位置,1则放在“原位置+旧容量”处。将旧table的所有元素按照计算得到的下标,复制到新table中)
1.5.5遍历
HashMap<T,T>map=new HashMap<>();
//方法一:通过 Map.keySet 遍历 key(可以获取到value)
for (T key : map.keySet()) {
System.out.println("Key: " + key + " Value: " + map.get(key));
}
//方法二:通过 Map.values() 遍历value(不能获取到key)
for (T v : map.values()) {
System.out.println("value:" + v);
}
// 方法三:通过 entrySet 进行遍历,直接遍历出key和value。
//对于 size 比较大的情况下,又需要全部遍历的时候,效率是最高的。
for (Map.Entry<String, String> entry : map.EntrySet()) {
System.out.println("testHashMap: key = " + entry.getKey() + ";value = " + entry.getValue());
}
//方法四:通过 Map.entrySet 使用 iterator ,满足一边遍历一边删除的场景。
Iterator iterator = map.entrySet().iterator();
while (iterator.hasNext()) {
Map.Entry<String, String> entry = (Map.Entry<String, String>) iterator.next();
// 可以删除
iterator.remove();
1.6解惑:
1.6.1.为什么会使用红黑树?
因为Map中桶的元素初始化是链表保存的,其查找性能是O(n),而树结构能将查找性能提升到O(log(n))。当链表长度很小的时候,即使遍历,速度也非常快,但是当链表长度不断变长,肯定会对查询性能有一定的影响,所以才需要转成树。
1.6.2.为什么设置链表树形化阙值为8?
在源码中,有下面一段话的描述:当hashCode离散性很好的时候,树型bin用到的概率非常小,因为数据均匀分布在每个bin中,几乎不会有bin中链表长度会达到阈值。但是在随机hashCode下,离散性可能会变差,然而JDK又不能阻止用户实现这种不好的hash算法,因此就可能导致不均匀的数据分布。不过理想情况下随机hashCode算法下所有bin中节点的分布频率会遵循泊松分布,我们可以看到,一个bin中链表长度达到8个元素的概率为0.00000006,几乎是不可能事件。所以,之所以选择8,不是拍拍屁股决定的,而是根据概率统计决定的。是空间和时间的权衡。
1.6.3.为什么设置树形化的最小数组长度为64?
链表长度大于8的时候就调用treeifyBin方法转化为红黑树,但是在treeifyBin方法内部却有一个判断,当只有数组长度大于64的时候,才会进行树形化,否则就只是resize扩容。
因为链表过长而数组过短,会经常发生hash碰撞,这个时候树形化其实是治标不治本,因为引起链表过长的根本原因是数组过短。执行树形化之前,会先检查数组长度,如果长度小于 64,则对数组进行扩容,而不是进行树形化。
1.6.4.容量为什么是2的次幂?
在之前的源码中我们可以看到求对应元素在数组中的下标的所有的运算都是位运算(&),而位运算时效率是高于%运算的,并且&运算中,只有为1才能凸显出原数字的特征,如下例所示:
1010&1111=1010; => 10&15=10;
1011&1111=1011; => 11&15=11;
01010&10000=00000; => 10&16=0;
01011&10000=00000; => 11&16=0;
为了保证效率,并且尽量减少碰撞几率,提高空间利用率,在源码中,求下标的操作都是hash&(length-1),即保证length-1二进制全为1。
1.6.5.HashMap是线程安全的吗?
可以观察上述的源码,很多地方都是不同步的,因此它并不是线程安全的,不过可以使用线程安全的ConcurrentHashMap。