HashMap的最小知识点
HashMap使用了数组和链表(红黑树)的数据结构
HashMap的默认初始长度是16(1<<4),当用户指定长度时,hashmap也会尽量调整为2的倍数
HashMap中发生hash冲突时,会使用链表将note节点链起来jdk1.8开始,链表的长度达到8就会转成红黑树,来提高查询效率
HashMap的扩容机制当容器中的节点数超过阈值就会实现扩容,将容量扩大一倍,对原容器中数据重新进行rehash
hashmap中的最小单位,用来存放键值对
其中属性K,V用来存放数据,next 则用来指向下一个node对象,很显然使用的是单向链表
static class Node<K,V> implements Map.Entry<K,V> {
final int hash;
final K key;
V value;
Node<K,V> next;
Node(int hash, K key, V value, Node<K,V> next) {
this.hash = hash;
this.key = key;
this.value = value;
this.next = next;
}
public final K getKey() { return key; }
public final V getValue() { return value; }
public final String toString() { return key + "=" + value; }
public final int hashCode() {
return Objects.hashCode(key) ^ Objects.hashCode(value);
}
public final V setValue(V newValue) {
V oldValue = value;
value = newValue;
return oldValue;
}
public final boolean equals(Object o) {
if (o == this)
return true;
if (o instanceof Map.Entry) {
Map.Entry<?,?> e = (Map.Entry<?,?>)o;
if (Objects.equals(key, e.getKey()) &&
Objects.equals(value, e.getValue()))
return true;
}
return false;
}
}
从hashmap的构造函数开始看。
public HashMap()
,使用默认容量值16,loadFactor 0.75
public HashMap(int initialCapacity)
, 使用指定容量值,loadFactor 0.75
public HashMap(int initialCapacity, float loadFactor)
都是用自定义的容量和loadFactor
在自定义容量时,hashmap会对指定的容量进行校验,尽量使这个值为2的倍数,这样做的好处是为了避免下标落点聚集在0,从而造成hash冲突,影响性能
此时的构造函数并没有真实的把容器创建出来。而真真创建容器的操作时在put()中。
put()方法解析:
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
//真实调用的方法
final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) {
//开始创建node数组
Node<K,V>[] tab; Node<K,V> p; int n, i;
if ((tab = table) == null || (n = tab.length) == 0)
//其中resize去指定该node数组的大小以及一些属性,之前构造函数接受的一些参数 具体resize代码分析看下面代码
n = (tab = resize()).length;
//使用K的hashcode与容量-1 进行位&运算 计算该node在数组中的下标类似%取模运算,源码中使用的更加底层 效率更高
//如果计算的下标位置上没有数据,就直接将数据放入这个位置
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
//否则,
else {
Node<K,V> e; K k;
//判断新旧node的hash,以及k 是否一致。 注意:1.此时的hashcode没有用String的hashcode(此hashcode是使用“xxx”来计算的,不是地址)而是用的HashMap中的Hash()
//2.k的话是判断地址或者key类型的equals 所以String中的equals方法重写就是先判断地址,在判断内容 目的是与这里保持一致
//如果为true的话直接替换原先的value值
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
// 如果不满足上边条件,则说明发生了hash冲突
//根据node类型判断是链表还是树形 (treenode继承了linkedHsahMap.entrySet)
//树形的话采用树形的put方法,在往红黑树添加是需要更换颜色和旋转操作。这段代码可以好好学习学习,是一个红黑树的实现
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
// 如果不是树形节点就是一个链表
// 链表在插入是注意长度是否要超过TREEIFY_THRESHOLD 8,考虑链表转树
else {
//此处的循环会对链表中的node节点进行一次便利
//目的 1.查看链表中是否有一样的key,进行替换
// 2. binCount 用来判断在替换完之后,链表长度是否超过8,进行转树操作
for (int binCount = 0; ; ++binCount) {
//刚进入循环p为数组中的那个node对象,为null就直接将新node链在p之后
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
//连接完后直接判断是够超过长度,超过的话直接转树
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
//树化操作,将链表转换成树 将链表的所有node转成树,其中有一个条件就是Map中的node节点树必须达到转树的要求 64,否则还是进行一次resize操作,并不转树
treeifyBin(tab, hash);
break;
}
//如果在p的下一个node中非null,就判断k是否一致,类似数组中node的判断 一致就(跳出循环)替换,不一致就下一个循环
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
//替换完直接返回,不进行size++ 因为替换并没有实际node加入
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
//在发生上述情况时,发生替换就返回之前被替换的旧value,并且不增加实际节点
return oldValue;
}
}
//此属性在迭代器中使用,现在不多分析
++modCount;
//如果现在map中的node数(数组+链表)超过了预知 cap*loadFactor 就进行扩容操作 下一步分析扩容操作
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
//主要针对第一次初始化操作
final Node<K,V>[] resize() {
//新的oldTab 指向之前的table(node数组,第一次初始化原table为null
Node<K,V>[] oldTab = table;
//第一次初始化 oldCap为null
int oldCap = (oldTab == null) ? 0 : oldTab.length;
//将构造函数接受到的参数赋值给oldThr
int oldThr = threshold;
//定义新的容器的容量和阈值 对即将创建的新容器生效
int newCap, newThr = 0;
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
//第一次,如果指定新容器容量会选择这个分支 将新容器的容量设定为用户指定的容量
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
//第一次,如果没有指定容量 走这个分支,使用hashmap中默认的容量值 16
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
//对自己定义的容量和loadFactor制定一个阈值 newThr=cap*loadFactor
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
//将新的阈值复制给threshold,判断node节点数是否超过newThr 超过则需要进行扩容操作
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
// 新建指定容量的Node[]
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
//到这里第一次初始化map容器已经完成
table = newTab;
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
这就是在put KV时的一系列操作。
但是,还会有存在KV数量超过阈值进行扩容的操作。代码如下
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
在上段代码结尾 当node节点成功插入map时,会检查容器内的node数联有没有超过阈值,超过久进行扩容,调用的还是resize操作。
//主要针对扩容的操作
final Node<K,V>[] resize() {
//之前的的table赋值oldTab
Node<K,V>[] oldTab = table;
//拿到原先的数组长度
int oldCap = (oldTab == null) ? 0 : oldTab.length;
// 原先数组的阈值 oldCap*loadFactor
int oldThr = threshold;
//定义新nodep[]的长度,阈值
int newCap, newThr = 0;
//此时会走这个分支 oldCap有值
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
//oldCap <<1 增加1倍 复制给newCap newThr也增加一倍
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
// 将newThr复制给threshold方便下一次扩容
threshold = newThr;
// 新建一个更长的node数组
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
//对旧的node[] 重计算下标
// 旧的node数组存在的情况
1 每个下标位置上都没有链表 直接重新哈希计算下标
2 数组中某一个活多个位置上有 链表 需要进行链表整体进行hash 直接放入新node数组中 因为他们链表上的所有node对同一个树值取模操作都一样
3 数组中某一个活多个位置上有树,需要将树打散 splite 重新放置
//基于上述的多种原因就需要对node数组遍历
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
//该位置没有链表和树
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
//该位置有树
else if (e instanceof TreeNode)
//将树大散重新进行放置
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
该位置没有链表
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
//将链表中的所有node节点作为一个整体进行rehash
//分两种情况
//oldTab中的链表会因为扩容被分成两个链表,一个还是当前坐标下,另一个下标是当前坐标+oldTab长度的下标
// 正好使用(e.hash & oldCap) == 0) 这种方式做处理,将oldtab中的一个链表按照规律分成两个链表 在新链表中将两个链表分别链在不同的坐标下,其中这两个坐标数值正好差一个oldCap
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
hashMap中主要的hash冲突,扩容机制基本思想。其中的红黑树中的节点对象为treenode 继承自linkedHashMap的node。特点是有序。
hashMap作为一个缓存容器,结构使用了数组,链表,1.8之后使用了红黑树提高查询效率。 但是该容器是线程不安全的。不能保证数据一致性。早起的HashTable是线程安全的。由于使用了Synchronized 互斥锁,在大量线程时,会出现阻塞的情况,导致性能下降。影响系统整体的响应性。保证线程安全的话还可以考虑ConcurrentHashMap。