1.HashMap概述
HashMap是基于哈希表的Map接口的非同步实现(他与Hashtable类似,但Hashtable是线程安全的,所以是同步的实现),此实现可以提供可选的映射操作,允许使用null值和null键,但是非有序
在java语言中,最基本的结构就是两种,一个是数组,一个是模拟指针(引用),所有的数据结构都可以用这两个节本结构来构造,HashMap也不例外,HashMap实际上是一个数组和链表的结合体(在数据结构中一般称为“链表散列”)
2.HashMap数据结构与实现原理
在jdk1.7和jdk1.8中,HashMap的数据结构是有所差别的,进行了一些优化来解决冲突问题,
一.jdk1.7
在jdk1.7版本的时候采用的是数组+链表形式,也就是采用了拉链法
链表是由一系列非连续的节点组成的存储结构,链表又分单向链表和双向链表,而单向/双向链表又可以分为循环链表和非循环链表,
链表
HashCode是使用Key通过Hash函数计算出来,由于不同的key,通过此Hash函数可能会算的同样的HashCode,所以此时用拉链法解决冲突,把HashCode相同的Value连成链表,但是get的时候根据key又去桶里面去找,如果是链表说明是冲突的,此时还要检测Key是否相同。
Java中HashMap是利用“拉链法”处理HashCode的碰撞问题。在调用HashMap的put方法或get方法时,都会首先调用hashcode方法,去查找相关的key,当有冲突时,再调用equals方法。hashMap基于hasing原理,我们通过put和get方法存取对象。当我们将键值对传递给put方法时,他调用键对象的hashCode()方法来计算hashCode,然后找到bucket(哈希桶)位置来存储对象。当获取对象时,通过键对象的equals()方法找到正确的键值对,然后返回值对象。HashMap使用链表来解决碰撞问题,当碰撞发生了,对象将会存储在链表的下一个节点中。hashMap在每个链表节点存储键值对对象
将哈希冲突值加入到每个数组的链表中,他的插入采用的是头插法的形式(这种方法最大的弊端就是会使用插入值生产环,从而无限循环)在进行hash值计算的时候,jdk1.7采用的是9次扰动(4次位运算+5次异或运算)的方式进行处理,除此之外扩容也有锁不同,在jdk1.7中采用的全部按照原来的方式进行计算(即hashCode ->> 扰动函数 ->> (h&length-1))
jdk1.7插入数据方式有什么弊端?
如果一个线程在插入一个节点的时候,另一个线程也在插入节点,而且两个线程插入的都是对方线程上的几点,这样当进行插头的时候会使链表发生反转,便形成了环状,造成了死循环,如下图:
二.jdk1.8
在jdk1.8的版本则采用数组+链表+红黑树的方式
红黑树原理
这种方法可以优化了哈希冲突的问题,减少了搜索时间,添加的树木达到了阀值的时候可以将链表转换为红黑树形式,而当红黑树的结点小于6的时候就会从红黑树转换成链表形式
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
上面代码是对数组进行put操作,节点的判断以及添加,解析核心方法如下:
resize():
扩容, 他在jdk1.8的时候进行两次调用,第一次是在数组进行初始化的时候进行扩容,而第二次则是在数组满的时候进行扩容,一次是开始,一次则是快结束的时候,
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table; //定义老数组
int oldCap = (oldTab == null) ? 0 : oldTab.length; //判断老数组是否为空,来实现初始化扩容操作
int oldThr = threshold; //使初始容量暂时为创建数组时产生的容量,默认为16
int newCap, newThr = 0; //进行初始化赋值
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // 双重容量,也可以理解为进行扩容
}
else if (oldThr > 0) // 初始容量处于阈值
newCap = oldThr;
else { //零初始阈值表示使用默认值
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
float ft = (float)newCap * loadFactor; //进行与加载因子的乘积,此时表示在自动扩容之前,数组达到多满的一种度量,当超过这个乘积值的时候才进行扩容,加载因子的默认值为0.75
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
以上代码可以看出,扩容方法对数组初始化以及为空都进行了详细的判断,
疑问为什么加载因子默认值是0.75?
HashMap默认加载因子为什么选择0.75?
因为提高空间利用率减少查询成本的折中,主要是泊松分布,0.75的话碰撞最小,因为在hashmap中影响性能的有两个,一个是初始化容量,一个是加载因子,如果加载因子小的话就会造成空间利用率低,并提高了rehash的次数,为了保证最大程度上减少rehash的次数,0.75是最适宜的标准数也是折中的一种考虑
hash(key)
他是为了保证充分利用数组的每个位置(下标)并大大解决哈希冲突问题而诞生的,在jdk1.7中计算hash的时候进行了9次扰动,而在jdk1.8中仅仅使用了2次扰动就进行了hash值的计算,
static final int hash(Object key) { int h; return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16); }
key.hashCode()进行高16位和底16位进行了一次异或运算得到的减少了hash的碰撞问题。
为什么采用hashcode的高16位和低16位异或能降低hash碰撞?hash函数能不能直接用key的hashcode?
key.hashCode调用的key键值类型自带的哈希函数,他返回的是一个int类型的散列值,int类型的-2147483648~2147483647**大约有40亿的空间,而在我们的数组中容量仅仅为16个,所以就会造成数组无法承担的情况,因为必须是均匀分布才能有效的避免哈希碰撞的问题,所以就要进行取模运算。
- 判断键值对数组table[i]是否为空或为null,否则执行resize()进行扩容
- 根据键值key计算hash值得到插入的数组索引i,如果table[i]==null,直接新建节点添加,专向(6)如果table[i]不为空,转向(3)
- 判断table[I]的首个元素是否和key一样,如果相同直接覆盖value,否则专向(4)这里的相同指的是hashCode以及equals
- 判断table[I]是否为treeNode,即table[i]是否红黑树,如果是红黑树,则直接在树中插入键值对,否则转向(5)
- 遍历table[i],判断链表长度是否大于8,大于8的话把链表转换为红黑树,在红黑树中执行插入操作,否则进行链表的插入操作,遍历过程中若发现key已经存在直接覆盖value即可;
- 插入成功后,判断实际存在的键值对数量size是否超多了最大容量threshold,如果超过,进行扩容