HashMap底层原理
1.概述
HashMap是基于哈希表的Map接口的非同步实现。元素以键值对的形式存放,并且允许null键和null值,因为key值唯一(不能重复),因此,null键只有一个。另外,hashmap不保证元素存储的顺序,是一种无序的,和放入的顺序并不相同(此类不保证映射的顺序,特别是它不保证该顺序恒久不变)。HashMap是线程不安全的。
2.继承关系
public class HashMap<K,V> extends AbstractMap<K,V> implements Map<K,V>, Cloneable, Serializable
3.类相关属性
//默认的数组大小 16长度
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;
//默认负载因子
static final float DEFAULT_LOAD_FACTOR = 0.75f;
//最大容量 差不多10.7374亿
static final int MAXIMUM_CAPACITY = 1 << 30;
//链表转换红黑树 阈值
static final int TREEIFY_THRESHOLD = 8;
//红黑树退链表阈值
static final int UNTREEIFY_THRESHOLD = 6;
//最小的树容量,大于这个值才会变为树结构
static final int MIN_TREEIFY_CAPACITY = 64;
4.存储结构示意图
借别人图一用
5.HashMap的数据存储结构
5.1这里直说一下jdk7和jdk8的区别:
在7版本的时候存储结构为数组加链表的形式存储数据,会造成链表过长查询速度很慢,时间复杂度为O(n),在jdk8中存储结构改为链表数组+红黑树的存储,在链表到达阈值之后转换为红黑树存储,查询效率增加时间复杂度为O(logn).
5.2 JDK8存储结构
在8版本中存储,HashMap采用数组存储Key-Value,每一对键值都会组成一个Node<K,V>节点,Node节点实际上就是一个单向链表,指向下一个节点位置,头结点存储在数组当中,可以解决Hash冲突的问题。在jdk7中是存在一个叫Enty的节点中,因为jdk8中有了红黑树的概念所以采用了Node节点。
5.3 put操作
借别人图一用(忘了哪个人的了)
流程图如上:
具体源码实现:
public V put(K key, V value) {
//调用putVal()方法实现put操作
return putVal(hash(key), key, value, false, true);
}
//计算hash的方法
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
//创建新节点
Node<K,V> newNode(int hash, K key, V value, Node<K,V> next) {
return new Node<>(hash, key, value, next);
}
//具体put操作细节
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,boolean evict) {
Node<K,V>[] tab; // 创建数组 默认16位长度
Node<K,V> p; //创建一个新节点 (数组中存的就是这个)
int n, i;
if ((tab = table) == null || (n = tab.length) == 0)
//对数组进行初始化设置长度(16)
n = (tab = resize()).length;
//判断tab[i = (n - 1) & hash]节点下是否有值存在
if ((p = tab[i = (n - 1) & hash]) == null)
//如果没有就把新节点放进去
tab[i] = newNode(hash, key, value, null);
else { //如果有元素
Node<K,V> e;
K k;
//判断存储节点是否已经存在
//1.两个对象的hash不同,不一定是不同一个对象
//2.hash相同也不一定相等
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p; //若 hash相同值相同 直接替换掉
else if (p instanceof TreeNode)//这个地方就是判断节点是否已经转化为红黑树节点
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); //如果是红黑树就进行红黑树插入
else {//否则就是不存在也不是树节点
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);//直接找到链表末尾插入
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st 插入之后会判断链表的长度是否满足变为红黑树,是否到达阈值
treeifyBin(tab, hash);//转为红黑树,或者进行扩容操作 以为有链表转为红黑树的阈值存在,满足阈值才可以转换为红黑树
break;
}
//判断是否和插入对象相同
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
// 存在映射的key,覆盖原值,将原值返回
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
if (++size > threshold)//hashmap的容量大于阈值
resize(); //扩容
afterNodeInsertion(evict);
return null;
}
当hashmap中的元素越来越多的时候,碰撞的几率也就越来越高(因为数组的长度是固定的),所以为了提高效率,就要对hashmap的数组进行扩容,而在hashmap数组扩容之后,最消耗性能的点就出现了:原数组中的数据必须重新计算其在新数组中的位置,并放进去,这就是resize;
那么hashmap什么时候进行扩容呢?当hashmap中的元素个数超过数组大小loadFactor时,就会进行数组扩容,loadFactor的默认值为0.75,也就是说,默认情况下,数组大小为16,那么当hashmap中元素个数超过160.75=12的时候,就把数组的大小扩展为2*16=32,即扩大一倍,然后重新计算每个元素在数组中的位置,而这是一个非常消耗性能的操作,所以如果我们已经预知hashmap中元素的个数,那么预设元素的个数能够有效的提高hashmap的性能。
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
树化:treeify
final void treeifyBin(Node<K,V>[] tab, int hash) {
int n, index; Node<K,V> e;
if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)
resize();
else if ((e = tab[index = (n - 1) & hash]) != null) {
TreeNode<K,V> hd = null, tl = null;
do {
TreeNode<K,V> p = replacementTreeNode(e, null);
if (tl == null)
hd = p;
else {
p.prev = tl;
tl.next = p;
}
tl = p;
} while ((e = e.next) != null);
if ((tab[index] = hd) != null)
hd.treeify(tab);
}
}
//链表节点转化为树节点, 本质上treeNode也是双向链表,从下面的继承关系看,treeNode拥有prev和next属性。
TreeNode<K,V> replacementTreeNode(Node<K,V> p, Node<K,V> next) {
return new TreeNode<>(p.hash, p.key, p.value, next);
}
static final class TreeNode<K,V> extends LinkedHashMap.Entry<K,V> {
TreeNode<K,V> parent; // red-black tree links
TreeNode<K,V> left;
TreeNode<K,V> right;
TreeNode<K,V> prev; // needed to unlink next upon deletion
boolean red;
}
static class Entry<K,V> extends HashMap.Node<K,V> {
Entry<K,V> before, after;
Entry(int hash, K key, V value, Node<K,V> next) {
super(hash, key, value, next);
}
}
static class Node<K,V> implements Map.Entry<K,V> {
final int hash;
final K key;
V value;
Node<K,V> next;
}
//树化的真正操作
final void treeify(Node<K,V>[] tab) {
TreeNode<K,V> root = null;
for (TreeNode<K,V> x = this, next; x != null; x = next) {
next = (TreeNode<K,V>)x.next;
x.left = x.right = null;
//将root节点置为黑色(根据红黑树的定义)
if (root == null) {
x.parent = null;
x.red = false;
root = x;
}
else {
K k = x.key;
int h = x.hash;
Class<?> kc = null;
//判断插入节点在红黑树的哪边
for (TreeNode<K,V> p = root;;) {
int dir, ph;
K pk = p.key;
//小于root节点,放在左边
if ((ph = p.hash) > h)
dir = -1;
//大于root节点,放在右边
else if (ph < h)
dir = 1;
//等于root节点,经过下面的方法尽心过多次判断,确认是否等于
else if ((kc == null &&
(kc = comparableClassFor(k)) == null) ||
(dir = compareComparables(kc, k, pk)) == 0)
dir = tieBreakOrder(k, pk);
TreeNode<K,V> xp = p;
//根据dir判断放在左边还是右边
if ((p = (dir <= 0) ? p.left : p.right) == null) {
x.parent = xp;
//放在左边(与root相等,也放在左边)
if (dir <= 0)
xp.left = x;
//放在右边
else
xp.right = x;
//进行平衡操作(下面过程省略)
root = balanceInsertion(root, x);
break;
}
}
}
}
//将隐藏的双向链表调整头结点
moveRootToFront(tab, root);
}
HashMap和Hashtable都实现了Map接口,主要的区别有:
对Null key 和Null value的支持:
HashMap可以接受为null的键值(key)和值(value),Hashtable不能接受null值,会产生空指针异常。
线程是否安全:
HashMap是非synchronized,而Hashtable是synchronized,这意味着Hashtable是线程安全的,多个线程可以共享一个Hashtable;而如果没有正确的同步的话,多个线程是不能共享HashMap的
效率:
由于Hashtable是线程安全的,所以在单线程环境下比HashMap要慢。如果你不需要同步,只需要单一线程,那么使用HashMap性能要好过Hashtable。
初始容量大小和每次扩充容量大小的不同:
HashMap初始大小为16,扩容为2的幂次方;HashTable初始为11,扩容为2n+1
底层结构:
HashMap会将链表长度大于阈值是转化为红黑树(会先判断当前数组的长度是否小于 64,是则扩容,而不转化),将链表转化为红黑树,以减少搜索时间。Hashtable 没有这样的机制。