HashMap默认大小
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
HashMap最大容量,2的30次方
static final int MAXIMUM_CAPACITY = 1 << 30;
HashMap负载系数,当size超过容量的0.75(初始化大小为 16 * 0.75 = 12)后扩容
static final float DEFAULT_LOAD_FACTOR = 0.75f;
jdk8之前hashmap的数据结构是数组+链表,在hash碰撞很频繁的情况下链表会很长,由于hashmap查询数据的链表部分是通过循环来比较值的,所以效率慢。
jdk8把数据结构改为数组+链表+红黑树的形式,当链表的长度大于6时,把链表转换成红黑树。
static final int TREEIFY_THRESHOLD = 8;
红黑树的一些特点:
1.根结点一定是黑色
2.每个节点非黑即红
3.红色节点的叶子节点一定是黑色
4.从任意节点到叶子节点的黑色节点数量相同
问:hashmap为什么使用红黑树,而不是使用二分查找树或者avl平衡树?
二分查找树在极端情况下会退化成链表影响效率。
avl平衡树参考 https://blog.csdn.net/21aspnet/article/details/88939297
还有既然红黑树这么好,那为什么不直接使用红黑树,而要在链表和红黑树之间转换?
其实吧,红黑树毕竟是平衡树需要维持平衡就需要旋转,旋转也是耗时的,所以在量小的情况下,链表效率反而高。
退化阈值,当链表大小小于等于此值后把红黑树退化成链表
static final int UNTREEIFY_THRESHOLD = 6;
Hash桶化树的阈值
static final int MIN_TREEIFY_CAPACITY = 64;
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
计算hash值,很关键的一段代码,因为hashmap中所有的操作基本离不开它。
/**
* Returns a power of two size for the given target capacity.
*/
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
对于给定的目标容量,返回两倍大小的幂(2的幂次方)。这个函数在初始化指定容量的构造方法中会被调用。
例如:
cap=9 return 16
cap=15 return 16
cap=16 return 16
cap=17 return 32
/**
* Constructs an empty <tt>HashMap</tt> with the specified initial
* capacity and load factor.
*
* @param initialCapacity the initial capacity
* @param loadFactor the load factor
* @throws IllegalArgumentException if the initial capacity is negative
* or the load factor is nonpositive
*/
public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor;
this.threshold = tableSizeFor(initialCapacity);
}
说曹操曹操就到。这个自定义容量和负载因子的构造方法中调用tableSizeFor 方法,以确保hashmap的容量是2的幂次方
/**
* Constructs an empty <tt>HashMap</tt> with the specified initial
* capacity and the default load factor (0.75).
*
* @param initialCapacity the initial capacity.
* @throws IllegalArgumentException if the initial capacity is negative.
*/
public HashMap(int initialCapacity) {
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
会调用上面的方法 public HashMap(int initialCapacity, float loadFactor) 初始化。
/**
* Constructs an empty <tt>HashMap</tt> with the default initial capacity
* (16) and the default load factor (0.75).
*/
public HashMap() {
this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}
默认负载因子是0.75,容量是16
public HashMap(Map<? extends K, ? extends V> m) {
this.loadFactor = DEFAULT_LOAD_FACTOR;
putMapEntries(m, false);
}
初始化的时候把参数m放入map中
final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) {
//获取传入map大小
int s = m.size();
if (s > 0) {//如果传入的map没数据就没必要走下去了
//首先如果当前table为null(也就是是一个新的map),根据传入的map大小重新计算容量
//如果当前table不为空,但传入的map容量 大于 当前map容量,扩容
//然后把传入的map放入新的map中
if (table == null) { // pre-size
float ft = ((float)s / loadFactor) + 1.0F;
int t = ((ft < (float)MAXIMUM_CAPACITY) ?
(int)ft : MAXIMUM_CAPACITY);
if (t > threshold)
threshold = tableSizeFor(t);
}
else if (s > threshold)
resize();
for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) {
K key = e.getKey();
V value = e.getValue();
putVal(hash(key), key, value, false, evict);
}
}
}
public V get(Object key) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
获取元素的方法,调用hash算法算出下标,然后在table中取值。参数是一个object值,那也就可以是一个对象,如果一个对象作为key在进行hash运算的时候是不是要求参数对象重新hashcode算法。
final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
//通过hash在tab中获取数据,没取到直接返回null
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
//判断第一个node的值是不是我们要的值
return first;
if ((e = first.next) != null) {
//如果第一个节点不是,就接着判断后面的节点
if (first instanceof TreeNode)
//这个是红黑树
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
//链表通过循环比较获取
do {
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}
//调用getNode方法判断key存不存在
public boolean containsKey(Object key) {
return getNode(hash(key), key) != null;
}
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
if ((tab = table) == null || (n = tab.length) == 0)
//tab还未初始化,初始化tab
n = (tab = resize()).length;
if ((p = tab[i = (n - 1) & hash]) == null)
//tab中未找到就新new一个node
tab[i] = newNode(hash, key, value, null);
else {
//如果在tab中找到了node,并且第一个节点就是
Node<K,V> e; K k;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
else if (p instanceof TreeNode)
//第一个节点不是,接着查找下面的节点,如果节点转换为红黑树了,就走红黑树逻辑
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
//如果是链表,就循环查找
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
//链表找完了都没找到的情况
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
//判断是扩容还是转红黑树
treeifyBin(tab, hash);
break;
}
//找到了的情况
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
//替换值
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
if (++size > threshold)
//扩容
resize();
afterNodeInsertion(evict);
return null;
}
//扩容
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {
//如果旧map的容量超过最大容量,就把容量设置为int最大值
threshold = Integer.MAX_VALUE;
return oldTab;
}
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
//如果当前容量扩容2倍后满足条件就扩容2倍
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
//遍历旧数组
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
//这里的算法很有意思,扩容后原数据位置是否不变是由高位确定
//举例讨论数组大小从8扩容到16的过程
//容量是8
//tab.length -1 = 7 0 0 1 1 1
//e.hashCode = x 0 x x x x
//==============================
// 0 0 y y y
//扩容到16
//tab.length -1 = 15 0 1 1 1 1
//e.hashCode = x x x x x x
//==============================
// 0 z y y y
/**
* 扩容后,index的位置由低四位来决定,而低三位和扩容前一致。
* 也就是说扩容后index的位置是否改变是由高字节来决定的,
* 也就是说我们只需要将hashCode和高位进行运算即可得到index是否改变。
* 而刚好扩容之后的高位和oldCap的高位一样。
* 如上面的15二进制是1111,
* 而8的二进制是1000,他们的高位都是一样的。
* 所以我们通过e.hash & oldCap运算的结果即可判断index是否改变。
*
* 同理,如果扩容后index该变了。
* 新的index和旧的index的值也是高位不同,
* 其新值刚好是 oldIndex + oldCap的值。
* 所以当index改变后,新的index是 j + oldCap。
*
* 至此,resize方法结束,元素被插入到了该有的位置。
*
* 链接:https://www.jianshu.com/p/fb282d3d2e87
*/
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
//链表转换为红黑树
final void treeifyBin(Node<K,V>[] tab, int hash) {
int n, index; Node<K,V> e;
if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)
//当数组tab小于64的时候,扩容?
//这个作用是通过扩容从新分配节点来减少hash碰撞后的链表长度?
resize();
else if ((e = tab[index = (n - 1) & hash]) != null) {
TreeNode<K,V> hd = null, tl = null;
do {
TreeNode<K,V> p = replacementTreeNode(e, null);
if (tl == null)
hd = p;
else {
p.prev = tl;
tl.next = p;
}
tl = p;
} while ((e = e.next) != null);
if ((tab[index] = hd) != null)
hd.treeify(tab);
}
}