HashMap底层数据结构
JDK1.7及以前是数组+链表,1.8及以后是数组加链表或红黑树
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16 默认的初始容量
static final float DEFAULT_LOAD_FACTOR = 0.75f; //加载因子
static final int TREEIFY_THRESHOLD = 8; //链表长度的阈值,当超过8时,会进行树化(不绝对)
static final int UNTREEIFY_THRESHOLD = 6; //当树中只有6个或以下,转回为链表
HashMap采用table数组存储Key-Value,每一个键值对组成了一个Node节点(JDK1.7及以前是Entry实体,JDK1.8加入了红黑树,因此改为Node).Node节点是一个单向链表结构.
transient Node<K,V>[] table; //默认数组
static class Node<K,V> implements Map.Entry<K,V> {
final int hash;
final K key;
V value;
Node<K,V> next;
put和get操作底层原理
put源码
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
//计算key对象的hash值
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);//进行与操作
}
//具体添加细节
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; //创建数组
Node<K,V> p; //新节点
int n, i;
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length; //对数组进行初始化
if ((p = tab[i = (n - 1) & hash]) == null) //(n - 1) & hash 求数组的下标,判断是否有元素。没有
tab[i] = newNode(hash, key, value, null); //直接放入
else { //有元素
Node<K,V> e;
K k;
//判断存储的节点是否已存在。
//1.两个对象的hash值不同,一定不是同一个对象
//2.hash值相同,两个对象也不一定相等
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p; //存储的节点的key的已存在,直接进行替换
else if (p instanceof TreeNode) //存储的节点的key的不存在,判断是否为树节点(是不是已经转化为红黑树)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {//即不存在。也不是树节点,
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) { //直接找到链表的尾部,直接插入
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st 判断链表的长度是否大于可以转化为树结构的阈值
treeifyBin(tab, hash); //树化
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k)))) //判断是否和插入对象相同
break;
p = e;
}
}
if (e != null) { // existing mapping for key 存在映射的key,覆盖原值,将原值返回
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
if (++size > threshold) //hashmap的容量大于阈值
resize(); //扩容
afterNodeInsertion(evict);
return null;
}
get源码
public V get(Object key) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
//计算key的hash值
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
//具体实现
final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab;
Node<K,V> first, e;
int n;
K k;
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) { //数组不能为空并且当前索引位置的元素不能为空;如果为空,直接返回null值
if (first.hash == hash && // always check first node//检查第一个元素,如果是,直接返回
((k = first.key) == key || (key != null && key.equals(k))))
return first;
if ((e = first.next) != null) {//向下寻找
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
do {
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}
扩容原理
什么时候扩容
- 存放新值的时候,已有元素个数>=数组大小*阈值
- 存放新值的时候当前存放数据发生hash碰撞(当前key计算的hash值换算出来的数组下标位置已经存在值)
扩容后的数组大小为扩容前的两倍
扩容源码
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
//进行数组的扩容,长度为原来的2倍,阈值为原来的2倍
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
**//进行数组的初始化,容量为默认值16,阈值为16*0.75**
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
//把原数组的元素调整到新数组中
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
//判断当前索引j的位置是否存在元素e
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
//判断 e.next是不是有值,简而言之,就是判断当前位置是否是树或者链表
if (e.next == null)
//调整到新数组中
newTab[e.hash & (newCap - 1)] = e;
//如果是红黑树,进行树的拆分(具体不讲了)
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
//如果是链表
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
//遍历链表
do {
next = e.next;
//生成低位链表
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
//生成高位链表
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
//将低位链表调整到新数组
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
//将高位链表调整到新数组
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
HashMap和HashTable区别
- HashMap线程不安全,HashTable线程安全,前者效率高于后者
- HashMap允许一个null key和多个null value,HashTable不允许null key和null value(会抛出NullPointException)
- HashMap默认初始化大小16,扩容完大小为扩容前的2倍,HashTable默认初始化大小为11,扩容完大小为扩容前大小*2+1
- HashMap链表大于8会转为红黑树,HashTable不会
HashMap长度为什么必须是2的幂次方
满足公式,节省空间,减低hash冲突,提高效率,免去重新计算
- hashmap在确定元素落在数组的位置的时候,计算方法是(n-1)&hash,n为数组长度也就是初始容量,这是因为“取模”运算的消耗还是比较大的, 那么如何保证(n-1)&hash和hash%n的结果相同呢,当n为2的指数次幂时,会满足一个公式:(n-1)&hash=hash%n,这样就可以用(n-1)&hash的位运算来使计算更加高效。
- 如果初始容量是奇数,那么(n-1)就为偶数,偶数2进制的结尾都是0,经过hash值&运算后末尾都是0,那么0001,0011,0101,1001,1011,0111,1101这几个位置永远都不能存放元素了,空间浪费相当大,更糟的是这种情况中,数组可以使用的位置比数组长度小了很多,这样就会造成空间的浪费而且会增加hash冲突。
- 只有是2的指数次幂的数字经过n-1之后,二进制肯定是 …11111111 这样的格式,这种格式计算的位置的时候,完全是由产生的hash值类决定,而不受n-1影响。这样会提高效率。比如要扩容了,2的幂次方*2,在二进制中比如4和8,代表2的2次方和3次方,他们的2进制结构相似,比如 4和8 00000100 0000 1000只是高位向前移了一位,这样扩容的时候,只需要判断高位hash,移动到之前位置的倍数就可以了,免去了重新计算位置的运算。并且这样可以保证(n-1)&hash得到的存储位置是在hashmap的length之内的,也就是n之内。因为最大也就是hash值也全是…1111111
负载因子为什么默认为0.75
太小导致空间利用不足,浪费内存, 太大导致扩容频繁,hash碰撞频繁
链表转红黑树阈值为8的原因
- 在单个桶bin被过度填充时,会被转换为TreeNode的红黑树。通常情况下,单个bin并不会被过度填充,但是不能排除使用恶意或者不合理的hash算法使得键出现O(log n)的极端情况,在这种情况下,将其转换为树形结构后多出来的复杂性也是可以理解的。
- 因为树节点的带下是普通节点的两倍,所以我们只有在单个桶已经包含了足够多的节点时才会转换成树,而在树变得太小时,将其转换为链表。在hashcode分布良好的情况下,我们是用不到树型桶的。
- 理想情况下,随机的hashcode遵循Poisson分布原则,在给定参数值的情况下,8的对应的分布值已经相当低,在取值方便于后面的位运算的情况下,取值为2的幂次方是很有必要的,两个要求之下,只有8是最适合的。且用户自定的值不应当小于8,避免分布集中。
HashMap 多线程操作导致死循环问题
当重新调整HashMap大小的时候,确实存在条件竞争,因为如果两个线程都发现HashMap需要重新调整大小了,它们会同时试着调整大小。在调整大小的过程中,存储在链表中的元素的次序会反过来,因为移动到新的bucket位置的时候,HashMap并不会将元素放在链表的尾部,而是放在头部,这是为了避免尾部遍历(tail traversing)。如果条件竞争发生了,那么就死循环了。