HashMap数据结构
数组定义
transient Node<K,V>[] table;
链表节点定义
static class Node<K,V> implements Map.Entry<K,V> {
final int hash;
final K key;
V value;
Node<K,V> next;
...
}
树节点定义
static final class TreeNode<K,V> extends LinkedHashMap.Entry<K,V> {
TreeNode<K,V> parent; // red-black tree links
TreeNode<K,V> left;
TreeNode<K,V> right;
TreeNode<K,V> prev; // needed to unlink next upon deletion
boolean red;
...
}
HashMap在jdk7中只有一种节点数据结构,通过链表进行存储,在jdk8之后做了改进,当节点数大于树化阈值(TREEIFY_THRESHOLD=8)时,链表进化为红黑树,当进行扩容的时候,会检查节点大小,小于树退化阈值(UNTREEIFY_THRESHOLD=6)时会退化为链表。
为什么树化阈值默认为8?因为hash函数设计合理情况下,碰撞概率为6%,因此设计为8的时候用链表简单插入较为合理。为什么退化阈值为6呢?因为如果太接近8的话,会导致数据结构不停地树化和退化,影响效率。
HashMap插入
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
第一步调用hash()方法,获取key的哈希值,通过key的hashCode与hashCode的高16位取异或(相同为0,不同为1),HashCode与对存储地址有一定关系(同一个对象的hashCode一定相同,但是hashCode相同的对象不一定是同一个)。
hashCode是一个int值,为32位值,但是数组大小是固定的,怎么在较小的数组中快速定位数组下标呢?同时需要保证的是,改下标需要尽量减少碰撞。hash函数就起了扰动的作用,使hash值更加的分散,详情见《An introduction to optimising a hashing strategy》实验,有明确的实验解释。
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
第二步,调用putVal方法,下面着重来分析一下这个方法
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
首先,判断一下table是否为空,如果为空则调用扩容(初始化)方法,进行resize(),resize方法首先判断了一大堆,设置了新的阈值和新的table(扩容大小为2的倍数)大小。
第一步就是进行实际的扩容,先new了一个新的table,然后对链表和红黑树进行拆分和赋值。
注意 if ((e.hash & oldCap) == 0)这一句,为什么不需要进行重新计算hash值?因为每次扩容大小为原来的两倍,意思是 oldCap只是最高位变了,因此通过与操作,就知道老值的数组下标了。
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
//如果原table不为空
if (oldCap > 0) {
//如果原容量已经达到最大容量了,无法进行扩容,直接返回
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
//设置新容量为旧容量的两倍
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
//阈值也变为原来的两倍
newThr = oldThr << 1; // double threshold
}
/**
* 从构造方法我们可以知道
* 如果没有指定initialCapacity, 则不会给threshold赋值, 该值被初始化为0
* 如果指定了initialCapacity, 该值被初始化成大于initialCapacity的最小的2的次幂
* 这里这种情况指的是原table为空,并且在初始化的时候指定了容量,
* 则用threshold作为table的实际大小
*/
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
//构造方法中没有指定容量,则使用默认值
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
// 计算指定了initialCapacity情况下的新的 threshold
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
/**从以上操作我们知道, 初始化HashMap时,
* 如果构造函数没有指定initialCapacity, 则table大小为16
* 如果构造函数指定了initialCapacity, 则table大小为threshold,
* 即大于指定initialCapacity的最小的2的整数次幂
* 从下面开始, 初始化table或者扩容, 实际上都是通过新建一个table来完成
*/
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
/** 这里注意, table中存放的只是Node的引用,这里将oldTab[j]=null只是清除旧表的引用,
* 但是真正的node节点还在, 只是现在由e指向它
*/
oldTab[j] = null;
//桶中只有一个节点,直接放入新桶中
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
//桶中为红黑树,则对树进行拆分,对树的操作有机会再讲
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
//桶中为链表,对链表进行拆分
else { // preserve order
//下面为对链表的拆分,我们单独来讲一下。
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
回到putVal方法,继续进行的是取得数组下表,注意下面这一句,将table数组大小-1与hash进行与操作,实际上就是将hash操作的低位取得在n的范围内,获取数组下表,如果没有的话直接new节点,有的话还需要判断是树还是链表插入。
i = (n - 1) & hash
树的插入操作,先插入,插入之后进行平衡(通过红黑树的变色与旋转)
final TreeNode<K,V> putTreeVal(HashMap<K,V> map, Node<K,V>[] tab,
int h, K k, V v) {
Class<?> kc = null;
boolean searched = false;
TreeNode<K,V> root = (parent != null) ? root() : this;
for (TreeNode<K,V> p = root;;) {
int dir, ph; K pk;
if ((ph = p.hash) > h)
dir = -1;
else if (ph < h)
dir = 1;
else if ((pk = p.key) == k || (k != null && k.equals(pk)))
return p;
else if ((kc == null &&
(kc = comparableClassFor(k)) == null) ||
(dir = compareComparables(kc, k, pk)) == 0) {
if (!searched) {
TreeNode<K,V> q, ch;
searched = true;
if (((ch = p.left) != null &&
(q = ch.find(h, k, kc)) != null) ||
((ch = p.right) != null &&
(q = ch.find(h, k, kc)) != null))
return q;
}
dir = tieBreakOrder(k, pk);
}
TreeNode<K,V> xp = p;
if ((p = (dir <= 0) ? p.left : p.right) == null) {
Node<K,V> xpn = xp.next;
TreeNode<K,V> x = map.newTreeNode(h, k, v, xpn);
if (dir <= 0)
xp.left = x;
else
xp.right = x;
xp.next = x;
x.parent = x.prev = xp;
if (xpn != null)
((TreeNode<K,V>)xpn).prev = x;
moveRootToFront(tab, balanceInsertion(root, x));
return null;
}
}
}
树的插入,通过循环来进行链表的遍历,当找到相同的key时,就把当前节点记录下来。需要注意的时候,此处有树化阈值的判断,当需要进行树化的时候,通过 treeifyBin(tab, hash);函数将链表转化为红黑树。
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
jdk8对HashMap做的优化
数据结构变为了红黑树和链表两种选择,这使得当大量hash处于同一数组的时候,查找速度由O(n)变为O(logn)
链表的新数据有头部插入变为了尾部插入,这样可以方式多线程的时候,两个线程如果同时插入头部,会形成链表环,导致数据完全不能用
线程安全
HashMap不是线程安全的,多线程情况下会出现数据覆盖(JDK7还会出现链表死环的问题),还会造成多个线程同时扩容的问题。
以下有几种解决线程不安全的方法
HashTable:在操作方法上加上synchronized关键字,锁住了整个数组,粒度较大,性能较差。
Collection.SynchronizedMap,通过Map接口封装了一个SynchronizedMap,对当前对象this加了一个所,意思是同一个对象某时刻只能被一个线程访问。
SynchronizedMap(Map<K,V> m) {
this.m = Objects.requireNonNull(m);
mutex = this;
}
ConcurrentHashMap使用的是分段锁进行线程同步,通过CAS机制与synchronized关键字,对属性加上volatile关键字,防止编译时调换顺序。
首先看一下putVal里面的代码段,对节点的实际操作加上synchronized关键字进行加锁。
synchronized (f) {
if (tabAt(tab, i) == f) {
if (fh >= 0) {
binCount = 1;
for (Node<K,V> e = f;; ++binCount) {
K ek;
if (e.hash == hash &&
((ek = e.key) == key ||
(ek != null && key.equals(ek)))) {
oldVal = e.val;
if (!onlyIfAbsent)
e.val = value;
break;
}
Node<K,V> pred = e;
if ((e = e.next) == null) {
pred.next = new Node<K,V>(hash, key,
value, null);
break;
}
}
}
else if (f instanceof TreeBin) {
Node<K,V> p;
binCount = 2;
if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,
value)) != null) {
oldVal = p.val;
if (!onlyIfAbsent)
p.val = value;
}
}
}
}
看一下Node节点的定义,对于值和next都是采用了volatile关键字的
static class Node<K,V> implements Map.Entry<K,V> {
final int hash;
final K key;
volatile V val;
volatile Node<K,V> next;
}
再看一下树节点的定义,定义了读写锁,来保证线程安全
static final class TreeBin<K,V> extends Node<K,V> {
TreeNode<K,V> root;
volatile TreeNode<K,V> first;
volatile Thread waiter;
volatile int lockState;
// values for lockState
static final int WRITER = 1; // set while holding write lock
static final int WAITER = 2; // set when waiting for write lock
static final int READER = 4; // increment value for setting read lock
}