LinkedHashMap源码阅读
leetcode:146可以帮助一些方法的理解
预先描述
-
LinkedHashMap继承HashMap并实现了Map接口
public class LinkedHashMap<K,V> extends HashMap<K,V> implements Map<K,V> {
-
保存k-v的Entry节点结构
//继承了HashMap的Node节点,多了前驱指针和后驱指针 static class Entry<K,V> extends HashMap.Node<K,V> { Entry<K,V> before, after; Entry(int hash, K key, V value, Node<K,V> next) { super(hash, key, value, next); } }
HashMap的Node节点的结构
static class Node<K,V> implements Map.Entry<K,V> { final int hash;//key的hash值 final K key; V value; Node<K,V> next;//当发生哈希碰撞的时候,添加到链表中 }
创建LinkedHashMap
在new LinkedHashMap的时候并没有真正的创建Entry数组,这一点和HashMap一样。底层使用table数组当做散列表(将不定长度的元素使用某种关系映射,存储到固定长度的数组中)。
/**
* @param initialCapacity 用于计算初始容量大小
* @param loadFactor 负载因子:用于计算扩容的阈值:table.length*loadFactor
* @param accessOrder true:按照访问顺序进行排序 false:按照插入顺序进行排序(leetcode 146)
*/
public LinkedHashMap(int initialCapacity,
float loadFactor,
boolean accessOrder) {
super(initialCapacity, loadFactor);//<1>
this.accessOrder = accessOrder;
}
<1>、super(initialCapacity, loadFactor):初始化
确定了LinkedHashMap的初始容量threshold大小(>=initialCapacity的最小2次幂数),且最多不超过MAXIMUM_CAPACITY(2^30)。
public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor;
this.threshold = tableSizeFor(initialCapacity);//<2>
}
<2>、tableSizeFor(initialCapacity):确定threshold
使用initialCapacity来计算LinkedHashMap真正的容量,threshold是>=initialCapacity的最小2次幂数。
static final int tableSizeFor(int cap) {
int n = -1 >>> Integer.numberOfLeadingZeros(cap - 1);//2.1>
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
<2.1>、Integer.numberOfLeadingZeros(cap - 1)
n:该numberOfLeadingZeros(num)
方法返回num的二进制的最高位左侧的0的个数。
-1的二进制为0xffffffff,将-1无符号右移n位得到原二进制最高位及右侧都为1的数。再+1,得到大于(cap-1)的最小2次幂。
过程的例子initialCapacity=10
- 10-1=9的二进制(低16位为例):0000 0000 0000 1001。
- Integer.numberOfLeadingZeros(10 - 1)为28(32-4:在此方法内部计算过程是31-2-1)。
- 将-1(二进制(低16位为例):1111 1111 1111 1111)无符号右移28位得到的二进制数是0000 0000 0000 1111。
- 将-1无符号右移28位得到的结果+1,得到16的二进制数是0000 0000 0001 0000。
一些小tips
-
减1的原因:如果不减1,则会导致initialCapacity正好是2的次幂,也会进行扩大。例如:8->16
-
容量一定是2次幂的原因:与根据key的hash值计算该元素在数组中的位置slot使用的方式是&操作。
-
如何计算slot?
(table.length - 1) & hash]
:假设table.length-16因为数组下标从0开始,因此有效slot为0-15。按理应该使用%16,但是对于计算机而言位操作更快(在每次插入的时候都需要进行计算)。如果table的长度是2次幂,那么&(table.length - 1)的作用等同于%16。
存入k-v:put(k-v)
调用过程
HashMap.put->HashMap.putVal
put方法
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);//使用hash(key)方法算的key的hash值,用于计算相应的slot
}
hash(Object key)方法
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
根据return一行,LinkedHashMap可以允许key为null,并且将永远放在slot为0的位置(可能是链)。
计算key的哈希值的算法:(h = key.hashCode()) ^ (h >>> 16)
原因:从上可知计算key所属slot只用到了key的哈希值与table的size的二进制低位(16为例:低位后4位,高位前28位)进行&操作,而没有使用高位,这有可能导致较强的哈希碰撞进而导致slot所在链表过长,使效率变低。所以将使用hashCode()
的到的哈希值的高16位和低16位进行一个异或操作,使原本无用的高位也参与到slot的计算中来。
putVal方法
/**
*
* @param hash key的哈希值,使用hash()方法对key.hashCode进行处理过
* @param onlyIfAbsent 默认false。true:不会改变已经存在的非null值,如果之前存入的是null值是可以改变的
* @param evict 默认true。false:table处于创建模式
* @return 如果进行替换返还的是oldVal,否则返回null
*/
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;//进入到此if表示table还没有进行初始化,使用resize进行初始化
if ((p = tab[i = (n - 1) & hash]) == null)//<1>.情况1:slot位置还没有元素,直接添加
tab[i] = newNode(hash, key, value, null);//<1.1>.创建LinkedHashMap的Entry节点,此处是多态,使用了LinkedHashMap的newNode()方法
else {
Node<K,V> e; K k;//e:oldEntry,如果key已经存在map中
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))//<2>.情况2:slot位置有元素。先对key的哈希值进行判断,然后使用==和eqauls()方法进行判断
e = p;
else if (p instanceof TreeNode)//<3>.情况3:该节点是红黑树节点,后期补上
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
for (int binCount = 0; ; ++binCount) {//<4>.情况4:对slot处的双端链表进行遍历
if ((e = p.next) == null) {//<4.1>.如果Entry的next为null,说明遍历到尾部还没有相等的key,则将其封装为一个Entry插入到尾部
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1) // <4.1.1>.减1的原因:binCount= -1为第一个链表Entry(情况2已经判断过链表的第一个Entry,此时判断链表的第二个位置是否为null)。如果在加入key的Entry后链表的长度>8,则考虑树化。
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))//<4.2>.和遍历当前Entry进行比较
break;
p = e;//<4.3>.等效于 p=p.next(e = p.next)
}
}
if (e != null) { //<5>.e不为null,则该key已经存在map中
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)//<5.1>.是否允许该覆盖,即使不允许value为null也可以被覆盖
e.value = value;
afterNodeAccess(e);//<5.2>.对于accessOrder=true,按照访问顺序进行排序
return oldValue;
}
}
++modCount;//<6>
if (++size > threshold)//<7>.说明k-v已经添加成功。size:map中存在的k-v总数如果超过扩容阈值,则进行扩容
resize();
afterNodeInsertion(evict);//<8>.如果为true(非创建模式),可能会删除eldest的Entry节点。
return null;//添加而不是修改返回null
}
newNode()方法
Node<K,V> newNode(int hash, K key, V value, Node<K,V> e) {
LinkedHashMap.Entry<K,V> p =
new LinkedHashMap.Entry<>(hash, key, value, e);
linkNodeLast(p);//将其插入到尾部访问链表的尾部
return p;
}
判断key是否相等
if (e.hash == hash &&((k = e.key) == key || (key != null && key.equals(k))))
这是判断要插入的k-v的key是否已经存在与map中。
为什么重写equals()
方法同时也要重写hashCode
?原因在此!!!
-
首先判断两个key的哈希值是否相同,此处使用到
hashCode
。如果相同则进行==和equals()进行判断(满足足其一就可),如果不同就认为两个key不相等。 -
如果没有重写equals()和hashCode()方法,则调用Object类中的该方法。此时equals()其实使用的是==进行对象地址值判断,而hashCode()也是根据地址值进行判断的。所以equals()和hashCode()对于同一个对象是否相等的结果是相同的。
-
如果重写equals()方法而不重写hashCode()方法则有可能导致逻辑错误。
class Preson{ String name; int age; }
重写equals()方法使得name相同的preson我们认为相等。但是new出两个name属性相同的preson对象,使用重写equals()方法判断一定相等,使用hashCode判定却因为地址不同而被判定为不相等,此与我们的业务要求不符(new出的另一个相同name的preson本应该是替换操作,而变成添加)。
modCount变量的作用
记录了map结构被改变的次数。此处的结构修改是指map的k-v数或者其他方式修改其内部结构,例如rehash、put、afterNodeAccess方法等可以改变,而替换value的操作不会。此字段用于使map的Collection-view上的迭代器快速失败(在使用迭代器遍历的时候,如果改变map的结构会抛出ConcurrentModificationException)。
afterNodeAccess方法
put操作,在为修改时可能触发。当accessOrder=true时,LinkedHashMap的链式排序按照访问顺序进行排序,将最近访问操作(替换,get等)涉及到的k-v,移至链尾。
void afterNodeAccess(Node<K,V> e) { // move node to last
LinkedHashMap.Entry<K,V> last;
if (accessOrder && (last = tail) != e) {//如果e已经在链尾,则不用操作
LinkedHashMap.Entry<K,V> p =
(LinkedHashMap.Entry<K,V>)e, b = p.before, a = p.after;
p.after = null;
if (b == null)//b为e的前一个节点,e在链首
head = a;
else
b.after = a;
if (a != null)
a.before = b;
else
last = b;
if (last == null)
head = p;
else {
p.before = last;
last.after = p;
}
tail = p;
++modCount;//修改次数+1
}
}
afterNodeInsertion方法
put操作,在插入新的节点时可能触发。在removeEldestEntry方法返回true的时候将LinkedHashMap链首的node删除。
void afterNodeInsertion(boolean evict) { // possibly remove eldest
LinkedHashMap.Entry<K,V> first;
if (evict && (first = head) != null && removeEldestEntry(first)) {
K key = first.key;
removeNode(hash(key), key, null, false, true);
}
}
/**
* Implements Map.remove and related methods.
* @param matchValue true:vaule值equal的时候才会删除
* @param movable false:在删除的时候不会移动其他节点(红黑树中使用)
* @return the node, or null if none
*/
final Node<K,V> removeNode(int hash, Object key, Object value,
boolean matchValue, boolean movable) {
resize()方法扩容、初始化
在分隔符之前主要就是根据oldTab的大小oldCap、扩容阈值oldThr,确定扩容后的newTab的大小newCap、扩容阈值newThr。
分隔符之下是将oldTab中的节点信息copy到newTab中来。
注意!!!jdk1.8之前扩容使用首插法会导致死循环,jdk1.8使用尾插法解决了这个问题!但是在树化的时候也会导致死循环。
过程
-
先将空的newTab赋值给table。
-
遍历oldTab,逐个将slot进行copy。
-
如果slot已经链化copy过程如下:
if ((e = oldTab[j]) != null) { oldTab[j] = null; if (e.next == null) newTab[e.hash & (newCap - 1)] = e; else if (e instanceof TreeNode) ((TreeNode<K,V>)e).split(this, newTab, j, oldCap); //=================================== else { // preserve order Node<K,V> loHead = null, loTail = null; Node<K,V> hiHead = null, hiTail = null; Node<K,V> next; do { next = e.next; if ((e.hash & oldCap) == 0) {//<1> if (loTail == null) loHead = e; else loTail.next = e; loTail = e; } else { if (hiTail == null) hiHead = e; else hiTail.next = e; hiTail = e; } } while ((e = next) != null); if (loTail != null) { loTail.next = null; newTab[j] = loHead; } if (hiTail != null) { hiTail.next = null; newTab[j + oldCap] = hiHead; } } }
使用<1>(因为在进行slot计算的时候使用的是(table.length-1)&hash),只使用了table.length二级制中1以后的位,而扩容后length<<1,1以后的位数增加了1位。我们只需判断hash中多出来的这一位是否为1,如果为1则添加到高端链,否则添加到低端链)对哈希值进行计算得到高端链和低端链,低端链相对于oldTab的slot不用变,而高端链相对于oldTab的slot+oldCap(原因:因为扩容newCap为oldCap的二倍)
源码
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {//<1>.已经进行过初始化了,是扩容
if (oldCap >= MAXIMUM_CAPACITY) {//<1.1>.如果oldCap已经>=2的30次幂不会扩容table,而是将扩容阈值改成Integer.MAX_VALUE
threshold = Integer.MAX_VALUE;
return oldTab;
}
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)//<1.2>.将table大小扩容为2倍。如果大于16扩容阈值也为原来的2倍,否则会使用newCap * loadFactor。
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // <2>.初始化情况1:在使用构造参数的时候设置初始大小,newCap就是计算得到的初始大小(通过threshold保存的,为了防止与扩容混淆)
newCap = oldThr;
else { // <3>.初始化情况2:没有设置初始大小默认newCap:16,负载因子:0.75,newThr:16*0.75
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {//<4>.初始化情况1的newThr赋值
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
//=============================================
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
树化条件
slot已经链化,如果在插入新的节点之后长度>=8,会执行treeifyBin(tab, hash)
方法。进入该方法后并不会直接树化,而是会判断table的长度是否小于64。如果小于则会进行扩容,否则才进行树化。
后续补充(大概)
树化
树化的大概过程:
//再放入node节点之后,经过判断,链表(单项)长度>8,table散列表的长度>=64,则会对该处链表进行树化。hd--表头 tl--表尾
if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)
resize();
else if ((e = tab[index = (n - 1) & hash]) != null) {//<1>将该处单向链表,处理成双向TreeNode链表。
TreeNode<K,V> hd = null, tl = null;
do {
TreeNode<K,V> p = replacementTreeNode(e, null);
if (tl == null)
hd = p;
else {
p.prev = tl;
tl.next = p;
}
tl = p;
} while ((e = e.next) != null);
if ((tab[index] = hd) != null)
hd.treeify(tab);//<2>树化,树化之后还保存着链式的结构
}
树化恢复的条件:
//在删除TreeNode的时候,如果root为null,或者root的左右子节点有一个为null,或左孙子节点为null会恢复链化。
if (root == null
|| (movable
&& (root.right == null
|| (rl = root.left) == null
|| rl.left == null))) {
tab[index] = first.untreeify(map); // too small
return;
}
//在resize()的过程中,如果该slot处的节点为TreeNode,就会将该红黑树进行拆分成lo和hi两个链
//如果拆分之后(或未拆分)的链长<=6,则会恢复。
//如果不恢复链化,并且拆分成两个部分会进行重新树化,否则不会重新树化。
if (loHead != null) {
if (lc <= UNTREEIFY_THRESHOLD)
tab[index] = loHead.untreeify(map);
else {
tab[index] = loHead;
if (hiHead != null) // (else is already treeified)
loHead.treeify(tab);
}
}
if (hiHead != null) {
if (hc <= UNTREEIFY_THRESHOLD)
tab[index + bit] = hiHead.untreeify(map);
else {
tab[index + bit] = hiHead;
if (loHead != null)
hiHead.treeify(tab);
}
}
Iterator
abstract class HashIterator {
Node<K,V> next; // next entry to return
Node<K,V> current; // current entry
int expectedModCount; // for fast-fail
int index; // current slot
HashIterator() {
expectedModCount = modCount;
Node<K,V>[] t = table;
current = next = null;
index = 0;
if (t != null && size > 0) { // advance to first entry
do {} while (index < t.length && (next = t[index++]) == null);
}
}
public final boolean hasNext() {
return next != null;
}
final Node<K,V> nextNode() {
Node<K,V>[] t;
Node<K,V> e = next;
if (modCount != expectedModCount)
throw new ConcurrentModificationException();
if (e == null)
throw new NoSuchElementException();
if ((next = (current = e).next) == null && (t = table) != null) {
do {} while (index < t.length && (next = t[index++]) == null);
}
return e;
}
public final void remove() {
Node<K,V> p = current;
if (p == null)
throw new IllegalStateException();
if (modCount != expectedModCount)
throw new ConcurrentModificationException();
current = null;
removeNode(p.hash, p.key, null, false, false);
expectedModCount = modCount;
}
}
//例子:
//|--源码
HashMap hashMap = new HashMap();
hashMap.put(null,"haha");
for (Object o : hashMap.entrySet()) {
System.out.println(o);
}
for (Object o : hashMap.keySet()) {
System.out.println(o);
}
for (Object value : hashMap.values()) {
System.out.println(value);
}
//|--编译后的代码
HashMap hashMap = new HashMap();
hashMap.put((Object)null, "haha");
Iterator var2 = hashMap.entrySet().iterator();
Object value;
while(var2.hasNext()) {
value = var2.next();
System.out.println(value);
}
var2 = hashMap.keySet().iterator();
while(var2.hasNext()) {
value = var2.next();
System.out.println(value);
}
var2 = hashMap.values().iterator();
while(var2.hasNext()) {
value = var2.next();
System.out.println(value);
}