写在篇头
其实这是在我写完下边所有方法解析后写的。每次看源码,有些时候都不知道每一步的意义在哪里,缺少了自己的思考,直接看会枯燥,甚至不知所云。今天突然想换种说明方式。为什么会有HashMap这种结构,为了实现什么目的?为什么用这种结构?比其他结构的好在哪里?
实例:我知道了一个人的姓名,我想找他所有信息。怎么存储,怎么查找。
简单的键值对结构被设计出来Node<”姓名”,”信息”>;
如果很多这种Node<”姓名”,”信息”>都存放在一个集合里,用什么存储结构好呢?
试一下顺序存储结构,数组,ArrayList都是这种。放在数组里,看一下如何获取元素。由于不知道index(数组中的第几个元素),无法直接get(index),通过地址查找元素,只能遍历比较。时间复杂度为O(n)。由于这种Key不能重复,每次增删改都要先遍历,遍历一遍(O(n)),增删要移动一遍(O(n)),增加时,可能还要重新建立数组。
试一下链式存储结构,链表,看一下如何获取元素。遍历是不可少的,时间复杂度为O(n),增删改只需改一下前边元素的指向就可以了。
好了,自己都想法试完了,是不是看着简单,但操作起来耗费时间,一个O(n)的时间复杂度应该不能让人满意。看大神怎么创建的。
HashMap构造是由数组加链表组成。也就是顺序结构与链式结构的组合。每个元素为
Node(int hash, K key, V value, Node<K,V> next)
对key的hashCode与数组长度(桶的数量)-1 进行位运算。存到对应桶的的链表上,结果一样的话,再对key进行equals比较,一样的,覆盖,不一样的增加。
优点
- 直接使Key的Hashcode值经过处理变为了数组的(index),在顺序存储结构查找时间复杂度变为了O(1)+该桶链表长度,当然,如果Hash值算法好的话(极限,一个桶只对应一个),这个查询的时间复杂度无线接近于O(1)。
- 在增删改不超出门限值时,即不用重新构造数组时,时间复杂同样为O(1)+该桶的链表长度,且之后增加了红黑树,比链表的速度更快。
- 任何可变容量的数据结构,顺序结构一定要开辟新空间复制(排除初始化分配内存特别大的情况),链表一定要增删指向。关于hashMap扩容,在扩容时,一个桶上的链表上的直接通过hash判段可以分成两个桶上的链表,这种复制方式,依赖于一开始元素分配给桶时的运算,也可以说是呼应。
概述
父类关系java.lang.Object
java.util.AbstractMap<K,V>
java.util.HashMap<K,V>
实现接口
Serializable
Cloneable
Map<K,V>
非线性安全,底层数组,链表储存结构,允许使用 null 值和 null 键。
解决问题
1.为什么默认初始容量为16,或者建议为2的幂。
2.put,remove,get方法原理。
3.java8的优化在什么地方(红黑树)。
上述问题会在说明基本结构后,开始解答。
基本概念
对于hashMap中的每个键值对对象,在内部将其封装为Entry<Key,Value>;
HashMap内部维护一个Entry[] table数组,EntryTable的长度又被称为HashMap的容量(capacity);
Entry[] table数组中的每一个元素都是一个链表(也可以为null),这样的每个元素为桶(bucket)。
所有的Entry<Key,Value>的数目被称为HashMap的大小(size);
根据键值对中key的hashcode的值得某些运算,使结果一致的储存在同一个桶;
成员变量
// 初始化容量,必须是2的幂(默认为16)
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
// 最大容量 2的30次方
static final int MAXIMUM_CAPACITY = 1 << 30;
// 默认加载因子
static final float DEFAULT_LOAD_FACTOR = 0.75f;
// 一般情况下,元素的hash值如果相同,那么就依次存在一个链表里,
// 如果链表里的元素数目超过TREEIFY_THRESHOLD,就要把链表转化成一棵红黑树
static final int TREEIFY_THRESHOLD = 8;
// 与TREEIFY_THRESHOLD相对应,如果红黑树里的元素数目小于UNTREEIFY_THRESHOLD,红黑树就退化成一个链表
static final int UNTREEIFY_THRESHOLD = 6;
// 这个成员变量的定义是: 如果
// 1. 一个桶里的元素个数大于TREEIFY_THRESHOLD
// 2. HashTable的桶的个数大于MIN_TREEIFY_CAPACITY
// 那么,就对桶里的元素进行"树化",否则仅仅resize整个HashTable
static final int MIN_TREEIFY_CAPACITY = 64;
// hash表,长度总是2的幂次
transient Node<K,V>[] table;
// key-value的集合
transient Set<Map.Entry<K,V>> entrySet;
// map里的key-value数目
transient int size;
// 结构更改次数
transient int modCount;
// resize的门限值,超过值,就要resize了,值为(capacity * load factor)
int threshold;
final float loadFactor;
构造方法
有三个构造方法:分别是不传参,传容量,传容量和加载因子。
构造方法中传容量这一点,非常关键,如果你提前可以估算HashMap的大致大小,有可能之后添加元素时可以省去复制数组,拆分链表,链表转数这一系列复杂操作,而且,无论你传的容量如何最终,数组的大小(桶的数量)一定是2的整数次幂。你传9到16间的任何数,他的桶数量就是16个。大于等于你传参的整数次幂,如果想要完美,直接估算出你的集合需要多少个桶传参吧,需要211个元素,100/0.75 = 133,new HashMap(138),或者直接new HashMap(256)。桶的数量是256,这个传容量,传的是桶的数目。不是元素的数目。
// 构造一个带指定初始容量和加载因子的 空HashMap。
public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor;
this.threshold = tableSizeFor(initialCapacity);
}
// 构造一个带指定初始容量和默认加载因子 (0.75) 的空 HashMap
public HashMap(int initialCapacity) {
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
// 构造一个具有默认初始容量 (16) 和默认加载因子 (0.75) 的空 HashMap。
public HashMap() {
this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}
// 构造一个映射关系与指定 Map 相同的新 HashMap。
public HashMap(Map<? extends K, ? extends V> m) {
this.loadFactor = DEFAULT_LOAD_FACTOR;
putMapEntries(m, false);
}
// 计算出比cap大的最小的2的整数次幂
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
问题
问题1 为什么默认初始容量为16,或者建议为2的幂。
这个容量实际上是桶的数目。
对于HashMap中的Key映射到HahMap中对应的位置,会用到Hash函数
index = Hash(key);
这个Hash函数是如何实现的
对key的HashCode值与HashMao的长度length-1进行位运算。
index = HashCode(Key)&(length-1)
当length为2的幂时,length-1的2进制全为1
例
2的4次幂-1 15 1111
2的5次幂-1 31 11111
这样位运算的结果只和Key的Hashcode值的最后几位有关。
这样的HashCode本身分布均匀,Hash算法结果均匀,
问题2 什么是阈值和加载因子
先描述一下根据Key的hashCode值, 如何得到Value。
HashMap是由数组+链表组成,在获取元素时,根据key的Hash运算.找出Entry[] table 中的数组位置(桶),找到桶里的链表,找到最终value。
找到桶的时间复杂度为O(1)
在桶中直到对象节点的时间复杂度为O(n)
这个时候是不是桶中的链表越短,查询速率越快。那最好的方法就是增加桶的数量(即Entry [] table 数组的长度)
但是我们的HashMap初始的时候不能就直接创建很大数组长度,且根据HashMap的元素增加,还要动态的增加桶的数量。
策略:if
HashMap.size > HashMap的容量(Entry [] table 的大小)*加载因子
HashMap的Entry[] table 的容量扩充为当前的一倍,然后将以前桶中的Entry
内部类Node
// 每个Node都包含了指向下个Node的next
static class Node<K,V> implements Map.Entry<K,V> {
// hash值
final int hash;
// key
final K key;
// value
V value;
// 下个节点
Node<K,V> next;
// 构造方法
Node(int hash, K key, V value, Node<K,V> next) {
this.hash = hash;
this.key = key;
this.value = value;
this.next = next;
}
public final K getKey() { return key; }
public final V getValue() { return value; }
public final String toString() { return key + "=" + value; }
public final int hashCode() {
return Objects.hashCode(key) ^ Objects.hashCode(value);
}
public final V setValue(V newValue) {
V oldValue = value;
value = newValue;
return oldValue;
}
// 如果key与vlaue分别相等,即认为相等
public final boolean equals(Object o) {
if (o == this)
return true;
if (o instanceof Map.Entry) {
Map.Entry<?,?> e = (Map.Entry<?,?>)o;
if (Objects.equals(key, e.getKey()) &&
Objects.equals(value, e.getValue()))
return true;
}
return false;
}
}
成员方法
V put(K key, V value) 添加元素方法
// 添加Key-Value键值对
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
/**
* 添加Key-Value键值对
* @param hash hash for key
* @param key the key
* @param value the value to put
* @param onlyIfAbsent 如果为true,不替换已存在的值
* @param evict 如果为false 桶处于创造中
* @return previous value或者null
*/
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
// 如果数组为空,数组需要重建(扩容)
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
// hash值与数组长度-1进行位运算
// p就是桶的链表的头结点或者树根
// 如果为空,直接放进桶里
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
// 链表里有元素,判断是链还是树
else {
Node<K,V> e; K k;
// 就是链表头
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
// 是树
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
// 是链表 是链表要考虑是否要变成红黑树
else {
for (int binCount = 0; ; ++binCount) {
// 没有找到,插入新节点
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
// 判断是否转换为红黑树
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
// 旧值替换为新值 新加的元素已经存在了,更新一下旧值
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
// 如果添加成功,需要判断一下size是超出门限值
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
// 扩容 要保持元素顺序不变,或者以2的整数次幂移动
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {
// 旧的HashMap已经超出最大容量,没法扩容
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
// capacity扩大为两倍 threshold扩大为两倍
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1;
}
// 旧的HashMap的capacity为0
else if (oldThr > 0)
newCap = oldThr;
// 旧的capcity为0,旧的threshold也为0,用默认的构造
else {
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
// 更新一下threshold
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
// 判断旧的HashMap是否为空
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
// e是桶中链表的的首元素
Node<K,V> e;
if ((e = oldTab[j]) != null) {
// 原先的置空了
oldTab[j] = null;
// 桶中链表就一个节点 e.hash是hash值,与新的数组长度做位运算,形成新的首元素
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
// 桶里的元素构成了树,即必然不止一个元素 对红黑树进行操作。
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
// 桶里的节点构成了链表,记得要保证元素顺序
/**
* 因为扩容时桶的个数变为之前的两倍,(key的hash值与数组长度 与运算,判断结果是否为0)
* 直接分出去属于hi(不为0)的部分即可,
* 举例说明一下即可,对于capacity为16的HashMap
* hash值为7和23的元素是放在一个桶里的,假设index为0和1
* 扩容后,长度变成了32,那么此时7和23就不在一个桶里了
* 7在编号为7的桶里,index为0
* 23在编号为23的桶里,index也为0
* loHead = 7[0], loTail = 7[0]
* hiHead = 23[0], hiTail = 23[0]
* 判断是Hi还是Low,拿hash值与原先的capacity(16)10000与一下即可
* 原来的hash后五位为0XXXX,位运算结果为00000,即为lo
* 后五位为1xxxx,运算结果为10000,即为hi,把元素Node放到新桶里
*/
else {
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
V remove(Object key) 删除元素
// 如果存在,则从该映射移除指定键的映射。
public V remove(Object key) {
Node<K,V> e;
return (e = removeNode(hash(key), key, null, false, true)) == null ?
null : e.value;
}
/**
* 方法概要说明:想要移除元素,在链表层面,分为三种情况
* 红黑树,参照红黑树结构,不详细说明
* 桶中的首元素,即链表头元素,直接是头元素的next变成头元素即可
* 桶中的中间元素,让元素前的元素的next的指向变成元素后的一个元素即可
* 此方法前边在确定需要移除的元素属于上述那种情况,找到后分别处理
* @param hash hash for key
* @param key the key
* @param value the value to match if matchValue, else ignored
* @param matchValue 如果为true 仅仅删除值等于
* @param movable 如果为FALSE 在删除时不移动其他节点 为true移动
* @return the node, or null if none
*/
final Node<K,V> removeNode(int hash, Object key, Object value,
boolean matchValue, boolean movable) {
// 和上边一样的 找到桶
Node<K,V>[] tab; Node<K,V> p; int n, index;
if ((tab = table) != null && (n = tab.length) > 0 &&
(p = tab[index = (n - 1) & hash]) != null) {
Node<K,V> node = null, e; K k; V v;
// 桶首元素
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
node = p;
else if ((e = p.next) != null) {
// 对应桶有数,判断树还是链表 先找出来node<>
if (p instanceof TreeNode)
node = ((TreeNode<K,V>)p).getTreeNode(hash, key);
else {
do {
if (e.hash == hash &&
((k = e.key) == key ||
(key != null && key.equals(k)))) {
node = e;
break;
}
p = e;
} while ((e = e.next) != null);
}
}
// 如果有 移除
if (node != null && (!matchValue || (v = node.value) == value ||
(value != null && value.equals(v)))) {
// 如果是树
if (node instanceof TreeNode)
((TreeNode<K,V>)node).removeTreeNode(this, tab, movable);
// 如果是桶里首元素
else if (node == p)
tab[index] = node.next;
// 如果是链表中间元素 p为元素前的一个元素
else
p.next = node.next;
++modCount;
--size;
afterNodeRemoval(node);
return node;
}
}
return null;
}
V get(Object key) 获取元素
// 找到key对应的value
public V get(Object key) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
// 找到key对应的value
final Node<K,V> getNode(int hash, Object key) {
// first为桶首元素
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
// 数组不为空且长度大于0(有桶),且传进来的key对应的桶(链表)部位空
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
// 和桶首比较
if (first.hash == hash &&
((k = first.key) == key || (key != null && key.equals(k))))
return first;
// 如果链表不只首部一个元素 判断是树还是链
if ((e = first.next) != null) {
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
// 链表 依次判断key是否与传进来的key完全相等
do {
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}