目录
目录
1、为什么默认初始化桶数组大小为16,为什么加载因子的大小为0.75?
为什么String, Interger这样的wrapper类适合作为键?
移位运算符
移位运算符操作的对象就是二进制的位,可以单独用移位运算符来处理int型整数。
运算符 | 含义 | 例子 |
<< | 左移运算符,将运算符左边的对象向左移动运算符右边指定的位数(在低位补0) | x<<3 |
>> | "有符号"右移运算 符,将运算符左边的对象向右移动运算符右边指定的位数。使用符号扩展机制,也就是说,如果值为正,则在高位补0,如果值为负,则在高位补1. | x>>3 |
>>> | "无符号"右移运算 符,将运算符左边的对象向右移动运算符右边指定的位数。采用0扩展机制,也就是说,无论值的正负,都在高位补0. | x>>>3 |
注:x<<y 相当于 x*2y ;x>>y相当于x/2y
从计算速度上讲,移位运算要比算术运算快。
如果x是负数,那么x>>>3没有什么算术意义,只有逻辑意义。
哈希原理
哈希表,又称散列表,采用的数据结构为数组+链表(算法中称邻接表)的形式。为什么采用这样的数据结构?
数组:采用一段连续的存储单元来存储数据。对于指定下标的查找,时间复杂度为O(1);通过给定值进行查找,需要遍历数组,逐一比对给定关键字和数组元素,时间复杂度为O(n),当然,对于有序数组,则可采用二分查找,插值查找,斐波那契查找等方式,可将查找复杂度提高为O(logn);对于一般的插入删除操作,涉及到数组元素的移动,其平均复杂度也为O(n)。
线性链表:对于链表的新增,删除等操作(在找到指定操作位置后),仅需处理结点间的引用即可,时间复杂度为O(1),而查找操作需要遍历链表逐一进行比对,复杂度为O(n)。
二叉树:对一棵相对平衡的有序二叉树,对其进行插入,查找,删除等操作,平均复杂度均为O(logn)。
哈希表结合了数组的对于给定下标的情况下的查找速度优势和线性链表中的增加、删除等操作速度优势。
哈希表主要的结构构建公式为:存储位置 = f(关键字)
关键字:所需存储的键值对实体的哈希值
public final int hashCode() {
return Objects.hashCode(key) ^ Objects.hashCode(value);
}
f:哈希函数 ------用来确定实体在数组中的位置散列均匀
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
//高16位和低16位异或
存储位置:若是没有产生哈希冲突,则为数组中的散列值索引。产生了哈希冲突,则位置在散列值对应的链表上。在数组中的下标为=hash值 & (length-1) .
链表存在的意义是解决哈希冲突问题,哈希冲突是不同的值产生了相同的散列值,这时就将冲突值新建一个节点,链接到该散列值对应链表上。
源码阅读:
HashMap 继承了AbstractMap,实现了Map, Cloneable, Serializable接口;
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16 //默认初始容量
static final float DEFAULT_LOAD_FACTOR = 0.75f; //默认加载因子
1、为什么默认初始化桶数组大小为16,为什么加载因子的大小为0.75?
- 为什么默认初始化桶数组大小为16
从两个方面回答这个问题:第一,为什么是2的n次方;第二,为什么是16.
为什么是2的n次方?
1、当length为2的n次方时,h&(length - 1)就相当于对length取模,而且速度比直接取模快得多,这是HashMap在速度上 的一个优化。若不是2的n次方,比如是15,则h&(length - 1)之后就会出现碰撞概率增大,查询速度慢,且有些桶就不 会被分配到数 据。因为他们在与14进行&运算时,得到的结果最后一位永远都是0,有1,3,5,7,9,11,13,也 就是没有存放数据。为2的n次方时,进行低位&运算时,值总是与原来hash值相同,而进行高位运算时,其值等于其 低位值。使得数据在table数组中分布较均匀,查询速度也较快。
2、如果桶初始化桶数组设置太大,就会浪费内存空间,16是一个折中的大小,既不会像1,2,3那样放几个元素就扩 容,也不会像几千几万那样可以只会利用一点点空间从而造成大量的浪费。
-
为什么加载因子的大小为0.75
0.75是平衡了时间和空间等因素; 负载因子越小桶的数量越多,读写的时间复杂度越低(极限情况O(1), 哈希碰撞的可能性 越 小); 负载因子越大桶的数量越少,读写的时间复杂度越高(极限情况O(n), 哈希碰撞可能性越高)。
static final int TREEIFY_THRESHOLD = 8; //若桶中链表元素超过8时,会自动转化成红黑树
static final int UNTREEIFY_THRESHOLD = 6; //若桶中元素小于等于6时,树结构还原成链表形式
static final int MIN_TREEIFY_CAPACITY = 64;
//当需要将解决hash冲突的链表转变为红黑树时,需要判断下此时数组容量,
//若是由于数组容量太小(小于MIN_TREEIFY_CAPACITY)导致的hash冲突太多,
//则不进行链表转变为红黑树操作,转为利用resize()函数对hashMap扩容
2、为什么是8、6?
原因1:
红黑树的平均查找长度是log(n),长度为8,查找长度为log(8)=3,链表的平均查找长度为n/2,当长度为8时,平均查找长度 为8/2=4,这才有转换成树的必要;链表长度如果是小于等于6,6/2=3,虽然速度也很快的,但是转化为树结构和生成树的 时间并不会太短。
还有选择6和8的原因是:
中间有个差值7可以防止链表和树之间频繁的转换。假设一下,如果设计成链表个数超过8则链表转换成树结构,链表个数小 于8则树结构转换成链表,如果一个HashMap不停的插入、删除元素,链表个数在8左右徘徊,就会频繁的发生树转链表、 链表转树,效率会很低。
原因2:
理想情况下使用随机的哈希码,容器中节点分布在hash桶中的频率遵循泊松分布(具体可以查看 http://en.wikipedia.org/wiki/Poisson_distribution),按照泊松分布的计算公式计算出了桶中元素个数和概率的对照表,可以看到 链表中元素个数为8时的概率已经非常小,再多的就更少了,所以原作者在选择链表元素个数时选择了8,是根据概率统计而 选择的。
源码分析
Node节点
//Node继承了Map.Entry,Entry是用来存储键值对数据的封装形式
static class Node<K,V> implements Map.Entry<K,V> {
final int hash;
final K key;
V value;
Node<K,V> next;
Node(int hash, K key, V value, Node<K,V> next) {
this.hash = hash;
this.key = key;
this.value = value;
this.next = next;
}
public final K getKey() { return key; }
public final V getValue() { return value; }
public final String toString() { return key + "=" + value; }
public final int hashCode() {
return Objects.hashCode(key) ^ Objects.hashCode(value);
}
//新值代替旧值,返回旧值
public final V setValue(V newValue) {
V oldValue = value;
value = newValue;
return oldValue;
}
//判断两个值相等,key和value均相等
public final boolean equals(Object o) {
if (o == this)
return true;
if (o instanceof Map.Entry) {
Map.Entry<?,?> e = (Map.Entry<?,?>)o;
if (Objects.equals(key, e.getKey()) &&
Objects.equals(value, e.getValue()))
return true;
}
return false;
}
}
初始化容量
//主要是返回一个大于或等于当前容量的最小的整数2次幂
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
HashMap初始化
逻辑:初始化容量小于0-->抛出异常;大于最大容量-->赋值为最大容量;加载因子小于0或为空-->抛出异常;
最后传参
public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor;
this.threshold = tableSizeFor(initialCapacity);
}
size操作
public int size() {
return size;
}
get操作
get为封装形式,getNode是重要方法
public V get(Object key) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
//表不为空或表长度大于0或表首索引存在
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) { //在数组的这个位置有数据(链表节点)存在
//判断是否与数组首个节点的hash值相同且两个key值是否相等--即值相同hash值也相同
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
//相同则返回首节点
return first;
//首节点不同,则遍历链表
if ((e = first.next) != null) {
//判断是不是红黑树节点,是则转入红黑树的获取方法
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
//遍历链表,直到结尾,找到则返回
do {
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
//找不到则返回空
return null;
}
containsKey
//判断能不能找到key这个节点的值
public boolean containsKey(Object key) {
return getNode(hash(key), key) != null;
}
put操作
逻辑:首先判断相应位置是否为空,为空则新建节点;不为空,首先判断首节点,则判断节点是否和要插入节点相等,相等则覆盖,不相等则先判断是不是红黑树节点,使得话则按照红黑树的插入方法进行插入,不是红黑树节点则遍历链表,直至在尾部插入。
JDK1.7做法:
- 如果定位到的数组位置没有元素 就直接插入。
- 如果定位到的数组位置有元素,遍历以这个元素为头结点的链表,依次和插入的key比较,如果key相同就直接覆盖,不同就采用头插法插入元素。
//put为封装方法,真正方法为putVal
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
//表为空,则进行扩容操作
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
//在数组的这个位置(即桶的位置)没有数据,则新建节点
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
//比较同种第一个元素,值相同且hash值也相同,进行覆盖,即Key存在
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p; //保存第一个元素
//若是红黑树的节点,则按照树的方式插入
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
//链表形式
else {
for (int binCount = 0; ; ++binCount) {
//将节点加到链表尾部
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
//如果节点数大于等于8,转化为红黑数
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
//链表中若是存在与key相等且hash值相同,退出循环
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
//遍历链表
p = e;
}
}
//表示在桶中找到key值、hash值与插入元素相等的结点
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e); //访问后回调
return oldValue;
}
}
++modCount; //每次扩容和更改map结构的计数器
if (++size > threshold) //超过阈值则扩容
resize();
afterNodeInsertion(evict); //插入后回调
return null;
}
resize操作
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) { //扩容前的数组大小如果已经达到最大(2^30)了
threshold = Integer.MAX_VALUE; //修改阈值为int的最大值(2^31-1),这样以后就不会扩容了
return oldTab;
}
//容量扩大2倍后小于最大容量
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
为什么String, Interger这样的wrapper类适合作为键?
因为他们有一个特点:不可变性、是final的,且已经重写了equals()和hashCode()方法。其中不可变性是必要的,要计算 hashCode(),就要防止键值改变,如果键值在放入时和获取时返回不同的hashcode的话,那么就不能从HashMap中找到想要的对象。