1.HashMap总览
1.1 hashmap底层储存结构图解
底层结构其实就是数组+链表+红黑树
1.2 HashMap类定义
先来看看HashMap的定义:
public class HashMap<K,V> extends AbstractMap<K,V> implements Map<K,V>, Cloneable, Serializable {}
从中我们可以了解到:
- HashMap<K,V>:HashMap是以key-value形式存储数据的。
- extends AbstractMap<K,V>:继承了AbstractMap,大大减少了实现Map接口时需要的工作量。
- implements Map<K,V>:实现了Map,提供了所有可选的Map操作。
- implements Cloneable:表明其可以调用clone()方法来返回实例的field-for-field拷贝。
- implements Serializable:表明该类是可以序列化的。
1.3 put()数据原理分析图解
蓝色table的长度是2的多少次方;哈希冲突,链表很长时间复杂度会退化为o(n),长度过长,退化为红黑树查找效率会更高;扩容本质是空间换时间,有更多的槽位,链表更短
1.4 一些名词
- hashmap的底层数据结构名为table的数组,是一个Node数组
- table数组中的每个元素是一个Node元素(但是这个Node元素可能指向下一个Node元素从而形成链表),table数组的每个位置称为桶,比如talbe[0] 称为一个桶,也可以称为一个bin
2. HashMap.java源码
2.1 核心属性分析
静态常量
/**
* The default initial capacity - MUST be a power of two.
* 缺省table大小,默认的初始容量,必须是二的次方
*/
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
/**
* The maximum capacity, used if a higher value is implicitly specified
* by either of the constructors with arguments.
* MUST be a power of two <= 1<<30.
*
* 最大容量,当通过构造函数隐式指定了一个大于MAXIMUM_CAPACITY的时候使用
*/
static final int MAXIMUM_CAPACITY = 1 << 30;
/**
* The load factor used when none specified in constructor.
*缺省负载因子大小,当构造函数没有指定加载因子的时候的默认值的时候使用
*/
static final float DEFAULT_LOAD_FACTOR = 0.75f;
/**
* The bin count threshold for using a tree rather than list for a
* bin. Bins are converted to trees when adding an element to a
* bin with at least this many nodes. The value must be greater
* than 2 and should be at least 8 to mesh with assumptions in
* tree removal about conversion back to plain bins upon
* shrinkage.
*
* 树化阈值
* TREEIFY_THRESHOLD为当一个bin从list转化为tree的阈值,当一个bin中元素的总元素最低超过这个值的时候,bin才被转化为tree;
* 为了满足转化为简单bin时的要求,TREEIFY_THRESHOLD必须比2大而且比8要小
*/
static final int TREEIFY_THRESHOLD = 8;
/**
* The bin count threshold for untreeifying a (split) bin during a
* resize operation. Should be less than TREEIFY_THRESHOLD, and at
* most 6 to mesh with shrinkage detection under removal.
*
* 树降级为链表的阈值
* bin反tree化时的最大值,应该比TREEIFY_THRESHOLD要小,
* 为了在移除元素的时候能检测到移除动作,UNTREEIFY_THRESHOLD必须至少为6
*/
static final int UNTREEIFY_THRESHOLD = 6;
/**
* The smallest table capacity for which bins may be treeified.
* (Otherwise the table is resized if too many nodes in a bin.)
* Should be at least 4 * TREEIFY_THRESHOLD to avoid conflicts
* between resizing and treeification thresholds.
*
* 树化的另外一个阈值,哈希表中所有元素超过64时,才允许树化,也就是table的长度(注意不是bin的长度)的最小得为64才树化。
* 为了避免扩容和树型结构化阈值之间的冲突,MIN_TREEIFY_CAPACITY 应该最小是 4 * TREEIFY_THRESHOLD
*/
static final int MIN_TREEIFY_CAPACITY = 64;
成员变量
/**
* The table, initialized on first use, and resized as
* necessary. When allocated, length is always a power of two.
* (We also tolerate length zero in some operations to allow
* bootstrapping mechanics that are currently not needed.)
*
* 哈希表(table),第一次被使用的时候才进行加载
*/
transient Node<K,V>[] table;
/**
* Holds cached entrySet(). Note that AbstractMap fields are used
* for keySet() and values().
* 键值对缓存,它们的映射关系集合保存在entrySet中。即使Key在外部修改导致hashCode变化,缓存中还可以找到映射关系
*/
transient Set<Map.Entry<K,V>> entrySet;
/**
* The number of key-value mappings contained in this map.
* table中 key-value 元素的个数(当前哈希表元素个数)
*/
transient int size;
/**
* The number of times this HashMap has been structurally modified
* Structural modifications are those that change the number of mappings in
* the HashMap or otherwise modify its internal structure (e.g.,
* rehash). This field is used to make iterators on Collection-views of
* the HashMap fail-fast. (See ConcurrentModificationException).
*
* HashMap在结构上被修改的次数,结构上被修改是指那些改变HashMap中映射的数量或者以其他方式修改其内部结构的次数(例如,rehash)。
* 替换不叫修改
* 此字段用于使HashMap集合视图上的迭代器快速失败。
*/
transient int modCount;
/**
* The next size value at which to resize (capacity * load factor).
*
* 下一次resize扩容阈值,当前哈希表中的元素超过此值时,触发扩容
* threshold = capacity * load factor
* @serial
*/
// (The javadoc description is true upon serialization.
// Additionally, if the table array has not been allocated, this
// field holds the initial array capacity, or zero signifying
// DEFAULT_INITIAL_CAPACITY.(???????))
int threshold;//扩容阈值
/**
* The load factor for the hash table.
* 负载因子,默认0.75;threshold=capacity*loadFactor
* @serial
*/
final float loadFactor;
2.2 构造方法分析
仅仅看最长参数的构造方法就行了,其它三个都是调用了此构造方法:
public HashMap(int initialCapacity, float loadFactor) {
//做了一些校验
//capacity必须大于0,最大值也就是Max_cap
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
//loadFactor必须大于0
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor;
this.threshold = tableSizeFor(initialCapacity);
//initialCapacity为7,生成8;initialCapacity为9,生成16
}
/**
* Returns a power of two size for the given target capacity.
*
* 1.返回一个大于等于当前值cap的一个的数字,并且这个数字一定是2的次方数
* 假如cap为10,那么n= 9 = 0b1001
* 0b1001 | 0b0100 = 0b1101
* 0b1101 | 0b0011 = 0b1111
* 0b1111 | 0b0011 = 0b1111
* ......
* .....
* n = 0b1111 = 15
* return 15+1
*
* 2.这里的cap必须要减1,如果不减,并且如果传入的cap为16,那么算出来的值为32
*
* 3.这个方法就是为了把最高位1的后面都变为1
* 0001 1101 1100 -> 0001 1111 1111 -> +1 -> 0010 0000 0000 一定是2的次方数
*/
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;//右移2位
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
//+1进一位,后面都是0,一定是2的幂次方
}
2.3 put方法分析
路由算法:(l-1)&hashcode=index;//l开始为16/32/64,index是要放的位置
/**
* @param key key with which the specified value is to be associated
* @param value value to be associated with the specified key
* @return the previous value associated with key, or
* null if there was no mapping for key.
* (A null return can also indicate that the map
* previously associated null with key.)
* 返回先前key对应的value值(如果value为null,也返回null),如果先前不存在这个key,那么返回的就是null;
*/
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
/
* 在往haspmap中插入一个元素的时候,由元素的hashcode经过一个扰动函数之后
再与table的长度进行与运算才找到插入位置,下面的这个hash()方法就是所谓的
扰动函数;^异或:相同返回0,不同返回1
* 作用:***让key的hashCode值的高16位参与运算***,hash()方法返回的值的低十六位
是有hashCode的高16位共同的特征的
* 举例
* hashCode = 0b 0010 0101 1010 1100 0011 1111 0010 1110
*
* 0b 0010 0101 1010 1100 0011 1111 0010 1110 ^
* 0b 0000 0000 0000 0000 0010 0101 1010 1100 //右移16位
* =>0b 0010 0101 1010 1100 0001 1010 1000 0010
*/
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
// tab表示当前hashmap的散列表(table)
// p表示散列表的元素
// n表示散列表的长度
// i表示路由寻址结果
Node<K,V>[] tab; Node<K,V> p; int n, i;
// ***延迟初始化逻辑,第一次调用putval()方法的时候才进行初始化hashmap中最耗内存的散列表
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
// 1.最简单的一种情况,寻找到的桶位,刚好是null,这个时候直接构建Node节点放进去就行了
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
// e,如果key不为null,并且找到了当前要插入的key一致的node元素,
就保存在e中
// k表示一个临时的key
Node<K,V> e; K k;
// 2.表示该桶位中的第一个元素与你当前插入的node元素的key一致,表示后序要
//进行替换操作
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
// 3.表示当前桶位已经树化了
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
// 4.当前捅位是一个链表
else {
//链表的头元素与要插入的key不一致
for (int binCount = 0; ; ++binCount) {
// 4.1 迭代到最后一个元素了也没有找到要插入的key一致的node
//***说明需要加入当前链表的末尾
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
//条件成立的话,说明当前链表的长度达到树化的标准了,需要进行树化
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);//触发树化的操作
break;
}
// 4.2 找到了与要插入的key一致的node元素
//e表示当前元素的下一个,e.hash == hash,e的hash值与要插入的hash值一致
//***条件成立的话说明找到了相同key的node元素,需要进行替换
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
// 如果找到了与要插入的key一致的node元素,那么进行替换(2和4.2的情况)
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
// modeCount表示散列表table结构的修改次数,替换Node元素的value不计数
++modCount;
//插入新元素,size自增,如果自增后的值大于扩容阈值,则触发扩容
if (++size > threshold)
resize();//触发扩容
afterNodeInsertion(evict);
return null;
}
2.4 resize方法分析
为了解决哈希冲突导致的链化影响,扩容会缓解该问题。
当在table长度位16中的元素移到table长度位32的table中的时候;我们可以知道,原来在15这个槽位的元素的hash()值的后四位一定是1111(因为跟1111即table长度-1 进行与运算得到了1111)。所以所以当table长度变为32的时候,原来在15这个槽位的元素要么还在15这个槽位,要么在31这个操作(因为原来15这个槽位的元素后五位一定是11111或者01111,跟 11111即table新长度-1 进行与运算一定得到 01111或者11111)
/**
* 对table进行初始化或者扩容。
* 如果table为null,则对table进行初始化
* 如果对table扩容,因为每次扩容都是翻倍,与原来计算(n-1)&hash的结果相比,节点要么就在原来的位置,要么就被分配到“原位置+旧容量”这个位置。
*/
final Node<K,V>[] resize() {
//引用扩容前的哈希表
Node<K,V>[] oldTab = table;
// oldCap表示扩容之前table数组的长度
int oldCap = (oldTab == null) ? 0 : oldTab.length;
// oldThr表示本次扩容之前的阈值,触发本次扩容操作的阈值
int oldThr = threshold;
// ***newCap:表示扩容之后table数组的大小;***newThr表示扩容之后,下次出发扩容的条件,新的扩容阈值
int newCap, newThr = 0;
//===================给newCap和newThr赋值start=============================
// oldCap大于零,说明之前已经初始化过了(hashmap中的散列表不是null),要进行正常的扩容操作
if (oldCap > 0) {
// 扩容之前的table数组大小已经最大值了,以后不再扩容了
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
// (1)左移一位进行翻倍扩容(假如旧的oldCap为8, < DEFAULT_INITIAL_CAPACITY,那么此条件不成立newThr将不会赋值),并且赋值给newCap,newCap小于数组最大值限制且扩容之前的阈值>=16
//这种情况下,则下一次扩容的阈值等于当前阈值翻倍
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
// (2)
// ***oldCap == 0(说明hashmap中的散列表是null)且oldThr > 0 ;下面几种情况都会出现oldCap == 0,oldThr > 0
// 1.public HashMap(int initialCapacity);
// 2.public HashMap(Map<? extends K, ? extends V> m);并且这个map有数据
// 3.public HashMap(int initialCapacity, float loadFactor);
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;//newCap是2的次方大小
// ***oldCap == 0, oldThr == 0的情况,通过newCap和loadFactor计算出一个newThr
// public HashMap();
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;//16
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);//12
}
// ***对应上面(1)不成立或者(2)成立的情况,
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
//===================给newCap和newThr赋值end=============================
threshold = newThr;//下次按照新的扩容阈值执行
@SuppressWarnings({"rawtypes","unchecked"})//创建更长
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
//说明hashmap本次扩容之前,table不为null
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
//当前node节点
Node<K,V> e;
// 当前桶位中有数据,但具体是单个数据还是链表还是红黑树并不知道
if ((e = oldTab[j]) != null) {
// 将对应的桶位指向null,方便jvm回收
oldTab[j] = null;
// 1.当前桶位只有一个元素,没有发生过碰撞,直接计算当前元素应存放的位置
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
// 2.当前节点已经树化了
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
// 3.***桶位已经形成链表(看上面案例图)
else { // preserve order
// 低位链表:存放在扩容之后的数组下标的位置,与当前数组下标位置一致的元素
// 高位链表:存放在扩容之后的数组下标的位置为当前数组下标位置+ 扩容之前数组长度的元素
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
// 比如e.hash只能为两种可能 1 1111 或者 0 1111 , oldCap 为 10000
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
// 如果低位链表有数据
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
// 如果高位链表有数据
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
2.5 get方法分析
public V get(Object key) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;//存的时候hash了,取的时候也要hash
}
final Node<K,V> getNode(int hash, Object key) {
// tab:引用当前hashmap的table
// first:桶位中的头元素
// n:table数组的长度
// e:是临时Node元素
// k:是key的临时变量
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
// 1.如果哈希表为空,或key对应的桶为空,返回null
//判断水池中有没有水,有的话进入if
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
// 2.这个桶位的头元素就是想要找的
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
return first;
// 说明当前桶位不止一个元素,可能是链表,也可能是红黑树
if ((e = first.next) != null) {
// 3.树化了
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
// 4.桶位形成了链表
do {
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}
2.6 remove方法分析
public V remove(Object key) {
Node<K,V> e;
return (e = removeNode(hash(key), key, null, false, true)) == null ?
null : e.value;//e就是方法返回的node
}
//matchValue为true,说明不仅key匹配上,value也匹配上才删除
final Node<K,V> removeNode(int hash, Object key, Object value,
boolean matchValue, boolean movable) {
// tab:引用当前hashmap的table
// p:当前的node元素
// n:当前的散列表数组长度
// index:表示寻址结果
Node<K,V>[] tab; Node<K,V> p; int n, index;
// 1.如果数组table为空或key映射到的桶为空,返回null。
if ((tab = table) != null && (n = tab.length) > 0 &&
(p = tab[index = (n - 1) & hash]) != null) {
//说明路由的桶位是有数据的,需要进行查找操作,并且删除
// node:查找到的结果
// e:当前Node的下一个元素
Node<K,V> node = null, e; K k; V v;
// 2.桶位的头元素就是我们要找的
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
node = p;
else if ((e = p.next) != null) {//当前桶位是链表或红黑树
// 3.当前桶位是否树化了
if (p instanceof TreeNode)
node = ((TreeNode<K,V>)p).getTreeNode(hash, key);
// 4.当前桶位是链表
else {
do {
if (e.hash == hash &&
((k = e.key) == key ||
(key != null && key.equals(k)))) {
node = e;
break;
}
p = e;
} while ((e = e.next) != null);
}
}
// 如果node不为null,说明按照key查找到想要删除的数据了
//并且传入的value是否等于要查找的value,如果一致则删除
if (node != null && (!matchValue || (v = node.value) == value ||
(value != null && value.equals(v)))) {
// 1.node是树节点,删除节点
if (node instanceof TreeNode)
((TreeNode<K,V>)node).removeTreeNode(this, tab, movable);//树的删除逻辑
// 2.桶位元素即为查找结果,则将该元素的下一个元素放到桶位中
else if (node == p)
tab[index] = node.next;
// 不是第一个元素
else
//3.将当前元素p的下一个元素设置成要删除元素的下一个元素
p.next = node.next;//p在node前面
++modCount;
--size;
afterNodeRemoval(node);
return node;//返回删除结果
}
}
return null;
}
2.7 replace方法分析
@Override
public boolean replace(K key, V oldValue, V newValue) {
Node<K,V> e; V v;
if ((e = getNode(hash(key), key)) != null &&
((v = e.value) == oldValue || (v != null && v.equals(oldValue)))) {
e.value = newValue;
afterNodeAccess(e);
return true;
}
return false;
}
@Override
public V replace(K key, V value) {
Node<K,V> e;
if ((e = getNode(hash(key), key)) != null) {
V oldValue = e.value;
e.value = value;
afterNodeAccess(e);
return oldValue;//返回老值
}
return null;
}
2.8 其它常用方法
isEmpty();
putMapEntries();
putAll();
clear();
containsValue( Object value);
3.常见问题
3.1HashMap如何减少有效碰撞
1、扰动函数算法,促使元素位置分布均匀,减少碰撞几率;
原理是:两个不相等的对象,只要返回不相同的hashcode。这样就可以避免碰撞,减少碰撞几率;而HashMap是采用的是:拉链法来完成。
拉链法解决冲突的做法是:将所有关键字为同义词的结点链接在同一个单链表中。若选定的散列表长度为m,则可将散列表定义为一个由m个头指针组成的指针数组t[0..m-1]。凡是散列地址为i的结点,均插入到以t为头指针的单链表中。t中各分量的初值均应为空指针。在拉链法中,装填因子α可以大于1,但一般均取α≤1。
何谓拉链法:HashCode是使用Key通过Hash函数计算出来的,由于不同的Key,通过此Hash函数可能会算的同样的HashCode,所以此时用了拉链法解决冲突,把HashCode相同的Value连成链表. 但是get的时候根据Key又去桶里找,如果是链表说明是冲突的,此时还需要检测Key是否相同
2、使用final对象,并采用合适的equals方法和hashCode方法;
怎么让产生不同的对象返回的hashcode尽量的不一样呢?尽量去覆盖Object对象的equals和hashcode方法。而final修饰的对象使得能够缓存不同键的hashcode,这将提供获取对象的速度。而使用String,Integer这些类就特别适合做key。因为这些类都是final,也重写和覆盖了equals方法和hashcode方法。final是必要的,因为为了要计算hashcode。就要防止键值改变。如果键值在放入时和获取时返回的是不同的hashcode。就不能够在hashmap中找到对象的元素。
3、hash原理分析如下
/**
* Computes key.hashCode() and spreads (XORs) higher bits of hash
* to lower. Because the table uses power-of-two masking, sets of
* hashes that vary only in bits above the current mask will
* always collide. (Among known examples are sets of Float keys
* holding consecutive whole numbers in small tables.) So we
* apply a transform that spreads the impact of higher bits
* downward. There is a tradeoff between speed, utility, and
* quality of bit-spreading. Because many common sets of hashes
* are already reasonably distributed (so don't benefit from
* spreading), and because we use trees to handle large sets of
* collisions in bins, we just XOR some shifted bits in the
* cheapest possible way to reduce systematic lossage, as well as
* to incorporate impact of the highest bits that would otherwise
* never be used in index calculations because of table bounds.
*/
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
1、先将key的hashcode获取。h = key.hashCode()
2、然后将hashcode的高位数(h >>> 16是用来**取出h的高16**
)移动低位。
hash函数是先拿到通过key 的hashcode,是32位的int值,然后让hashcode的高16位和低16位进行异或操作。
-
一定要尽可能降低hash碰撞,越分散越好;
-
算法一定要尽可能高效,因为这是高频操作, 因此采用位运算;
3.2为什么采用hashcode的高16位和低16位异或能降低hash碰撞?hash函数能不能直接用key的hashcode?
HashMap是采用数组+链表+红黑树。进行hash的作用只不过是告诉每次put元素的时候,存放到那个数组中。因为key.hashCode()函数调用的是key键值类型自带的哈希函数,返回int型散列值。int值范围为-2147483648~2147483647,前后加起来大概40亿的映射空间。只要哈希函数映射得比较均匀松散,一般应用是很难出现碰撞的。但问题是一个40亿长度的数组,内存是放不下的。你想,如果HashMap数组的初始大小才16,用之前需要对数组的长度取模运算,得到的余数才能用来访问数组下标。
源码中模运算就是把散列值和数组长度-1做一个"与"操作,位运算比%运算要快。
最后我们来看一下Peter Lawley的一篇专栏文章《An introduction to optimising a hashing strategy》里的的一个实验:他随机选取了352个字符串,在他们散列值完全没有冲突的前提下,对它们做低位掩码,取数组下标。
结果显示,当HashMap数组长度为512的时候(2的9次方),也就是用掩码取低9位的时候,在没有扰动函数的情况下,发生了103次碰撞,接近30%。而在使用了扰动函数之后只有92次碰撞。碰撞减少了将近10%。看来扰动函数确实还是有功效的。
另外Java1.8相比1.7做了调整,1.7做了四次移位和四次异或,但明显Java 8觉得扰动做一次就够了,做4次的话,多了可能边际效用也不大,所谓为了效率考虑就改成一次了。
jdk1.7的hash代码:
static int hash(int h) {
h ^= (h >>> 20) ^ (h >>> 12);
return h ^ (h >>> 7) ^ (h >>> 4);
}
jdk1.8的hash代码:
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
3.3HashMap为什么使用数组?
数组在有下标的情况下时间复杂度是O(1)。
hashcode % array. length = Index。
通过对象的hashcode取余数组的长度得到对象在数组中下标的位置,使查找某个对象所在位置的时间复杂度降低为O(1)。
在HashMap中默认的数组长度为16,如果要指定,
那么传入的参数须为2的n次方的值,
如果传入的初始长度不为2的n次方的值,
也会通过位移改变为大于传入值且是最小的2的n次方的值。
/**
* The default initial capacity - MUST be a power of two.
默认的初始容量为16---为2的4次方
*/
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
变更传入值的大小,如果不为2的n次幂,则变更为2的n次幂。
如果传入的容量不为2的n次幂,则变更为大于传入数值且为2的n次幂的最小值。
例如:传入11,则大于11且大于2的n次幂的最小值为16.则把初始容量变更为16.
2的3次幂为8,2的4次幂为16. 2的5次幂为32.
private static int roundUpToPowerOf2(int number) {
// assert number >= 0 : "number must be non-negative";
return number >= MAXIMUM_CAPACITY
? MAXIMUM_CAPACITY
: (number > 1) ? Integer.highestOneBit((number - 1) << 1) : 1;
}
数组—>默认16长度的数组,最大长度2的30次幂,
数组—>当有下标读取时候,时间复杂度是O(1)。增删的时候由于要移动数组中数组的位置,因此时间复杂度为O(n)。
3.4hash碰撞(冲突),如何解决?
Object1.hashcode % array.length = Object2.hashcode % array. length
当出现Hash冲突的时候,把数组中的位置变为线性链表。
线性链表的特点:
-
查找慢,需要一个节点一个节点的访问,时间复杂度是O(n)。
-
增删快,时间复杂度是O(1)。
在JDK1.7中的线性链表插入方式为头部插入法。
在JDK1.8中的线性链表插入方式为尾部插入法。
链表—>头部插入法(JDK1.7),尾部插入法(JDK1.8),equles
-
由于线性链表的查找速度为0(n),因此当HashMap中数据越来越多的时候,Hash冲突的概率也越来越大,因此线性链表的长度也越来越长,性能也越来越低。为了解决这个问题,在JDK1.8之后,当线性链表的长度超过8之后,把线性链表转为红黑树。 红黑树的特性:
-
红黑树—>JDK1.8之后-链表长度超过8之后转为红黑树,左旋,右旋;
-
红黑树是接近于平衡的搜索二叉树。
-
红黑树确保最长长度不是最低长度的两倍。
-
性能均衡,查找,插入,删除等都是0(logn)的时间复杂度。
五个特性:
1.节点要么是红色、要么是黑色。
2.根节点必须是黑色。
3.每个叶子结点必须是黑色。
4.如果一个节点是红色,那么他的两个儿子必须是黑色。
5.对于任意节点而言,其到叶子节点树尾端指针的每条路径都包含相同数量的黑节点。
3.5JDK1.8-之后长度超过8转变为红黑树,长度8的由来?
为什么这个长度是8.
因为统计学角度,一般很少hash的碰撞值会达到7.
泊松分布----> 根据泊松分布的概率统计学角度上。
在负载因子在0.75的时候,如果链表长度大于8之后的分布概率上来说,概率可以忽略不计了。
也就是说在大多数情况下是不会到达8转红黑树的。一亿分之六的概率。
/**
* The load factor used when none specified in constructor.
默认的负载因素为不太精确的 0.75f构造
*/
static final float DEFAULT_LOAD_FACTOR = 0.75f;
链表转红黑树是链表长度达到阈值,这个阈值是多少?
阈值是8,红黑树转链表阈值为6
又为什么红黑树转链表的阈值是6,不是8了呢?
因为经过计算,在hash函数设计合理的情况下,发生hash碰撞8次的几率为百万分之6,概率说话。。因为8够用了,至于为什么转回来是6,因为如果hash碰撞次数在8附近徘徊,会一直发生链表和红黑树的转化,为了预防这种情况的发生。
3.6为什么HashMap允许的最大容量为2的30次方?
/**
* The maximum capacity, used if a higher value is implicitly specified
* by either of the constructors with arguments.
* MUST be a power of two <= 1<<30.
HashMap允许的最大容量。---必须为2的幂且小于2的30次方,传入过大的值,将被替换
*/
static final int MAXIMUM_CAPACITY = 1 << 30;
首先:JAVA中规定了该 static final 类型的静态变量为int 类型,
至于为什么不是byte、long等类型,
原因是由于考虑到HashMap的性能问题而做的这种处理。
由于int类型的长度为4字节,也就是32个二进制位。按理说可以向左移动31位,
即2的31次幂。但是由于二进制数字中最高的一位,也就是最左边的一位是符号位,
用来表示正负之分(0为正,1为负),所以只能向左移动30位,而不能移动到最高位。
3.7HashMap扩容机制-为什么负载因子默认为0.75f?
负载因子0.75 如果容量大大0.75则扩容为原来的两倍。扩容因此 0.75
==空间利用率和时间效率在0.75的时候达到了平衡。==
在统计学上0.693是最佳的选择。然后可能更想着有空间利用率,而且在。Net语言中 hashmap的负载因子是0.7。
3.8为什么Hashmap长度保证2的n次幂
Hashmap默认初始长度16,后续每次加入的值都是2的指数次幂的值。
如果传入的值不是2的指数次幂,则变成大于这个值的最接近的2的指数次幂的值。
变更传入值的大小,如果不为2的n次幂,则变更为2的n次幂。 如果传入的容量不为2的n次幂,则变更为大于传入数值且为2的n次幂的最小值。
例如:传入11,则大于11且大于2的n次幂的最小值为16.则把初始容量变更为16.