HashMap高频面试题
HashMap备受面试官的青睐,笔者几乎每次面试都会遇到关于HashMap的问题,整理出来一些,供大家自查对HashMap的掌握程度。
- HashMap 在 JDK1.8 中做了哪些优化?
- 简述一下HashMap中get和put的基本过程;
- HashMap在什么情况下会扩容?
- HashMap为什么采用红黑树而不是其他的平衡二叉树?为什么不用跳表?
- HashMap put操作当存在hash冲突时,新插入的值放在链表头部还是尾部?
- HashMap扩容过程简述一下?
- HashMap是如何解决hash冲突的,还了解其他解决hash冲突的方法吗?
- HashMap是线程安全的吗?在高并发场景下使用HashMap存在什么问题?
- 为什么Integer或者String比较适合作为HashMap的key?若用自定义的类作为key需要注意什么问题?
- HashMap、HashTable和CurrentHashMap的区别?
- 扩容时链表导致死循环?
- containsKey和containsValue用哪个?性能如何?
- HashMap中Iterator的便利顺序是什么
HashMap源码解析
成员变量
// 默认HashMap的初始容量 static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16 //HashMap的最大容量 static final int MAXIMUM_CAPACITY = 1 << 30; //默认负载因子0.75 static final float DEFAULT_LOAD_FACTOR = 0.75f; //链表转化为红黑树的阈值 static final int TREEIFY_THRESHOLD = 8; //红黑树退化为链表的阈值 static final int UNTREEIFY_THRESHOLD = 6; //链表转化为红黑树的最小HashMap容量条件 static final int MIN_TREEIFY_CAPACITY = 64; //存储数据的数组 transient Node[] table; //元素个数 transient int size; //操作次数 transient int modCount; int threshold; //负载因子 final float loadFactor;
构造函数
public HashMap(int initialCapacity, float loadFactor) public HashMap(int initialCapacity) public HashMap() public HashMap(Map extends K, ? extends V> m)
HashMap共有四个构造函数:1)指定初始大小和负载因子;2)指定初始大小采用默认负载因子;3)为指定初始大小和负载因子,采用默认负载因子和初始大小;4)通过指定的Map构造新的HashMap。
关于负载因子和初始大小
- 负载因子表示一个散列表的空间的使用程度,有这样一个公式:initailCapacityloadFactor=HashMap的容量,当HashMap中的元素个数到达initailCapacityloadFactor后,继续插入元素,HashMap会进行自动扩容为原来大小的两倍。负载因子的设置对于HashMap的性能有很大的影响,负载因子的设置是时间和空间的博弈,如果设置很小的负载因子,空间利用率低,存储相同个数的元素需要更多的空间,但是出现hash冲突的概率低,由于hash冲突的概率低,所以查询效率会高一些,反之如果设置比较大的负载因子,空间利用率高,但是出现hash冲突的概率较大,影响HashMap的操作性能。
- 在使用HashMap时尽量指定合理的初始大小,HashMap的初始大小默认为16,在我们日常使用过程中,有时HashMap中的元素会远小于16,甚至是一个或者两个元素,例如某些sql的传入参数,如果不指定默认初始大小,将会造成内容浪费,如果一个HashMap中会存放大量的元素,未指定初始大小的情况下会产生大量的扩容操作,每次扩容都涉及到大量元素的拷贝,严重影响性能。初始大小尽量设置为2的幂,这与HashMap中通过元素的hash值计算元素在table中的位置相关,后面介绍HashMap的put方法会详解,如果传入的初始大小不是2的幂,HashMap根据传入的参数,计算大于该参数的最小2的幂来作为HashMap的初始大小,所以为了减少程序的计算时间,传入参数最好设置为2的幂。
public HashMap(int initialCapacity, float loadFactor) { //判断initialCapacity是否合法 if (initialCapacity < 0) throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity); if (initialCapacity > MAXIMUM_CAPACITY) initialCapacity = MAXIMUM_CAPACITY; if (loadFactor <= 0 || Float.isNaN(loadFactor)) throw new IllegalArgumentException("Illegal load factor: " + loadFactor); this.loadFactor = loadFactor; //根据设置的初始大小返回2的幂 this.threshold = tableSizeFor(initialCapacity); }
get方法流程
get方法的流程大致可以包括如下步骤:
- 判断table不为空,table的长度大于0,对应位置上的第一个元素不为空,如果不满足,则直接返回null;
- 判断对应位置上的第一个元素的hash值和key的值是否相等,若相等直接返回first;
- 判断first是否为红黑树节点;
- 是红黑树节点通过getTreeNode方法获取key对应的值;
- 若为链表节点,则通过遍历链表节点获取与key对应的节点;
- 若为链表节点,则通过遍历链表节点获取与key对应的节点;
- 上述步骤依然未获取key对应的节点,则返回null。
get方法源码如下所示,上述步骤均在源码基础上进行了注释:
final Node getNode(int hash, Object key) { Node[] tab; Node first, e; int n; K k; //判断table不为空,table的长度大于0,对应位置上的第一个元素不为空,如果不满足,则直接返回null if ((tab = table) != null && (n = tab.length) > 0 && (first = tab[(n - 1) & hash]) != null) { //判断对应位置上的第一个元素的hash值和key的值是否相等,若相等直接返回first if (first.hash == hash && // always check first node ((k = first.key) == key || (key != null && key.equals(k)))) return first; //判断first节点的下一个节点是否为null,若为null直接返回null if ((e = first.next) != null) { //判断first是否为红黑树节点 if (first instanceof TreeNode) //是红黑树节点通过getTreeNode方法获取key对应的值 return ((TreeNode)first).getTreeNode(hash, key); //若为链表节点,则通过遍历链表节点获取与key对应的节点 do { if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) return e; } while ((e = e.next) != null); } } //上述步骤依然未获取key对应的节点,则返回null return null; }
put方法流程
put方法的过程相对于get方法要复杂一些,通过分析源码,put方法调用了putVal方法,添加元素的主要逻辑在putVal方法中,添加元素的过程如下图所示:
put方法的源码如下所示,添加元素的步骤均在源码的基础上进行了注释:
final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) { Node[] tab; Node p; int n, i; //table为空,通过reSize方法进行初始化 if ((tab = table) == null || (n = tab.length) == 0) n = (tab = resize()).length; //计算插入元素在table中的位置,该位置元素为null,直接添加元素 if ((p = tab[i = (n - 1) & hash]) == null) tab[i] = newNode(hash, key, value, null); //若该位置元素不为null,则有hash冲突 else { //e为对应位置的oldValue Node e; K k; //判断该位置第一个元素的hash值与插入元素key的hash值是否相等,相等则e=p if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) e = p; //上述条件不满足,判断p是否为红黑树节点,若为红黑树节点,通过putTreeVal获取e else if (p instanceof TreeNode) e = ((TreeNode)p).putTreeVal(this, tab, hash, key, value); //为链表节点 else { //遍历链表 for (int binCount = 0; ; ++binCount) { //每次判断为e赋值,如果e为null,则在链表中添加元素 if ((e = p.next) == null) { p.next = newNode(hash, key, value, null); //链表长度大于8,将链表转化为红黑树 if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st treeifyBin(tab, hash); break; } //key相等,则返回 if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) break; p = e; } } if (e != null) { // existing mapping for key V oldValue = e.value; //onlyIfAbsent为true表示只有该处如果该位置存在值,不替换,为false表示替换旧值 if (!onlyIfAbsent || oldValue == null) e.value = value; //空方法,子类可以实现自己的逻辑,主要给LinkedHashMap用的 afterNodeAccess(e); return oldValue; } } //操作数+1,用于fail fast ++modCount; //判断是否需要进行扩容操作 if (++size > threshold) resize(); //空方法,子类可以实现自己的逻辑 afterNodeInsertion(evict); return null; }
源码中的极致设计思路:
- HashMap的初始化采用的是延迟加载的方式,最大限度为应用程序节省内存;
- i = (n - 1) & hash,i表示元素在table中的位置,n表示table的长度,是2的幂,通过这种方式计算元素在table中的位置,可以最大限度的使元素尽量均匀的分布在table中,如table的长度为16,n-1为15,15的二进制表示为“1111”,若n-1为14,n-1的二进制为 “1110”,则有个位置将永远不可能有元素插入。
resize方法流程
resize方法在HashMap中是非常重要的方法,table的初始化和扩容都是通过resize方法完成的,resize的过程大致如下:
- 判断table是否初始化,若没有初始化,则初始化table;
- 设置新的容量大小和threshold;
- 判断是否需要元素拷贝到新table中;
- 进行元素拷贝,元素拷贝分为普通节点、红黑树节点和链表节点的拷贝;
- 最后返回新的table。
resize方法源码如下所示,详细过程均在源码的基础进行了注释:
final Node[] resize() { Node[] oldTab = table; int oldCap = (oldTab == null) ? 0 : oldTab.length; int oldThr = threshold; int newCap, newThr = 0; //判断原来table的长度 if (oldCap > 0) { //到达最大长度,无法进行扩容 if (oldCap >= MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return oldTab; } //容量和threshold变为原来的两倍,因为都是2的幂,采用移位运算提高效率 else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY) newThr = oldThr << 1; // double threshold } //判断oldThr是否大于0,大于0表示初始化时指定了大小 else if (oldThr > 0) // initial capacity was placed in threshold newCap = oldThr; //表示初始化时没有指定初始大小,采用默认值 else { // zero initial threshold signifies using defaults newCap = DEFAULT_INITIAL_CAPACITY; newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); } //设置newThr的值 if (newThr == 0) { float ft = (float)newCap * loadFactor; newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ? (int)ft : Integer.MAX_VALUE); } //将newThr设置为新的threshold threshold = newThr; @SuppressWarnings({"rawtypes","unchecked"}) Node[] newTab = (Node[])new Node[newCap]; table = newTab; //判断table原来的table是否为null,不为null则需要进行元素拷贝到新的table中 if (oldTab != null) { //元素拷贝到新table中 for (int j = 0; j < oldCap; ++j) { Node e; if ((e = oldTab[j]) != null) { //旧元素快速GC oldTab[j] = null; //e节点上不存在hash冲突,直接在newTable中赋值 if (e.next == null) newTab[e.hash & (newCap - 1)] = e; //存在hash冲突且节点为红黑树,通过split方法进行扩容 else if (e instanceof TreeNode) ((TreeNode)e).split(this, newTab, j, oldCap); //节点为链表节点 else { // preserve order Node loHead = null, loTail = null; Node hiHead = null, hiTail = null; Node next; do { next = e.next; if ((e.hash & oldCap) == 0) { if (loTail == null) loHead = e; else loTail.next = e; loTail = e; } else { if (hiTail == null) hiHead = e; else hiTail.next = e; hiTail = e; } } while ((e = next) != null); if (loTail != null) { loTail.next = null; newTab[j] = loHead; } if (hiTail != null) { hiTail.next = null; newTab[j + oldCap] = hiHead; } } } } } return newTab; }
接下来对元素的拷贝进行分析,普通节点只需简单的赋值操作即可,红黑树是非常复杂的数据结构,关于红黑树本文不作详细介绍,此处主要分析一下链表在扩容时是如何处理的,首先扩容过程中一个链表会被拆分为两个链表,放入新的table中,即如果在oldTable中的位置是j,那这两个链表在newTable中的位置是j和j+oldCap,源码中采用了十分巧妙的方式,过设置四个Node对象进行操作:
Node loHead = null, loTail = null;Node hiHead = null, hiTail = null;
其中loHead和loTail分别指向拷贝到newTable中j位置上链表的头节点和尾节点,hiHead和hiTail则分别指向拷贝到j+oldCap位置上链表的头节点和尾节点,处理过程如图所示:
高频面试题解析
- HashMap 在 JDK1.8 中做了哪些优化?Entry变为Node;链表变为链表+红黑树的形式等
- 简述一下HashMap中get和put的基本过程;源码解析中已详细分析
- HashMap在什么情况下会扩容?源码解析中已详细分析
- HashMap为什么采用红黑树而不是其他的平衡二叉树?为什么不用跳表?
- HashMap put操作当存在hash冲突时,新插入的值放在链表头部还是尾部?源码解析中已详细分析,应该是尾部
- HashMap扩容过程简述一下?源码解析中已详细分析,参考resize过程分析
- HashMap是如何解决hash冲突的,还了解其他解决hash冲突的方法吗?解决hash冲突的方法主要包括开放寻址法和链表法
- HashMap是线程安全的吗?在高并发场景下使用HashMap存在什么问题?纵观HashMap的源码,并未出现sychronized、Lock、volatile、CAS等相关技术,HashMap在并发共享的情况下并非是线程安全的,在高并发情况下,HashMap实例作为共享变量读写过程中会出现线程安全问题。
- 为什么Integer或者String比较适合作为HashMap的key?若用自定义的类作为key需要注意什么问题?这些都是final修饰的不可变类型,自定义类作为key需要重写equals和hashCode方法。
- HashMap、HashTable和CurrentHashMap的区别?HashMap非线程安全,HashTable线程安全,使用synchronized性能差,CurrentHashMap采用unsafe的CAS操作,即乐观锁,线程安全,性能比HashTable好。
- 扩容时链表导致死循环?
- containsKey和containsValue用哪个?性能如何?containsKey在不存在hash冲突的情况下,时间复杂度为o(1),而containsValue时间复杂度为o(n)。
- HashMap中Iterator的便利顺序是什么这个是我一个朋友遇到的面试题,以前还真没有仔细考虑过,其实源码中非常简单,iterator分为KeyIterator和ValueIterator都是按照table的顺序进行遍历的。