hashmap什么时候转换为红黑二叉树_HashMap面试必问的知识点

HashMap面试必问的知识点

1.HashMap的数据结构?

哈希表结构(链表散列:数组+链表)实现,结合数组和链表的优点。当链表长度超过8时,链表转换为红黑树。

2.HashMap的工作原理?

HashMap底层是hash数组和单向链表实现,数组中的每个元素都是链表,由Node内部类(实现Map.Entry接口)实现,HashMap通过put&get方法存储和获取。

存储对象时,将K/V键值传给put()方法:

  • ①、调用hash(K)方法计算K的hash值,然后结合数组长度,计算得数组下标;

  • ②、调整数组大小(当容器中的元素个数大于capacity*loadfactor时,容器会进行扩容resize为2n);

    • i.如果K的hash值在HashMap中不存在,则执行插入,若存在,则发生碰撞;
    • ii.如果K的hash值在HashMap中存在,且它们两者equals返回true,则更新键值对;
    • iii.如果K的hash值在HashMap中存在,且它们两者equals返回false,则插入链表的尾部(尾插法)或者红黑树中(树的添加方式)。

(JDK1.7之前使用头插法、JDK1.8使用尾插法)
(注意:当碰撞导致链表大于TREEIFY_THRESHOLD=8时,就把链表转换成红黑树)

获取对象时,将K传给get()方法:

  • ①、调用hash(K)方法(计算K的hash值)从而获取该键值所在链表的数组下标;
  • ②、顺序遍历链表,equals()方法查找相同Node链表中K值对应的V值。

hashCode是定位的,存储位置;equals是定性的,比较两者是否相等。

3.当两个对象的hashCode相同会发生什么?

因为hashCode相同,不一定就是相等的(equals方法比较),所以两个对象所在数组的下标相同,"碰撞"就此发生。又因为HashMap使用链表存储对象,这个Node会存储到链表中。

4.你知道hash的实现吗?为什么要这样实现?

JDK1.8中,是通过hashCode()的高16位异或低16位实现的:(h=k.hashCode())^(h>>>16),主要是从速度,功效和质量来考虑的,减少系统的开销,也不会造成因为高位没有参与下标的计算,从而引起的碰撞。

5.为什么要用异或运算符?

保证了对象的hashCode的32位值只要有一位发生改变,整个hash()返回值就会改变。尽可能的减少碰撞。

6.HashMap的table的容量如何确定?loadFactor是什么?该容量如何变化?这种变化会带来什么问题?

  • ①、table数组大小是由capacity这个参数确定的,默认是16,也可以构造时传入,最大限制是1<<30;
  • ②、loadFactor是装载因子,主要目的是用来确认table数组是否需要动态扩展,默认值是0.75,比如table数组大小为16,装载因子为0.75时,threshold就是12,当table的实际大小超过12时,table就需要动态扩容;
  • ③、扩容时,调用resize()方法,将table长度变为原来的两倍(注意是table长度,而不是threshold)
  • ④、如果数据很大的情况下,扩展时将会带来性能的损失,在性能要求很高的地方,这种损失很可能很致命。

7.HashMap中put方法的过程?

  • 调用哈希函数获取Key对应的hash值,再计算其数组下标;
  • 如果没有出现哈希冲突,则直接放入数组;如果出现哈希冲突,则以链表的方式放在链表后面;
  • 如果链表长度超过阀值(TREEIFYTHRESHOLD==8),就把链表转成红黑树,链表长度低于6,就把红黑树转回链表;
  • 如果结点的key已经存在,则替换其value即可;
  • 如果集合中的键值对大于12,调用resize方法进行数组扩容。

8.数组扩容的过程?

创建一个新的数组,其容量为旧数组的两倍,并重新计算旧数组中结点的存储位置。结点在新数组中的位置只有两种,原下标位置或原下标+旧数组的大小。

9.拉链法导致的链表过深问题为什么不用二叉查找树代替,而选择红黑树?为什么不一直使用红黑树?

之所以选择红黑树是为了解决二叉查找树的缺陷,二叉查找树在特殊情况下会变成一条线性结构(这就跟原来使用链表结构一样了,造成很深的问题),遍历查找会非常慢。而红黑树在插入新数据后可能需要通过左旋,右旋、变色这些操作来保持平衡,引入红黑树就是为了查找数据快,解决链表查询深度的问题,我们知道红黑树属于平衡二叉树,但是为了保持"平衡"是需要付出代价的,但是该代价所损耗的资源要比遍历线性链表要少,所以当长度大于8的时候,会使用红黑树,如果链表长度很短的话,根本不需要引入红黑树,引入反而会慢。

10.说说你对红黑树的见解?

  • 1、每个节点非红即黑
  • 2、根节点总是黑色的
  • 3、如果节点是红色的,则它的子节点必须是黑色的(反之不一定)
  • 4、每个叶子节点都是黑色的空节点(NIL节点)
  • 5、从根节点到叶节点或空子节点的每条路径,必须包含相同数目的黑色节点(即相同的黑色高度)

11.jdk8中对HashMap做了哪些改变?

  • java1.8中,如果链表的长度超过了8,那么链表将转换为红黑树。(桶的数量必须大于64,小于64的时候只会扩容)
  • 发生hash碰撞时,java1.7会在链表的头部插入,而java1.8会在链表的尾部插入
  • java1.8中,EntryNode替代(换了一个马甲)。

12.HashMap,LinkedHashMap,TreeMap有什么区别?

  • HashMap参考其他问题;
  • LinkedHashMap保存了记录的插入顺序,在用Iterator遍历时,先取到的记录肯定是先插入的;遍历比HashMap慢;
  • TreeMap实现SortMap接口,能够把它保存的记录根据键排序(默认按键值升序排序,也可以指定排序的比较器)

13.HashMap&TreeMap&LinkedHashMap使用场景?

一般情况下,使用最多的是HashMapHashMap: 在Map中插入、删除和定位元素时;TreeMap: 在需要按自然顺序或自定义顺序遍历键的情况下;LinkedHashMap: 在需要输出的顺序和输入的顺序相同的情况下。

14.HashMap和HashTable有什么区别?

  • ①、HashMap是线程不安全的,HashTable是线程安全的;
  • ②、由于线程安全,所以HashTable的效率比不上HashMap;
  • ③、HashMap最多只允许一条记录的键为null,允许多条记录的值为null,而HashTable不允许;
  • ④、HashMap默认初始化数组的大小为16,HashTable为11,前者扩容时,扩大两倍,后者扩大两倍+1;
  • ⑤、HashMap需要重新计算hash值,而HashTable直接使用对象的hashCode;

15.Java中的另一个线程安全的与HashMap极其类似的类是什么?同样是线程安全,它与HashTable在线程同步上有什么不同?

ConcurrentHashMap类(是Java并发包java.util.concurrent中提供的一个线程安全且高效的HashMap实现)。HashTable是使用synchronize关键字加锁的原理(就是对对象加锁);
而针对ConcurrentHashMap,在JDK1.7中采用分段锁的方式;JDK1.8中直接采用了CAS(无锁算法)+synchronized

16.HashMap&ConcurrentHashMap的区别?

除了加锁,原理上无太大区别。另外,HashMap的键值对允许有null,但是ConCurrentHashMap都不允许。

17.为什么ConcurrentHashMap比HashTable效率要高?

HashTable使用一把锁(锁住整个链表结构)处理并发问题,多个线程竞争一把锁,容易阻塞;ConcurrentHashMap

  • JDK1.7中使用分段锁(ReentrantLock+Segment+HashEntry),相当于把一个HashMap分成多个段,每段分配一把锁,这样支持多线程访问。锁粒度:基于Segment,包含多个HashEntry
  • JDK1.8中使用CAS+synchronized+Node+红黑树。锁粒度:Node(首结点)(实现Map.Entry)。锁粒度降低了。

18.针对ConcurrentHashMap锁机制具体分析(JDK1.7VSJDK1.8)?

JDK1.7中,采用分段锁的机制,实现并发的更新操作,底层采用数组+链表的存储结构,包括两个核心静态内部类SegmentHashEntry

  • ①、Segment继承ReentrantLock(重入锁)用来充当锁的角色,每个Segment对象守护每个散列映射表的若干个桶;
  • ②、HashEntry用来封装映射表的键-值对;
  • ③、每个桶是由若干个HashEntry对象链接起来的链表;c6b08634844b3728dbae63240c3f1339.png

JDK1.8中,采用Node+CAS+Synchronized来保证并发安全。取消类Segment,直接用table数组存储键值对;当HashEntry对象组成的链表长度超过TREEIFY_THRESHOLD时,链表转换为红黑树,提升性能。底层变更为数组+链表+红黑树。2a04854294c1af57a25bcbd109fda6f8.png

19.ConcurrentHashMap在JDK1.8中,为什么要使用内置锁synchronized来代替重入锁ReentrantLock?

  • ①、粒度降低了;
  • ②、JVM开发团队没有放弃synchronized,而且基于JVMsynchronized优化空间更大,更加自然。
  • ③、在大量的数据操作下,对于JVM的内存压力,基于APIReentrantLock会开销更多的内存。

20.ConcurrentHashMap简单介绍?

  • ①、重要的常量:

    • private transient volatile intsizeCtl;
    • 当为负数时,-1表示正在初始化,-N表示N-1个线程正在进行扩容;
    • 当为0时,表示table还没有初始化;
    • 当为其他正数时,表示初始化或者下一次进行扩容的大小。
  • ②、数据结构:

    • Node是存储结构的基本单元,继承HashMap中的Entry,用于存储数据;
    • TreeNode继承Node,但是数据结构换成了二叉树结构,是红黑树的存储结构,用于红黑树中存储数据;
    • TreeBin是封装TreeNode的容器,提供转换红黑树的一些条件和锁的控制。
  • ③、存储对象时(put()方法):

    • 1.如果没有初始化,就调用initTable()方法来进行初始化;
    • 2.如果没有hash冲突就直接CAS无锁插入;
    • 3.如果需要扩容,就先进行扩容;
    • 4.如果存在hash冲突,就加锁来保证线程安全,两种情况:一种是链表形式就直接遍历到尾端插入,一种是红黑树就按照红黑树结构插入;
    • 5.如果该链表的数量大于阀值8,就要先转换成红黑树的结构,break再一次进入循环
    • 6.如果添加成功就调用addCount()方法统计size,并且检查是否需要扩容。
  • ④、扩容方法transfer(): 默认容量为16,扩容时,容量变为原来的两倍。helpTransfer(): 调用多个工作线程一起帮助进行扩容,这样的效率就会更高。

  • ⑤、获取对象时(get()方法):

    • 1.计算hash值,定位到该table索引位置,如果是首结点符合就返回;
    • 2.如果遇到扩容时,会调用标记正在扩容结点ForwardingNode.find()方法,查找该结点,匹配就返回;
    • 3.以上都不符合的话,就往下遍历结点,匹配就返回,否则最后就返回null

21.ConcurrentHashMap的并发度是什么?

程序运行时能够同时更新ConccurentHashMap且不产生锁竞争的最大线程数。默认为16,且可以在构造函数中设置。当用户设置并发度时,ConcurrentHashMap会使用大于等于该值的最小2幂指数作为实际并发度(假如用户设置并发度为17,实际并发度则为32)

c8b5fcc7daddc5ebeb00c7ebce631cbe.png
  • 2
    点赞
  • 36
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值