Java集合常见面试题--1

Map
1. Map的底层结构
腾讯19年秋招

这个题乍一看没有什么思路(因为Map是个集合,当然也有可能是我记错了),所以我们可以先介绍一下Map然后转到HashMap中

Map是一种使用键值对存储的集合。Map会维护与Key有关联的值。两个Key可以引用相同的对象,但Key不能重复,典型的Key是String类型,但也可以是任何对象。

在整个Map系列中,AbstractMap抽象类实现了Map,SortedMap接口继承了Map。而我们常用的HashMap,HashTable,TreeMap和ConcurrentHashMap有继承了AbstractMap类。

其中,HashTable和ConcurrentHashMap是线程安全的。前者是通过synchronized实现的,后者是通过AQS实现的。其中要注意HashTable不能存空值,HashMap是线程不安全的,key可以为空。TreeMap通过二叉树算法实现有序集合,它实现了SortedMap接口

2. HashMap的原理
阿里17年实习,小米19年秋招本科,滴滴19年秋招本科,网易19年秋招本科,bigo19年秋招本科,百度19年秋招本科

对于HashMap的构造函数来说,它有三个重要参数,分别是threshold,loadFactor和initialCapacity,根据阿里巴巴开发手册,由于默认的loadFactor是0.75,所以initialCapacity=(need/loadFactor)+1。而threshold=capacity*loadFactor。这也和阿里手册上的相对应。但是threshold在初始化时并不是容量和负载因子相乘,而是调用了一个tableSizeFor(int cap)使得阈值大于或等于初始容量的最小2的幂

对于HashMap的数据结构来说,底层是基于散列算法实现,散列算法分为散列再探测和拉链式。HashMap 则使用了拉链式的散列算法,即采用数组+链表来解决hash冲突,数组是HashMap的主体,链表主要用来解决哈希冲突。这个数组是Entry类型,它是HashMap的内部类,每一个Entry包含一个key-value键值对。
对于get方法来说,会先查找桶,如果hash值相同并且key值相同*(先判断hash,再判断equals,这也说明了为什么重写equals必须要重写hashCode)*,则返回该node节点,如果不同,则当node.next!=null时,判断是红黑树还是链表,之后根据响应方法进行查找。
对于keySet的遍历来说,首先要获取键集合KeySet对象,然后再通过KeySet 的迭代器KeyIterator进行遍历。KeyIterator 类继承自HashIterator类,再通过HashIterator#nextNode()进行遍历。HashIterator 的逻辑并不复杂,在初始化时,HashIterator 先从桶数组中找到包含链表节点引用的桶。然后对这个桶指向的链表进行遍历。遍历完成后,再继续寻找下一个包含链表节点引用的桶,找到继续遍历。找不到,则结束遍历
对于插入来说,即put方法,会调用V putVal(int, K, V, boolean, boolean) 方法执行核心逻辑
插入流程,当桶数组为空时,通过resize将threshold赋值给容量。如果桶中不包含键值对节点的引用,则将插入的键值存入桶中即可;如果键的值以及节点 hash 等于链表中的第一个键值对节点时,则将 e 指向该键值对,是否要覆盖还需看onlyIfAbsent;如果桶中的引用类型为TreeNode,则调用红黑树的插入方法;如果桶中的引用为链表,则把值插入到链表尾结点,并检查链表长度,如果长度大于等于8,则把链表转为红黑树。之后再检查是否允许覆盖原值。最后一步是看size是否超过threshold,如果超过则用resize扩容
对于插入时的扩容来说,HashMap按当前桶数组长度的2倍进行扩容,阈值也变为原来的2倍(如果计算过程中,阈值溢出归零,则按阈值公式重新计算)。扩容之后,要重新计算键值对的位置,并把它们移动到合适的位置上去。源码中一共有三步:
计算新桶数组的容量 newCap*(old<<1)和新阈值 newThr(oldThr<<1)*;
根据计算出的 newCap 创建新的桶数组,桶数组 table 也是在这里进行初始化的;
将键值对节点重新映射到新的桶数组里。如果节点是TreeNode类型,则需要拆分红黑树。如果是普通节点,则节点按原顺序进行分组。
对于JDK8中的红黑树优化来说,树化要满足两个条件:1. 链表长度大于等于8;2. 桶数组容量大于等于 64。由于HashMap设计之初没有实现比较方法,所以在转红黑树的时候需要先比较hash,如果key实现了Comparable接口,则通过compareTo方法比较,否则通过仲裁方法比较。需要注意的是,虽然链表转换成了红黑树,但是都保留了在链表中每个节点的前置节点和后置节点。正因为如此,在红黑树拆分的中,对红黑树进行重新映射时,完全可以按照映射链表的方式进行。这样就避免了将红黑树转成链表后再进行映射,无形中提高了效率 。同时红黑树链化的时候直接转换成节点就成,方便了很多。我们需要注意,当桶(bucket)上的结点数小于6时树才转链表
HashMap 的删除操作并不复杂,仅需三个步骤即可完成。第一步是定位桶位置,第二步遍历链表并找到键值相等的节点,第三步删除节点。当然如果是红黑树,则在删除过程中需要重建红黑树
HashMap 的结构,为什么非线程安全,为什么容量是 2 的次幂

小米19年秋招本科

总体上,HashMap是数组+链表的形式。在JDK8中,当链表中元素数目超过8个,就会自动转为红黑树,进一步提高查找效率

之所以说HashMap是非线程安全的,一方面是并发操作的时候会引起数据不一致。第二点就是在多线程环境中put时的rehash会造成元素之间会形成一个循环链表*(JDK7)*。
之所以是2的次幂,是因为在查找桶的时候会通过(n - 1) & hash 来取模,(其中n-1是长度)。如果是容量是2次幂的话用&可以代替&,效率更高。同时再hash的过程中(h = key.hashCode()) ^ (h >>> 16)会将原来的hash异或右移16位的hash,原因是因为当容量不超过16位时,也能利用上原来hash后的高位的值
详细说一下 Hashmap 的 put 过程

pdd19年秋招本科

插入链表的时候是后插

关于put方法,前面原理有细说

1.7和1.8的区别

hash方法不同,8中使用了hashCode^hashCode>>>16,而7中只扰动了四次

put方法不同,7中只是链表,8中又加了红黑树。最主要的是8中引入了红黑树

扩容方式也不同,对于链表来说,JDK7扩容时是直接重新把元素hash之后put到新桶之中,而JDK8是先将链表分组,然后放到新桶之中。具体分组方式是计算节点的hash & oldCap,如果为0则放入loHead和lotail中,反之则放入hiHead和hiTail中,之后把这两条分好组的链表放入新桶中

3. 如何用HashMap实现Redis
科大讯飞19年秋招本科

众所周知,Redis底层映射了一个大的数据表就是Hash,这个题超出了我的想象范围

4. HashMap和TreeMap的区别
pdd19年秋招本科

TreeMap在继承了AbstractMap的基础上,又实现了SortMap接口。所以TreeMap是按照一定规则排过序的。 它默认是按键值的升序排序,也可以指定排序的比较器,当用Iterator 遍历TreeMap时,得到的记录是排过序的。同时在JDK1.8中也是用的红黑树进行排序。同时,TreeMap的key不能为空,value可以为空。比较器Comparator要么在创建时指定,要么key需要实现Comparable接口的compareTo方法

HashMap因为没有排序所以要更快,它的key和value都可以为空

5. LinkedHashMap应用场景
pdd19年秋招

LinkedHashMap继承了HashMap,同时在红黑树的基础上增加了一条双向链表,解决了 HashMap 不能随时保持遍历顺序和插入顺序一致的问题。 除此之外,LinkedHashMap 对访问顺序也提供了相关支持。在一些场景下,该特性很有用,比如缓存或者其他先来后到的场景。在实现上,LinkedHashMap 很多方法直接继承自 HashMap,仅为维护双向链表覆写了部分方法
至于应用场景,可以通过LinkedHashMap实现一个LRU策略的缓存。LinkedHashMap中有一个方法为afeterNodeInsert(),该方法会在节点处插入后删除一个节点,而要删除存活时间最长的节点的条件则通过我们自己覆盖方法removeEldestEntry,我们可以根据节点数量判断是否移除最近最少被访问的节点,或者根据节点的存活时间判断是否移除该节点等
6. 讲一下ConcurrentHashMap
字节跳动秋招,阿里19年实习,阿里19年秋招本科,pdd19年实习,滴滴19年秋招本科,bigo19年秋招本科

这个题即和集合相关,又和并发相关。并发中没有说,放到这里来细说

ConcurrentHashMap有一个特别的字段sizeCtl,主要用来控制table的初始化和扩容的操作,不同的值有不同的含义。当为负数时:-1代表正在初始化,-N代表有N-1个线程正在 进行扩容;当为0时:代表当时的table还没有被初始化;当为正数时:表示初始化或者下一次进行扩容的大小

对于JDK1.8来说,它每次锁只是锁了链表或者红黑树的头结点,大大地降低了锁的粒度。其基本的数据节点是Node,它就是一个链表,但是只允许对数据进行查找,不允许进行修改。TreeNode继承与Node,但是数据结构换成了二叉树结构,它是红黑树的数据的存储结构,用于红黑树中存储数据。TreeBin类用来封装TreeNode,提供转换黑红树的一些条件和锁的控制。和HashMap一样,ConcurrentHashMap是在第一次put的时候初始化容量的

在put时,会对当前的table进行无条件自循环直到put成功,可以分成以下六步流程来概述

如果没有初始化就先调用initTable()方法来进行初始化过程
如果没有hash冲突就直接CAS插入
如果还在进行扩容操作就先进行扩容,通过helpTransfer()调用多线程一起扩容,真正的扩容方法是transfer(),通过参数ForwardingNode支持扩容操作,将已处理的节点和空节点置为ForwardingNode,并发处理时多个线程经过ForwardingNode就表示已经遍历了,就往后遍历
如果存在hash冲突,就加锁来保证线程安全,这里有两种情况,一种是链表形式就直接遍历到尾端插入,一种是红黑树就按照红黑树结构插入,
最后一个如果该链表的数量大于阈值8,就要先转换成黑红树的结构,break再一次进入循环
如果添加成功就调用addCount()方法统计size,并且检查是否需要扩容
对于get来说,可以分为三个步骤来描述

计算hash值,定位到该table索引位置,如果是首节点符合就返回
如果遇到扩容的时候,会调用标志正在扩容节点ForwardingNode的find方法,查找该节点,匹配就返回
以上都不符合的话,就往下遍历节点,匹配就返回,否则最后就返回null
看过源码吗?说一下1.7和1.8的结构

在JDK1.7的时候,ConcurrentHashMap采用分段锁对整个桶数组进行了分割分段(Segment),每一把锁只锁容器其中一部分数据,多线程访问容器里不同数据段的数据,就不会存在锁竞争,提高并发访问率。Segment继承了ReentrantLock,默认有16个Segment,允许16个线程并发执行,Segment由于采用位运算,所以个数永远是2的N次方,最大值为65536*(2^16)*。每个Segment维护一个桶数组。
对于put来说,需要进行两次hash来定位数据的储存位置。 从上Segment的继承体系可以看出,Segment实现了ReentrantLock,也就带有锁的功能,当执行put操作时,会进行第一次key的hash来定位Segment的位置,如果该Segment还没有初始化,即通过CAS操作进行赋值,然后进行第二次hash操作,找到相应的HashEntry的位置,这里会利用继承过来的锁的特性,在将数据插入指定的HashEntry位置时(链表的尾端),会通过继承ReentrantLock的tryLock()方法尝试去获取锁,如果获取成功就直接插入相应的位置,如果已经有线程获取该Segment的锁,那当前线程会以自旋的方式去继续的调用tryLock()方法去获取锁,超过指定次数就挂起,等待唤醒
对于get来说,ConcurrentHashMap的get操作跟HashMap类似,只是ConcurrentHashMap第一次需要经过一次hash定位到Segment的位置,然后再hash定位到指定的HashEntry,遍历该HashEntry下的链表进行对比,成功就返回,不成功就返回null
对于size放来来说,因为他是并发操作的,就是在计算size的时候,他还在并发的插入数据,可能会导致计算出来的size和你实际的size有相差(在你return size的时候,插入了多个数据),要解决这个问题,JDK1.7版本用两种方案。1. 是使用不加锁的模式去尝试多次计算ConcurrentHashMap的size,最多三次,比较前后两次计算的结果,结果一致就认为当前没有元素加入,计算的结果是准确的; 2. 如果第一种方案不符合,他就会给每个Segment加上锁,然后计算ConcurrentHashMap的size返回
DK1.8 摒弃了Segment的概念,而是直接用Node 数组+链表+红黑树的数据结构来实现,并发控制使用 synchronized 和 CAS 来操作。(JDK1.6以后 对 synchronized锁做了很多优化)整个看起来就像是优化过且线程安全的 HashMap,虽然在JDK1.8中还能看到 Segment 的数据结构,但是已经简化了属性,只是为了兼容旧版本
总的来说,1.7和1.8有以下区别

JDK1.8的实现降低锁的粒度,JDK1.7版本锁的粒度是基于Segment的,包含多个HashEntry,而JDK1.8锁的粒度就是HashEntry(首节点)
JDK1.8版本的数据结构变得更加简单,使得操作也更加清晰流畅,因为已经使用synchronized来进行同步,所以不需要分段锁的概念,也就不需要Segment这种数据结构了,由于粒度的降低,实现的复杂度也增加了
JDK1.8使用红黑树来优化链表,基于长度很长的链表的遍历是一个很漫长的过程,而红黑树的遍历效率是很快的,代替一定阈值的链表,这样形成一个最佳拍档
JDK1.8为什么使用内置锁synchronized来代替重入锁ReentrantLock,我觉得有以下几点
因为粒度降低了,在相对而言的低粒度加锁方式,synchronized并不比ReentrantLock差,在粗粒度加锁中ReentrantLock可能通过Condition来控制各个低粒度的边界,更加的灵活,而在低粒度中,Condition的优势就没有了
JVM的开发团队从来都没有放弃synchronized,而且基于JVM的synchronized优化空间更大,使用内嵌的关键字比使用API更加自然
在大量的数据操作下,对于JVM的内存压力,基于API的ReentrantLock会开销更多的内存,虽然不是瓶颈,但是也是一个选择依据
为什么它是线程安全的

小米19年秋招本科

之所以是线程安全,1. 是因为在对ConCurrentHashMap进行操作时候是通过synchronized 和 CAS来保证的,它的锁粒度是针对于每一个Node节点的。2. 内部定义了一些静态变量如sizeCtl等来使多个线程检查是否正在初始化,如果在初始化则调用Thread.yield()方法。3. 同时,对于扩容来说,如果hash之后等于MOVED,则在1.8中会使用多个线程来一起扩容,同时当在进行数组扩容的时候,如果当前节点还没有被处理(也就是说还没有设置为fwd节点),那就可以进行设置操作。如果该节点已经被处理了,则当前线程也会加入到扩容的操作中去。4. 对于put时,没有hash冲突,则使用CAS插入,如果产生hash冲突,则此时应该要加锁(锁的是链表或者红黑树的头结点)

7. HashMap和HashTable
线程是否安全: HashMap 是非线程安全的,HashTable 是线程安全的;HashTable 内部的方法基本都经过synchronized 修饰,是表锁。(如果你要保证线程安全的话就使用 ConcurrentHashMap 吧!)
效率: 因为线程安全的问题,HashMap 要比 HashTable 效率高一点。另外,HashTable 基本被淘汰,不要在代码中使用它
对Null key 和Null value的支持: HashMap 中,null 可以作为键,这样的键只有一个,可以有一个或多个键所对应的值为 null。。但是在 HashTable 中 put 进的键值只要有一个 null,直接抛出 NullPointerException
初始容量大小和每次扩充容量大小的不同 : ①创建时如果不指定容量初始值,Hashtable 默认的初始大小为11,之后每次扩充,容量变为原来的2n+1。HashMap 默认的初始化大小为16。之后每次扩充,容量变为原来的2倍。②创建时如果给定了容量初始值,那么 Hashtable 会直接使用你给定的大小,而 HashMap 会将其扩充为2的幂次方大小(HashMap 中的tableSizeFor()方法保证,下面给出了源代码)。也就是说 HashMap 总是使用2的幂作为哈希表的大小,后面会介绍到为什么是2的幂次方
底层数据结构: JDK1.8 以后的 HashMap 在解决哈希冲突时有了较大的变化,当链表长度大于阈值(默认为8)时,将链表转化为红黑树,以减少搜索时间。Hashtable 没有这样的机制

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值