java集合

面试复习 java:集合

重中之重

1.ArrayList

简介
  • ArrayList作为List(有序的、不唯一)的主要实现类;线程不安全,效率高;
  • ArrayList底层使用数组 Object[] elementData 来实现;
考点
jdk7版本下
ArrayList list = new ArrayList();
//无参构造器创建,底层创建了长度是10的Object[]数组elementData
     
list.add(123);
//elementData[0] = new Integer(123);

...

list.add(11);
//如果此次的添加导致底层elementData数组容量不够,则扩容。
//默认情况下,扩容为原来的1.5倍,同时需要将原有的数组中的数据复制到新的数组中。
jdk8版本下
ArrayList list = new ArrayList();
//底层Object[] elementData初始化为{}.并没有创建长度为10的数组

list.add(123);
//第一次调用add()时,底层才创建了长度10的数组,并将数据123添加到elementData[0]
 ...
 后续的添加和扩容操作与jdk7无异。

要点

  • jdk7中无参构造器创建ArrayList,底层数组初始化长度为10,而jdk8数组初始化变为{},当第一次调用add()时,底层才创建了长度10的数组,并将数据123添加到elementData[0];

  • 扩容机制:扩容为原来的1.5倍

    源码int newCapacity = oldCapacity + (oldCapacity >> 1);

  • 有参构造器可以输入指定的长度来初始化ArrayList

面试题
  • ArrayList的扩容机制(要点叙述)
  • ArrayList jdk7和jdk8 的初始化有什么不同(要点叙述)
  • ArrayList、LinkedList、Vector三者的异同?

ArrayList和LinkedList:

相同点:两者都是List的实现类(有序的、可重复的),线程不安全的。

不同点:

1.ArrayList底层是数组,而LinkedList底层是双向链表,故ArrayList在查找、访问元素(以及遍历)时速度更快,而LinkedList在添加、删除元素(特别是频繁这些操作时)时速度更快。

2.底层从空间上说,ArrayList是数组,显然是连续的内存空间,而Linked是链表,故不需要连续的空间。

ArrayList和Vector:

相同点:两者都是List的实现类(有序的、可重复的),底层都为数组(jdk7初始长度都为10)。

不同点:

1.ArrayList是线程不安全的,而Vector是线程安全的,ArrayList效率高,Vector效率低。

2.扩容机制:ArrayList为1.5倍,Vector为2倍。

  • 为啥线程不安全还使用他呢?

因为在我们正常得使用场景中,都是用来查询的,不会涉及太频繁的增删,如果涉及到频繁的增删,可以使用LinkedList,如果需要线程安全的就是可以使用Vector,或者使用工具类Collections的synchronizedList( )方法给ArrayList的方法都套上synchronized。

2.HashMap

简介
  • HashMap作为Map的主要实现类;线程不安全的,效率高;能存储null的key和value
  • HashMap的底层:jdk7:数组 + 链表 jdk8:数组 + 链表 + 红黑树
考点
jdk7版本下
HashMap map = new HashMap();
//在实例化以后,底层创建了长度是16的一维数组Entry[ ] table。
//注:Entry是一个内部类(单链表结构),封装了hash值,key,value,next指针四个属性。
//  ...可能已经执行过多次put...
map.put(key1,value1);
//添加机制:
//首先,调用key1所在类的hashCode()计算key1哈希值,此哈希值经过某种算法计算以后,得到在Entry数组中的存放位置.
//如果此位置上的数据为空,此时的key1-value1添加成功。 ----情况1
//如果此位置上的数据不为空,(意味着此位置上存在一个或多个数据(以链表形式存在)),比较key1和已经存在的一个或多个数据的哈希值:
//		如果key1的哈希值与已经存在的数据的哈希值都不相同,此时key1-value1添加成功。 ----情况2
//		如果key1的哈希值和已经存在的某一个数据(key2-value2)的哈希值相同,继续比较:调用key1所在类的equals(key2)方法,比较:
//				如果equals()返回false:此时key1-value1添加成功。  ----情况3
//				如果equals()返回true:使用value1替换value2。

//补充:
//关于情况2和情况3:此时key1-value1和原来的数据以链表的方式存储。
//jdk8中某一个索引位置上的元素以链表形式存在的数据个数 > 8 且当前数组的长度 > 64时,此时此索引位置上的所有数据改为使用**红黑树**存储。

//在不断的添加过程中,会涉及到扩容问题,当超出临界值(且要存放的位置非空)时,扩容。(扩容因子0.75)
//默认的扩容方式:扩容为原来容量的2倍,并将原有的数据复制过来。
jdk8版本下

jdk8 相较于jdk7在底层实现方面的不同:

  • new HashMap():底层没有创建一个长度为16的数组
  • jdk 8底层的数组是:Node[],而非Entry[]
  • 首次调用put()方法时,底层创建长度为16的数组(懒加载机制)
  • jdk7底层结构只有:数组+链表jdk8中底层结构:数组+链表+红黑树
  • 形成链表时,七上八下(jdk7:新的元素指向旧的元素。jdk8:旧的元素指向新的元素)
  • 当数组的某一个索引位置上的元素以链表形式存在的数据个数 > 8 且当前数组的长度 > 64时,此时此索引位置上的所有数据改为使用红黑树存储。

要点:

  • 添加机制(jdk7位置已写)
  • jdk7和jdk8的不同
  • HashMap底层典型属性:

DEFAULT_INITIAL_CAPACITY : HashMap的默认容量,16
DEFAULT_LOAD_FACTOR:HashMap的默认加载因子:0.75
threshold:扩容的临界值,=容量*填充因子:16 * 0.75 => 12
TREEIFY_THRESHOLD:Bucket中链表长度大于该默认值,转化为红黑树:8
MIN_TREEIFY_CAPACITY:桶中的Node被树化时最小的hash表容量:64

面试题
  • HashMap的底层实现原理?(上面的叙述:添加机制,扩容机制,jdk7和jdk8底层的一些变化等)
  • HashMap 和 Hashtable的区别?

HashMap是线程不安全的、效率高,而Hashtable是线程安全的、效率低,HashMap可以接收null的key和value,而Hashtable则不行。

  • HashSet和HashMap的区别

1.HashSet内部使用的是HashMap的key来存储对象,value使用了PRESENT对象设置。add()方法调用map.put(e, PRESENT)==null。

2.HashMap实现了Map接口,HashSet实现了Set接口,HashMap储存键值对,HashSet仅仅存储对象

添加元素HashMap使用put()方法,HashSet使用add(),HashMap要比HashSet效率高一些。

  • 如果想要保证HashMap的线程安全,应该怎么办?

可以通过HashTable,该类的出现主要是解决了HashMap的线程安全问题,直接用了synchronized锁,所以效率上不高,不建议使用(发现JDK1.0的线程问题,解决都很暴力)。
ConcurrentHashMap是java.util.concurrent包下的,并发包下的。他就是对HashMap进行了一个扩展,也就是解决了他的线程安全问题。ConcurrentHashMap用了大量的CAS来进行优化。
————————————————
版权声明:本文为CSDN博主「贺贺学编程」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/HeZhiYing_/article/details/113693305

  • HashMap指定容量构造器创建的是我们写的指定容量吗?

不一定(一般不是),如果我们输入的指定容量是2的次方,则是该容量,如果不是,则取比它大的最小的2的次方数为容量。

  • HashMap为什么每次扩容为原来的两倍?(同为上一问的为什么。)

因为hashmap源码中扩容时会调用的resize()方法,该方法其实就是通过和put 一样的&运算来计算数据应该存放的位置,然后将数据复制到新的数组中去。而之所以扩容为2倍其实就是因为这个&运算,简单的说就是hashmap的容量为2的n次幂的话,可以使得添加的元素均匀分布,减少hash碰撞。

详细解说推荐下面这篇大佬的文章:

HashMap初始容量为什么是2的n次幂及扩容为什么是2倍的形式_Apeopl的博客-CSDN博客_hashmap扩容为啥是2倍

  • HashMap的扩容因子为什么是0.75?

推荐下面这篇大佬的文章:

HashMap的负载因子为什么默认是0.75_火麒马-CSDN博客_hashmap扩容因子为什么是0.75

  • HashMap和ConcurrentHashMap相关(统一到ConcurrentHashMap处写)

3.ConcurrentHashMap

待做

集合结构图

image-20211220125246071

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

人山人

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值