一、List接口
存储有序的、可重复的数据。“动态”数组, 替换原有的数组
1.ArrayList
Arraylist:作为ist接口的主要实现类;线程不安全,效率高,底层使用Object[ ]顺序存储
private transient Object[ ] elementData;
1.1.ArrayList在jdk7源码分析
ArrayList list = new ArrayList();
底层创建长度是10的Object[]数组elementData(饿汉式)
public ArrayList() {
this( initialCapacity: 10);
}
-
数组容量不够,则扩容。默认情况下,扩容为原来的容量的1.5倍,同时需要将原有数组中的数据复制到新的数组中。
-
结论:建议开发中使用带参的构造器:
ArrayList list = new ArrayList(int capacity)
避免扩容,效率高一些
1.2.ArrayList在jdk8下的变化
- ArrayList List = new Arraylist();//底层object[] elementData 初始化为{}.并没有创建长度(懒汉式)
private static final Object[] EMPTY_ELEMENTDATA = {};
- 第一次调用add()时,底层才创建了长度10的数组,并将数据添加到elementData
- 添加和扩容操作与jdk 7一样
1.3.小结
jdk7中的ArrayList的对象的创建类似于单例的饿汉式,而jdk8 中的Arraylist的对象的创建类似于单例的懒汉式,延迟了数组的创建,节省内存。
2.LinkedList
对于频繁的插入、删除操作,使用此类效率比ArrayList高; 底层使用双向链表存储
linkedlist的源码分析:
-
Linkedlist list = new Linkedlist();
内部声明了Node类型的first和last属性,默认值为null
-
例如 list. add(123);//将123封装到Node中,创建了Node对象。
其中,Node定义为:体现了LinkedList的双向链表的说法
3. Vector
作为ist接口的古老实现类,线程安全,效率不高,底层使用0bject[]存储
- 源码分析: jdk7和jdk8 中通过Vector()构造器创建对象时,底层都创建了长度为10的数组
- 在扩容方面,默认扩容为原来的数组长度的2倍。
4. ArrayList、 LinkedList、 Vector三者的异同?
- 相同点:三个类都是实现了List接口,存储数据的特点相同:存储有序的、可重复的数据
- 不同点:ArrayList和Vectory相比较,前者线程不安全,但是执行效率高,后者相反。所以经常用ArrayList。LinkedList底层是双向链表存储,而ArrayList和Vectory底层是object数组。
二、Set接口
存储无序的、不可重复的数据–> 相当于高中时期的集合概念
- 1.无序性:不等于随机性。存储的数据在底层数组中并非按照数组索引的顺序添加,而是根据数据的哈希值
- 2.不可重复性:保证添加的元素按照equals()判断时,不能返回true. 即:相同的元素只能添加一一个。
1.HashSet
- 作为Set接口的主要实现类;线程不安全的;可以存储null值
- 向Set中添加的数据,其所在的类一定 要重写hashCode()和equals()
- 重写的hashCode()和equals()尽可能保持一致性: 相等的对象必须具有相等的散列码,为保证一致性,一般建议代码自动生成,不建议手写
1.1 HashSet添加元素的过程
(1)向HashSet中添加元素a,首先调用元素a所在类的hashCode()方法,计算元素a的哈希值,此哈希值接着通过某种算法计算出在HashSet底层数组中的存放位置(即为:索引位置)
(2)判断数组此位置上是否已经有元素,没有其他元素,则元素a添加成功,若有其他元素b(或以链表形式存在的多个元素)
(3)比较元素a与元素b的hash值,如果hash值不相同,则元素a添加成功,如果hash值相同
(4)进而需要调用元素a所在类的equals()方法:
equals()返回true,元素a添加失败(元素以及存在)
equals()返回false,则元素a添加成功(元素不存在)
- 若元素a与已经存在指定索引位置上数据以链表的方式存储。(简记七上八下)
jdk 7 :元素a放到数组中,指向原来的元素。
jdk 8 :原来的元素在数组中,指向元素a
1.2 HashSet底层
底层也是数组,初始容量为16,当如果使用率超过0.75,(16*0.75=12)。 就会扩大容量为原来的2倍。(16扩 容为32,依次为64,128.等),具体见HashMap源码
set相当于map中的key
- 如果只重写equals而不重写hashcode,则会调用Object类下的hashcode,他是一个本地方法,会随机给产生一个哈希值,不经过equals去比较
2. LinkedHashSet
作为HashSet的子类;遍历其内部数据时,可以按照添加的顺序遍历
对于频繁的遍历操作,L inkedHashSet效率高HashSet
- LinkedHashSet作为HashSet的子类,在添加数据的同时,每个数据还维护了两个引用(双向链表),记录此数据前一个和后一个数据
LinkedHashSet继承自HashSet,它的添加、删除、查询等方法都是直接用的HashSet的,唯一的不同就是它使用LinkedHashMap存储元素。
3.TreeSet(底层是红黑树)
可以按照添加对象的指定属性,进行排序。
3.1 向TreeSet中添加的数据,要求是相同类的对象。不同的类无法进行比较
不同类对象
同类对象
3.2 两种排序方式:自然排序(实现Comparable接口)和定制排序(Comparator)
自然排序,比较两个对象是否相同的标准为: compareTo() 返回e.不再是equals()
第一步User类实现Comparable接口
第二部重写compareTo方法
- 定制排序中,比较两个对象是否相同的标准为: compare()返回0.不再是equals()
public class TestDemo {
@Test
public void test2(){
Comparator comparator = new Comparator() {
//年龄从小到大排列
@Override
public int compare(Object o1, Object o2) {
if (o1 instanceof User && o2 instanceof User){
User u1 = (User)o1;
User u2 = (User)o1;
return Integer.compare(u1.getAge(),u2.getAge());
}else {
throw new RuntimeException("输入类型不匹配");
}
}
};
TreeSet set = new TreeSet(comparator);
set.add(new User("Tom",26));
set.add(new User("Jack",16));
set.add(new User("Mike",35));
set.add(new User("Aluka",28));
set.add(new User("Faze",19));
//迭代器遍历
Iterator iterator = set.iterator();
while(iterator.hasNext()){
System.out.println(iterator.next());
}
}
}
三、Map接口
双列数据,存储key-value对的数据—类似于高中的函数:y=f(x)
Map中的key:无序的、不可重复的,使用Set存储所有的key,key所在的类要重写equals()和hashCode()(HashMap为例)
Map中的value:无序的、可重复的,使用collection存储所有的value ,value所在的类要重写equals()
一个键值对: key-value构成了Entry 对象。Map中的Entry:无序的、不可重复的,使用Set 存储所有的entry
1.HashMap
作为Map的主要实现类;线程不安全的,效率高;存储null 的key和value
HashMap源码中的重要常量
DEFAULT_INITIAL_CAPACITY : HashMap的默认容量,16
DEFAULT_LOAD_FACTOR: HashMap的默认加载因子: 0. 75 太小的话数组的利用率太低,太高的话链表太多
threshold:扩容的临界值,=容量*填充因子=16x0.75 => 12
TREEIFY_ THRESHOLD: Bucket 中链表长度大于该默认值,转化为红黑树:8
MIN_ TREEIFY CAPACITY:桶中的Node被树化时最小的hash表容量: 64
1.1HashMap在jdk7的底层源码
(1) new HashMap( );在实例化以后,底层创建了长度是16的一维数组Entry[] table
(2) jdk 7 下为Entry[]数组
(3) map中put数据时
求哈希值
hash值经过算法计算在数组上的索引
存储Entry, 在不断的添和过程中,会涉及到扩容问题,当超出临界值(且要存放的位置非空)时,扩容,默认的扩容方式:扩容为原来容量的2倍,并将原有的数据复制过来。之后在执行createEntry()方法
若不扩容,不消耗内存,则直接运行createEntry()方法,新创建的Entry采用头插法,插入到数组对应的索引处
数组上一个索引处对应一个Entry类型的链表
(4)例如:添加键值对 map. put(key1, value1):
首先,调用key1所在类的hashCode() 计算key1哈希值,此哈希值经过某种算法计算以后,得到在Entry数组中的存放位置。
如果此位置上的数据为空,此时的key1-value1 添加成功。
如果此位置上的数据不为空, 意味着此位置上存在一个或多个数据(以链表形式存在))
比较key1和已经存在的一个或多个数据的哈希值。
如果key1的哈希值与已经存在的数据的哈希值都不相同,此时key1-value1 添加成功。
如果key1的哈希值和已经存在的某一个数据(key2-value2) 的哈希值相同,继续比较:调用key1 所在类的equals(key2)
如果equals()返回false:此时key1-value1添加成功。
如果equals()返回true:使用value1替换value2。
1.2 HashMap在jdk8的底层源码
jdk8相较于jdk7在底层实现方面的不同:
(1) new HashMap():底层没有创建一个长度为16的数组
(2)jdk 8底层的数组是: Node[], 而非Entry[]
(3)调用put()方法时,底层创建长度为16的数组
计算hash值
hash值经过算法计算在数组上的索引,索引处为空则直接添加
resize()方法创建map对象
该索引处存在值,与索引所在链表上的第一个数据比较,如果相等则修改
该索引处存在值,与索引所在链表上的第一个数据比较,如果不相等,则继续向链表上的其他数据比较,下一个数据为空则直接添加,不为空,则一直重复上述操作。
若添加时发现该单链表长度达到8判断是否变化为红黑树
判断链表是否变化为红黑树,还是进行数组扩容。
(4)jdk7底层结构只有:数组+链表。jdk8中底层结构:数组+链表+红黑树。
当数组的某一个索引位置上的元素以链表形式存在的数据个数> 8,且当前数组的长度> 64时,此时此索引位置上的所有数据改为使用红黑树存储。
(5)resize扩容
1)在jdk1.8中,resize方法是在hashmap中的键值对大于阀值时或者初始化时,就调用resize方法进行扩容;
2)每次扩展的时候,都是扩展2倍;
3)扩展后Node对象的位置要么在原位置,要么移动到原偏移量两倍的位置。
●在putVal()中, 我们看到在这个函数里面使用到了2次resize()方法, resize()方法表示的在进行第一次初始化时会对其进行扩容,或者当该数组的实际大小大于其临界值值(第一次为12),这个时候在扩容的同时也会伴随的桶上面的元素进行重新分发,这也是DK1 .8版本的一-个优化的地方,在1.7中,扩容之后需要重新去计算其Hash值,根据Hash值对其进行分发,但在1.8版本中,则是根据在同一个桶的位置中进行判断(e.hash & oldCap)是否为0,重新进行hash分配后,结果为0,元素的位置要么停留在原始位置(原始桶),要么移动到原始同位置+原数组大小这个位置上。
2.LinkedHashMap
LinkedHashMap:保证在遍历map元素时,可以按照添加的顺序实现遍历。
2.1对于频繁的遍历操作,此类执行效率高于HashMap
原因:在原有的HashMap底层结构基础上,添加了一对指针, 指向前一个和后一个元素,送以恶能够保证遍历map元素时,可以按照添加的顺序实现遍历
2.2继承于HashMap,所以put方法调用的是父类的put方法,只不过重写了newNode方法
3. TreeMap(不常用)
保证按照添加的key-value对进行排序, 实现排序遍历。(底层红黑树)
TreeMap是线程非同步的
适用于有序遍历
4.Hashtable(淘汰)
作为古老的实现类;线程安全的,效率低;不能存储null的key和value
HashMap与HashTable有什么区别?
(1).线程安全: HashMap 是非线程安全的, HashTable 是线程安全的; HashTable 内部的方法基本都经过synchronized 修饰。(如果你要保证线程安 全的话就使用ConcurrentHashMap ) ;
(2).效率:因为线程安全的问题,HashMap 要比HashTable效率高一点。 另外, HashTable 基本被淘汰,不要在代码中使用它;
(3).对Null key和Null value的支持: HashMap 中,null 可以作为键,这样的键只有一个,可以有个或多个键所对应的值为null.但是在HashTable中put进的键值只要有一一个null,直接抛NullPointerException.
(4).初始容量大小和每次扩充容量大小的不同:
创建时如果不指定容量初始值, Hashtable 默认的初始大小为11,之后每次扩充,容量变为原来的2n+1。HashMap 默认的初始化大小为16。之后每次扩充,容量变为原来的2倍。
创建时如果给定了容量初始值,那么Hashtable会直接使用你给定的大小,而HashMap会将其扩充为2的幂次方大小。也就是说HashMap总是使用2的幂作为哈希表的大小
(5).底层数据结构: JDK1.8 以后的HashMap在解决哈希冲突时有了较大的变化,当链表长度大于阈值(默认为8)时,将链表转化为红黑树,以减少搜索时间。Hashtable 没有这样的机制。
(6).推荐使用:在Hashtable的类注释可以看到,Hashtable 是保留类不建议使用,推荐在单线程环境下使用HashMap替代,如果需要多线程使用则用ConcurrentHashMap替代。
四、HashMap掌握内容
原创来源链接
1:HashMap 的数据结构?
A:哈希表结构(链表散列:数组+链表)实现,结合数组和链表的优点。当链表长度超过 8 时,链表转换为红黑树。
transient Node<K,V>[] table;
2:HashMap 的工作原理?
HashMap 底层是 hash 数组和单向链表实现,数组中的每个元素都是链表,由 Node 内部类(实现 Map.Entry<K,V>接口)实现,HashMap 通过 put & get 方法存储和获取。
存储对象时,将 K/V 键值传给 put() 方法:
①、调用 hash(K) 方法计算 K 的 hash 值,然后结合数组长度,计算得数组下标;
②、调整数组大小(当容器中的元素个数大于 capacity * loadfactor 时,容器会进行扩容resize 为 2n);
③、i.如果 K 的 hash 值在 HashMap 中不存在,则执行插入,若存在,则发生碰撞;
ii.如果 K 的 hash 值在 HashMap 中存在,且它们两者 equals 返回 true,则更新键值对;
iii. 如果 K 的 hash 值在 HashMap 中存在,且它们两者 equals 返回 false,则插入链表的尾部(尾插法)或者红黑树中(树的添加方式)。
(JDK 1.7 之前使用头插法、JDK 1.8 使用尾插法)
(注意:当碰撞导致链表大于 TREEIFY_THRESHOLD = 8 时,就把链表转换成红黑树)
获取对象时,将 K 传给 get() 方法:①、调用 hash(K) 方法(计算 K 的 hash 值)从而获取该键值所在链表的数组下标;②、顺序遍历链表,equals()方法查找相同 Node 链表中 K 值对应的 V 值。
hashCode 是定位的,存储位置;equals是定性的,比较两者是否相等。
3.当两个对象的 hashCode 相同会发生什么?
因为 hashCode 相同,不一定就是相等的(equals方法比较),所以两个对象所在数组的下标相同,"碰撞"就此发生。又因为 HashMap 使用链表存储对象,这个 Node 会存储到链表中。
4.你知道 hash 的实现吗?为什么要这样实现?
JDK 1.8 中,是通过 hashCode() 的高 16 位异或低 16 位实现的:(h = k.hashCode()) ^ (h >>> 16),主要是从速度,功效和质量来考虑的,减少系统的开销,也不会造成因为高位没有参与下标的计算,从而引起的碰撞。
5.为什么要用异或运算符?
保证了对象的 hashCode 的 32 位值只要有一位发生改变,整个 hash() 返回值就会改变。尽可能的减少碰撞。
6.HashMap 的 table 的容量如何确定?loadFactor 是什么? 该容量如何变化?这种变化会带来什么问题?
①、table 数组大小是由 capacity 这个参数确定的,默认是16,也可以构造时传入,最大限制是1<<30;
②、loadFactor 是装载因子,主要目的是用来确认table 数组是否需要动态扩展,默认值是0.75,比如table 数组大小为 16,装载因子为 0.75 时,threshold 就是12,当 table 的实际大小超过 12 时,table就需要动态扩容;
③、扩容时,调用 resize() 方法,将 table 长度变为原来的两倍(注意是 table 长度,而不是 threshold)
④、如果数据很大的情况下,扩展时将会带来性能的损失,在性能要求很高的地方,这种损失很可能很致命。
7.HashMap中put方法的过程?
答:“调用哈希函数获取Key对应的hash值,再计算其数组下标;
如果没有出现哈希冲突,则直接放入数组;如果出现哈希冲突,则以链表的方式放在链表后面;
如果链表长度超过阀值( TREEIFY THRESHOLD==8),就把链表转成红黑树,链表长度低于6,就把红黑树转回链表;
如果结点的key已经存在,则替换其value即可;
如果集合中的键值对大于12,调用resize方法进行数组扩容。”
8.数组扩容的过程?
创建一个新的数组,其容量为旧数组的两倍,并重新计算旧数组中结点的存储位置。结点在新数组中的位置只有两种,原下标位置或原下标+旧数组的大小。
9.拉链法导致的链表过深问题为什么不用二叉查找树代替,而选择红黑树?为什么不一直使用红黑树?
之所以选择红黑树是为了解决二叉查找树的缺陷,二叉查找树在特殊情况下会变成一条线性结构(这就跟原来使用链表结构一样了,造成很深的问题),遍历查找会非常慢。而红黑树在插入新数据后可能需要通过左旋,右旋、变色这些操作来保持平衡,引入红黑树就是为了查找数据快,解决链表查询深度的问题,我们知道红黑树属于平衡二叉树,但是为了保持“平衡”是需要付出代价的,但是该代价所损耗的资源要比遍历线性链表要少,所以当长度大于8的时候,会使用红黑树,如果链表长度很短的话,根本不需要引入红黑树,引入反而会慢。
10.说说你对红黑树的见解?
1、每个节点非红即黑
2、根节点总是黑色的
3、如果节点是红色的,则它的子节点必须是黑色的(反之不一定)
4、每个叶子节点都是黑色的空节点(NIL节点)
5、从根节点到叶节点或空子节点的每条路径,必须包含相同数目的黑色节点(即相同的黑色高度)
11.jdk8中对HashMap做了哪些改变?
在java 1.8中,如果链表的长度超过了8,那么链表将转换为红黑树。(桶的数量必须大于64,小于64的时候只会扩容)
发生hash碰撞时,java 1.7 会在链表的头部插入,而java 1.8会在链表的尾部插入
在java 1.8中,Entry被Node替代(换了一个马甲)。
12.HashMap,LinkedHashMap,TreeMap 有什么区别?
HashMap 参考其他问题;
LinkedHashMap 保存了记录的插入顺序,在用 Iterator 遍历时,先取到的记录肯定是先插入的;遍历比 HashMap 慢;
TreeMap 实现 SortMap 接口,能够把它保存的记录根据键排序(默认按键值升序排序,也可以指定排序的比较器)
13.HashMap & TreeMap & LinkedHashMap 使用场景?
一般情况下,使用最多的是 HashMap。
HashMap:在 Map 中插入、删除和定位元素时;
TreeMap:在需要按自然顺序或自定义顺序遍历键的情况下;
LinkedHashMap:在需要输出的顺序和输入的顺序相同的情况下。
14.HashMap 和 HashTable 有什么区别?
①、HashMap 是线程不安全的,HashTable 是线程安全的;
②、由于线程安全,所以 HashTable 的效率比不上 HashMap;
③、HashMap最多只允许一条记录的键为null,允许多条记录的值为null,而 HashTable不允许;
④、HashMap 默认初始化数组的大小为16,HashTable 为 11,前者扩容时,扩大两倍,后者扩大两倍+1;
⑤、HashMap 需要重新计算 hash 值,而 HashTable 直接使用对象的 hashCode
15.Java 中的另一个线程安全的与 HashMap 极其类似的类是什么?同样是线程安全,它与 HashTable 在线程同步上有什么不同?
ConcurrentHashMap 类(是 Java并发包 java.util.concurrent 中提供的一个线程安全且高效的 HashMap 实现)。
HashTable 是使用 synchronize 关键字加锁的原理(就是对对象加锁);
而针对 ConcurrentHashMap,在 JDK 1.7 中采用 分段锁的方式;JDK 1.8 中直接采用了CAS(无锁算法)+ synchronized。
16.HashMap & ConcurrentHashMap 的区别?
除了加锁,原理上无太大区别。另外,HashMap 的键值对允许有null,但是ConCurrentHashMap 都不允许。
17.为什么 ConcurrentHashMap 比 HashTable 效率要高?
HashTable 使用一把锁(锁住整个链表结构)处理并发问题,多个线程竞争一把锁,容易阻塞;
ConcurrentHashMap
JDK 1.7 中使用分段锁(ReentrantLock + Segment + HashEntry),相当于把一个 HashMap 分成多个段,每段分配一把锁,这样支持多线程访问。锁粒度:基于 Segment,包含多个 HashEntry。
JDK 1.8 中使用 CAS + synchronized + Node + 红黑树。锁粒度:Node(首结点)(实现 Map.Entry<K,V>)。锁粒度降低了。
18.针对 ConcurrentHashMap 锁机制具体分析(JDK 1.7 VS JDK 1.8)?
JDK 1.7 中,采用分段锁的机制,实现并发的更新操作,底层采用数组+链表的存储结构,包括两个核心静态内部类 Segment 和 HashEntry。
①、Segment 继承 ReentrantLock(重入锁) 用来充当锁的角色,每个 Segment 对象守护每个散列映射表的若干个桶;
②、HashEntry 用来封装映射表的键-值对;
③、每个桶是由若干个 HashEntry 对象链接起来的链表
JDK 1.8 中,采用Node + CAS + Synchronized来保证并发安全。取消类 Segment,直接用 table 数组存储键值对;当 HashEntry 对象组成的链表长度超过 TREEIFY_THRESHOLD 时,链表转换为红黑树,提升性能。底层变更为数组 + 链表 + 红黑树。
19.ConcurrentHashMap 在 JDK 1.8 中,为什么要使用内置锁 synchronized 来代替重入锁 ReentrantLock?
①、粒度降低了;
②、JVM 开发团队没有放弃 synchronized,而且基于 JVM 的 synchronized 优化空间更大,更加自然。
③、在大量的数据操作下,对于 JVM 的内存压力,基于 API 的 ReentrantLock 会开销更多的内存。
20.ConcurrentHashMap 简单介绍?
①、重要的常量:
private transient volatile int sizeCtl;
当为负数时,-1 表示正在初始化,-N 表示 N - 1 个线程正在进行扩容;
当为 0 时,表示 table 还没有初始化;
当为其他正数时,表示初始化或者下一次进行扩容的大小。
②、数据结构:
Node 是存储结构的基本单元,继承 HashMap 中的 Entry,用于存储数据;
TreeNode 继承 Node,但是数据结构换成了二叉树结构,是红黑树的存储结构,用于红黑树中存储数据;
TreeBin 是封装 TreeNode 的容器,提供转换红黑树的一些条件和锁的控制。
③、存储对象时(put() 方法):
1.如果没有初始化,就调用 initTable() 方法来进行初始化;
2.如果没有 hash 冲突就直接 CAS 无锁插入;
3.如果需要扩容,就先进行扩容;
4.如果存在 hash 冲突,就加锁来保证线程安全,两种情况:一种是链表形式就直接遍历到尾端插入,一种是红黑树就按照红黑树结构插入;
5.如果该链表的数量大于阀值 8,就要先转换成红黑树的结构,break 再一次进入循环
6.如果添加成功就调用 addCount() 方法统计 size,并且检查是否需要扩容。
④、扩容方法 transfer():默认容量为 16,扩容时,容量变为原来的两倍。
helpTransfer():调用多个工作线程一起帮助进行扩容,这样的效率就会更高。
⑤、获取对象时(get()方法):
1.计算 hash 值,定位到该 table 索引位置,如果是首结点符合就返回;
2.如果遇到扩容时,会调用标记正在扩容结点 ForwardingNode.find()方法,查找该结点,匹配就返回;
3.以上都不符合的话,就往下遍历结点,匹配就返回,否则最后就返回 null。
21.ConcurrentHashMap 的并发度是什么?
程序运行时能够同时更新 ConccurentHashMap 且不产生锁竞争的最大线程数。默认为 16,且可以在构造函数中设置。当用户设置并发度时,ConcurrentHashMap 会使用大于等于该值的最小2幂指数作为实际并发度(假如用户设置并发度为17,实际并发度则为32)