目录
7、Hashtable vs ConcurrentHashMap
1、线程状态
线程的六种状态:
五种状态:
五种状态的说法来自于操作系统层面的划分
就绪:可以分到cpu
运行:分到cpu
阻塞:不能分到cpu
RUNNABLE涵盖了就绪、运行、阻塞I/O
2、线程池
线程池的 7 大核心参数
- corePoolSize 核心线程数目 —— 池中会保留的最多线程数
- maximumPoolSize 最大线程数目 —— 核心线程+救急线程的最大数目
- keepAliveTime 生存时间 —— 救急线程的生存时间,生存时间内没有新任务,此线程资源会释放
- unit 时间单位 —— 救急线程的生存时间单位,如秒、毫秒等
- workQueue —— 阻塞队列,当没有空闲核心线程时,新来任务会加入到此队列排队,队列满会创建救急线程执行任务
- threadFactory 线程工厂 —— 可以定制线程对象的创建,例如设置线程名字、是否是守护线程等
- handler 拒绝策略 —— 当所有线程都在繁忙,workQueue 也放满时,会触发拒绝策略
抛异常 java.util.concurrent.ThreadPoolExecutor.AbortPolicy
由调用者执行任务 java.util.concurrent.ThreadPoolExecutor.CallerRunsPolicy
丢弃任务 java.util.concurrent.ThreadPoolExecutor.DiscardPolicy
丢弃最早排队任务 java.util.concurrent.ThreadPoolExecutor.DiscardOldestPolicy
3、wait vs sleep
共同点
wait() ,wait(long) 和 sleep(long) 的效果都是让当前线程暂时放弃 CPU 的使用权,进入阻塞状态
不同点
- 方法归属不同
- sleep(long) 是 Thread 的静态方法
- 而 wait(),wait(long) 都是 Object 的成员方法,每个对象都有
- 醒来时机不同
- 执行 sleep(long) 和 wait(long) 的线程都会在等待相应毫秒后醒来
- wait(long) 和 wait() 还可以被 notify 唤醒,wait() 如果不唤醒就一直等下去
- 它们都可以被打断唤醒
- 锁特性不同(重点)
- wait 方法的调用必须先获取 wait 对象的锁,而 sleep 则无此限制
- wait 方法执行后会释放对象锁,允许其它线程获得该对象锁(我放弃 cpu,但你们还可以用)
- 而 sleep 如果在 synchronized 代码块中执行,并不会释放对象锁(我放弃 cpu,你们也用不了)
4、lock vs synchronized
- 语法层面
- synchronized 是关键字,源码在 jvm 中,用 c++ 语言实现
- Lock 是接口,源码由 jdk 提供,用 java 语言实现
- 使用 synchronized 时,退出同步代码块锁会自动释放,而使用 Lock 时,需要手动调用 unlock 方法释放锁
- 功能层面
- 二者均属于悲观锁、都具备基本的互斥、同步、锁重入功能
- Lock 提供了许多 synchronized 不具备的功能,例如获取等待状态、公平锁、可打断、可超时、多条件变量
- Lock 有适合不同场景的实现,如 ReentrantLock, ReentrantReadWriteLock
- 性能层面
- 在没有竞争时,synchronized 做了很多优化,如偏向锁、轻量级锁,性能不赖
- 在竞争激烈时,Lock 的实现通常会提供更好的性能
公平锁
公平锁的公平体现
- 已经处在阻塞队列中的线程(不考虑超时)始终都是公平的,先进先出
- 公平锁是指未处于阻塞队列中的线程来争抢锁,如果队列不为空,则老实到队尾等待
- 非公平锁是指未处于阻塞队列中的线程来争抢锁,与队列头唤醒的线程去竞争,谁抢到算谁的
公平锁会降低吞吐量,一般不用
条件变量
ReentrantLock 中的条件变量功能类似于普通 synchronized 的 wait,notify,用在当线程获得锁后,发现条件不满足时,临时等待的链表结构与 synchronized 的等待集合不同之处在于,ReentrantLock 中的条件变量可以有多个,可以实现更精细的等待、唤醒控制
static Condition c1 = LOCK.newCondition("c1");
static Condition c2 = LOCK.newCondition("c2");
当持锁线程条件不满足,不能运行接下来的代码,进入c1.await()中等待,当条件满足就会c1.singal()唤醒,从停止的地方继续开始执行。
5、volatile
线程安全要考虑的三个方面:可见性、原子性、有序性
volatile只能保证 可见性、有序性,不能保证原子性
- 原子性
一个线程内多行代码以一个整体运行,运行期间不能其它线程的代码插队
起因:多线程下,不同线程的指令发生了交错导致的共享变量的读写混乱
解决:用悲观锁或乐观锁解决,volatile 并不能解决原子性
- 可见性
一个线程对共享变量修改,其它线程能看到最新的结果
起因:由于编译器优化、或缓存优化、或 CPU 指令重排序优化,导致的对共享变量所做的修改另外的线程看不到
解决:用 volatile 修饰共享变量,能够防止编译器等优化发生,让一个线程对共享变量的修改对另一个线程可见
- 有序性
一个线程内代码按编写顺序执行
起因:由于编译器优化、或缓存优化、或 CPU 指令重排序优化导致指令的实际执行顺序与编写顺序不一致
解决:用 volatile 修饰共享变量会在读、写共享变量时加入不同的屏障,阻止其他读写操作越过屏障,从而达到阻止重排序的效果
注意:
- volatile 变量写**加的屏障是阻止上方其它写操作越过屏障排到 **volatile 变量写**之下
- volatile 变量读**加的屏障是阻止下方其它读操作越过屏障排到 **volatile 变量读**之上
- volatile 读写加入的屏障只能防止同一线程内的指令重排
6、悲观锁 vs 乐观锁
- 悲观锁的代表是 synchronized 和 Lock 锁
- 其核心思想是【线程只有占有了锁,才能去操作共享变量,每次只有一个线程占锁成功,获取锁失败的线程,都得停下来等待】
- 线程从运行到阻塞、再从阻塞到唤醒,涉及线程上下文切换,如果频繁发生,影响性能
- 实际上,线程在获取 synchronized 和 Lock 锁时,如果锁已被占用,都会做几次重试操作,减少阻塞的机会
- 乐观锁的代表是 AtomicInteger,使用 cas 来保证原子性
- 其核心思想是【无需加锁,每次只有一个线程能成功修改共享变量,其它失败的线程不需要停止,不断重试直至成功】
- 由于线程一直运行,不需要阻塞,因此不涉及线程上下文切换
- 它需要多核 cpu 支持,且线程数不应超过 cpu 核数
//AtomicInteger的底层Unsafe,对于乐观锁,修改共享变量的操作是一个原子操作
static final Unsafe U = Unsafe.getUnsafe();
//变量的偏移位置
static final long BALANCE = U.objectFieldOffset(Account.class, "balance");
static class Account {
volatile int balance = 10;
}
private static void basicCas(Account account) {
while (true) {
//修改之前的旧值
int o = account.balance;
int n = o + 5;
//比较并交换,在修改之前,其它线程完成了修改,o会与balance比较,不一致则false
if(U.compareAndSetInt(account, BALANCE, o, n)){
break;
}
}
System.out.println(account.balance);
}
7、Hashtable vs ConcurrentHashMap
Hashtable 与 ConcurrentHashMap 都是线程安全的 Map 集合
Hashtable 并发度低,整个 Hashtable 对应一把锁,同一时刻,只能有一个线程操作它,扩容为2倍
ConcurrentHashMap(7)
数据结构:`Segment(大数组) + HashEntry(小数组) + 链表`,每个 Segment 对应一把锁,如果多个线程访问不同的 Segment,则不会冲突
- 容量,扩容因子,并发度
- 默认容量是16,segment容量与clevel一致
- segment中小数组的容量:capacity/clevel,最小为2
- clevel指定就不会修改,factor影响的是小数组
- 二次hash的二进制与m(clevel的2的m次方),取前m个数(左->右)的值为下标
- 小数组桶下标,二次hash的二进制最后n位(小数组2的n次方),扩容为2倍,头插法,由于加了锁,不会有扩容死链
segment创建好后,唯独segment[0]有一个创建好的小数组,其它创建数组时初始容量与segment[0]一致
ConcurrentHashMap(8)
数据结构:`Node 数组 + 链表或红黑树`,数组的每个头节点作为锁,如果多个线程访问的头节点不同,则不会冲突。首次生成头节点时如果发生竞争,利用 cas 而非 syncronized,进一步提升性能。
假设capacity放入16个元素,扩容为2倍,16、0.75,即初始容量为32(11、0.75,容量16),满足2的次方。
锁会先加在链表头上
- 扩容时并发 get
- 根据是否为 ForwardingNode 来决定是在新数组查找还是在旧数组查找,不会阻塞
- 如果链表长度超过 1,则需要对节点进行复制(创建新节点),怕的是节点迁移后 next 指针改变
- 如果链表最后几个元素扩容后索引不变,则节点无需复制
- 扩容时并发 put
- 如果 put 的线程与扩容线程操作的链表是同一个,put 线程会阻塞
- 如果 put 的线程操作的链表还未迁移完成,即头节点不是 ForwardingNode,则可以并发执行
- 如果 put 的线程操作的链表已经迁移完成,即头结点是 ForwardingNode,则可以协助扩容
8、ThreadLocal
- ThreadLocal 线程之间可以实现【资源对象】的线程隔离,让每个线程各用各的【资源对象】,避免争用引发的线程安全问题
- ThreadLocal 线程内同时实现了线程内的资源共享
原理:
- 每个线程内有一个 ThreadLocalMap 类型的成员变量,用来存储资源对象
- 调用 set 方法,就是以 ThreadLocal 自己作为 key,资源对象作为 value,放入当前线程的 ThreadLocalMap 集合中
- 调用 get 方法,就是以 ThreadLocal 自己作为 key,到当前线程中查找关联的资源值
- 调用 remove 方法,就是以 ThreadLocal 自己作为 key,移除当前线程关联的资源值
- ThreadLocalMap 的一些特点
- key 的 hash 值统一分配,从0开始每次累加一个数字作为hash
- 初始容量 16,扩容因子 2/3,扩容容量翻倍
- key 索引冲突后用开放寻址法解决冲突
弱引用key
ThreadLocalMap 中的 key 被设计为弱引用,原因如下:
Thread 可能需要长时间运行(如线程池中的线程),如果 key 不再使用,需要在内存不足(GC)时释放其占用的内存
内存释放时机:
- 被动 GC 释放 key
仅是让 key 的内存释放,关联 value 的内存并不会释放
- 懒惰被动释放 value
- get key 时,发现是 null key,则释放其 value 内存
- set key 时,会使用启发式扫描,清除临近的 null key 的 value 内存,启发次数与元素个数(越打越多),是否发现 null key 有关(发现就多)
- 主动 remove 释放 key,value
- 会同时释放 key,value 的内存,也会清除临近的 null key 的 value 内存
- 推荐使用它,因为一般使用 ThreadLocal 时都把它作为静态变量(即强引用),因此无法被动依靠 GC 回收