Java基础(进程线程,多线程,乐观锁,悲观锁,synchronized,各种常用的锁,AQS,ThreadLocal,线程池,Future类)

目录

1. 线程和进程

1.1 什么是线程和进程

1.2 Java线程和操作系统线程的区别

1.3 线程和进程的区别

1.4 线程的生命周期和状态

 1.4.1 线程的运行流程

1.5 Thread.sleep()方法和Object.wait()方法的对比

1.6 可以直接调用Thread的run方法吗

2. 多线程

2.1 并发和并行

2.2 为什么需要多线程

2.3 多线程可能带来的问题

2.4 线程安全与线程不安全

2.5 单核CPU上运行多个线程效率一定会高吗?

3. volatile关键字

3.1 可见性

3.2 禁止指令重排序

3.3 volatile无法保证原子性

4. 乐观锁和悲观锁

4.1 乐观锁和悲观锁的定义

4.2 乐观锁和悲观锁的对比

4.3 乐观锁的实现

4.4 CAS的问题

4.4.1 ABA问题

4.4.2 循环时间开销大

4.4.3 只能保证一个共享变量的原子操作

5. synchronized关键字

5.1 synchronized概述

5.2 synchronized的用法

5.3 构造方法与synchronized

5.4 synchronized的底层原理

5.4.1 当synchronized修饰代码块时

5.4.2 synchronized修饰方法时

5.4.3 总结

5.5 锁升级

5.6 synchronized和volatile的区别

6. 各种锁

6.1 ReentrantLock

6.1.1 ReentrantLock概述

6.1.2 公平锁和非公平锁的区别

6.1.3 ReentrantLock和synchronized的区别

6.1.4 可中断锁和不可中断锁

6.2 ReentrantReadWriteLock(用的不多)

6.2.1 ReentrantReadWriteLock概述

6.2.2 独占锁和共享锁的区别

6.2.3 线程持有读锁还能获取写锁吗

6.2.4 读锁为什么不能升级为写锁

6.3 StampedLock(不常用)

6.3.1 StampedLock概述

6.3.2 StampedLock的性能为什么好

6.3.3 适用场景

6.3.4 StampedLock的底层原理

7. AQS

7.1 AQS概述

7.2 AQS原理

7.2.1 核心思想

7.2.2 源码一窥

7.2.3 AQS独占锁的具体工作流程

7.2.4 AQS资源共享方式

7.2.5 自定义同步器

7.3 常见同步工具类

7.3.1 Semaphore(信号量)

7.3.1.1 Semaphore概述

7.3.1.2 Semaphore原理

7.3.1.3 Semaphore实践

7.3.2 CountDownLatch(倒计时器)

7.3.2.1 CountDownLatch概述

7.3.2.2 CountDownLatch原理

7.3.2.3  CountDownLatch 的两种典型用法

7.3.2.4 CountDownLatch 案例

7.3.3 CyclicBarrier(循环栅栏)

7.3.3.1 CyclicBarrier概述

7.3.3.2 原理

7.3.3.3 实例

8. ThreadLocal

8.1 ThreadLocal概述

8.2 ThreadLocal实例

8.3 ThreadLocal原理

8.4 ThreadLocal内存泄漏问题

9. 线程池

9.1 线程池概述

9.2 为什么要使用线程池

9.3 线程池的创建

9.4 为什么不推荐使用内置线程池(Executors)

9.5 线程池的常见参数

 9.6 线程池的拒绝策略

9.7 CallerRunPolicy的风险怎么解决

9.8 线程池常用的阻塞队列

9.9 线程池处理任务的流程

9.10 线程池线程异常后的处理

9.11 线程池的大小设置

9.12 动态修改线程池的参数

9.13 设计一个能够根据任务的优先级来执行的线程池

10. Future类

10.1 Future类概述

10.2 Future和Callable的关系

10.3 CompletableFuture类的作用


1. 线程和进程

1.1 什么是线程和进程

  • 进程是程序的一次执行过程,是系统运行程序的基本单位,因此进程是动态的。系统运行一个程序即是一个进程从创建,运行到消亡的过程。在 Java 中,当我们启动 main 函数时其实就是启动了一个 JVM 的进程,而 main 函数所在的线程就是这个进程中的一个线程,也称主线程
  • 线程与进程相似,但线程是一个比进程更小的执行单位一个进程在其执行的过程中可以产生多个线程。与进程不同的是同类的多个线程共享进程的方法区资源,但每个线程有自己的程序计数器虚拟机栈本地方法栈,所以系统在产生一个线程,或是在各个线程之间做切换工作时,负担要比进程小得多,也正因为如此,线程也被称为轻量级进程。

注:一个 Java 程序的运行是 main 线程和多个其他线程同时运行的一个进程

1.2 Java线程和操作系统线程的区别

        JDK 1.2 之前,Java 线程是基于绿色线程(Green Threads)实现的,这是一种用户级线程(用户线程),也就是说 JVM 自己模拟了多线程的运行,而不依赖于操作系统。由于绿色线程和原生线程比起来在使用时有一些限制(比如绿色线程不能直接使用操作系统提供的功能如异步 I/O只能在一个内核线程上运行无法利用多核),在 JDK 1.2 及以后,Java 线程改为基于原生线程(Native Threads)实现,也就是说 JVM 直接使用操作系统原生的内核级线程(内核线程)来实现 Java 线程,由操作系统内核进行线程的调度和管理。现在的 Java 线程的本质其实就是操作系统的线程

注:Java程序是运行在用户态的(因为JVM是用户空间进程),Java线程只是映射到了内核线程,而不是真正的内核线程。

:用户线程和内核线程的区别

  • 用户线程:由用户空间程序管理和调度的线程,运行在用户空间(专门给应用程序使用),用户线程创建和切换成本低,但不可以利用多核
  • 内核线程:由操作系统内核管理和调度的线程,运行在内核空间(只有内核程序可以访问),创建和切换成本高可以利用多核

        在 Windows 和 Linux 等主流操作系统中,Java 线程采用的是一对一的线程模型,也就是一个 Java 线程对应一个系统内核线程。Solaris 系统是一个特例(Solaris 系统本身就支持多对多的线程模型),HotSpot VM 在 Solaris 上支持多对多和一对一。

1.3 线程和进程的区别

        线程是进程划分成的更小的运行单位。线程和进程最大的不同在于基本上各进程是独立的,而各线程则不一定,因为同一进程中的线程极有可能会相互影响线程执行开销小,但不利于资源的管理和保护;而进程正相反

注:Java中为什么堆,方法区是线程共享,虚拟机栈,本地方法栈,程序计数器是线程私有?

  1. 程序计数器私有主要是为了线程切换后能恢复到正确的执行位置
  2. 为了保证线程中的局部变量(方法)不被别的线程访问到,虚拟机栈和本地方法栈是线程私有的
  3. 堆和方法区中存储的是对象和类的信息,因此需要对所有线程开放。

1.4 线程的生命周期和状态

  • NEW: 初始状态,线程被创建出来但没有被调用 start()
  • RUNNABLE: 运行状态,线程被调用了 start()等待运行的状态。
  • BLOCKED:阻塞状态,需要等待锁释放
  • WAITING:等待状态,表示该线程需要等待其他线程做出一些特定动作(通知或中断)。
  • TIME_WAITING:超时等待状态,可以在指定的时间后自行返回而不是像 WAITING 那样一直等待。
  • TERMINATED:终止状态,表示该线程已经运行完毕

注:Java 就只有一种方式可以创建线程,那就是通过new Thread().start()创建。

 1.4.1 线程的运行流程

  1. 线程创建之后它将处于 NEW(新建) 状态,调用 start() 方法后开始运行,线程这时候处于 READY(可运行) 状态。可运行状态的线程获得了 CPU 时间片(timeslice)后就处于 RUNNING(运行) 状态。
  2. 当线程执行 wait()方法之后,线程进入 WAITING(等待) 状态。进入等待状态的线程需要依靠其他线程通知才能够返回到运行状态
  3. TIMED_WAITING(超时等待) 状态相当于在等待状态的基础上增加了超时限制,比如通过 sleep(long millis)方法或 wait(long millis)方法可以将线程置于 TIMED_WAITING 状态。当超时时间结束后,线程将会返回到 RUNNABLE 状态。
  4. 当线程进入 synchronized 方法/块或者调用 wait 后(被 notify)重新进入 synchronized 方法/块,但是锁被其它线程占有,这个时候线程就会进入 BLOCKED(阻塞) 状态。
  5. 线程在执行完了 run()方法之后将会进入到 TERMINATED(终止) 状态。

注: JVM 没有区分这两种状态,只能看到 RUNNABLE 状态。在现在时分多任务操作系统架构通常都是用所谓的“时间分片”方式进行抢占式轮转调度。这个时间分片通常是很小的,大概只有 0.01 秒这一量级,时间片用后就要被切换下来放入调度队列的末尾等待再次调度。线程切换的如此之快,区分这两种状态就没什么意义了。

1.5 Thread.sleep()方法和Object.wait()方法的对比

  • sleep() 方法没有释放锁,而 wait() 方法释放了锁
  • wait() 通常被用于线程间交互/通信sleep()通常被用于暂停执行
  • wait() 方法被调用后,线程不会自动苏醒,需要别的线程调用同一个对象上的 notify()或者 notifyAll() 方法。sleep()方法执行完成后,线程会自动苏醒,或者也可以使用 wait(long timeout) 超时后线程会自动苏醒。
  • sleep()Thread 类的静态本地方法wait() 则是 Object 类的本地方法

注:为什么wait()定义在Object,而sleep()定义在Thread?

  • wait() 是让获得对象锁的线程实现等待,会自动释放当前线程占有的对象锁。每个对象(Object)都拥有对象锁,既然要释放当前线程占有的对象锁并让其进入 WAITING 状态,自然是要操作对应的对象(Object)而非当前的线程(Thread)。
  • sleep() 是让当前线程暂停执行不涉及到对象类,也不需要获得对象锁

1.6 可以直接调用Thread的run方法吗

        new 一个 Thread,线程进入了新建状态。调用 start()方法,会启动一个线程并使线程进入了就绪状态,当分配到时间片后就可以开始运行了。 start() 会执行线程的相应准备工作,然后自动执行 run() 方法的内容,这是真正的多线程工作。 但是,直接执行 run() 方法,会把 run() 方法当成一个 main 线程下的普通方法去执行并不会在某个线程中执行它,所以这并不是多线程工作。调用 start() 方法方可启动线程并使线程进入就绪状态,直接执行 run() 方法的话不会以多线程的方式执行。

2. 多线程

2.1 并发和并行

  • 并发:两个及两个以上的作业在同一 时间段 内执行。
  • 并行:两个及两个以上的作业在同一 时刻 执行。

2.2 为什么需要多线程

  • 从计算机底层来说: 线程可以比作是轻量级的进程,是程序执行的最小单位,线程间的切换和调度的成本远远小于进程。另外,多核 CPU 时代意味着多个线程可以同时运行,这减少了线程上下文切换的开销。(并行)
  • 从当代互联网发展趋势来说: 现在的系统动不动就要求百万级甚至千万级的并发量,而多线程并发编程正是开发高并发系统的基础,利用好多线程机制可以大大提高系统整体的并发能力以及性能。

2.3 多线程可能带来的问题

        并发编程的目的就是为了能提高程序的执行效率进而提高程序的运行速度,但是并发编程并不总是能提高程序运行速度的,而且并发编程可能会遇到很多问题,比如:内存泄漏、死锁、线程不安全等等。

2.4 线程安全与线程不安全

  • 线程安全指的是在多线程环境下,对于同一份数据,不管有多少个线程同时访问,都能保证这份数据的正确性和一致性
  • 线程不安全则表示在多线程环境下,对于同一份数据,多个线程同时访问时可能会导致数据混乱、错误或者丢失

2.5 单核CPU上运行多个线程效率一定会高吗?

        单核 CPU 同时运行多个线程的效率是否会高,取决于线程的类型和任务的性质。一般来说,有两种类型的线程:CPU 密集型和 IO 密集型。CPU 密集型的线程主要进行计算和逻辑处理,需要占用大量的 CPU 资源。IO 密集型的线程主要进行输入输出操作,如读写文件、网络通信等,需要等待 IO 设备的响应,而不占用太多的 CPU 资源。

        在单核 CPU 上,同一时刻只能有一个线程在运行,其他线程需要等待 CPU 的时间片分配。如果线程是 CPU 密集型的,那么多个线程同时运行会导致频繁的线程切换增加了系统的开销,降低了效率。如果线程是 IO 密集型的,那么多个线程同时运行可以利用 CPU 在等待 IO 时的空闲时间,提高了效率。

        因此,对于单核 CPU 来说,如果任务是 CPU 密集型的,那么开很多线程会降低效率;如果任务是 IO 密集型的,那么开很多线程会提高效率。当然,这里的“很多”也要适度,不能超过系统能够承受的上限。

3. volatile关键字

3.1 可见性

        在多线程环境中,每个线程都有自己的工作内存(也称为线程栈),并且线程之间不能直接访问彼此的工作内存线程间通信通过主内存(共享内存)来完成的。当线程需要读取一个变量时,它会先从主内存读取这个变量的值到自己的工作内存,然后再进行后续操作;当线程需要修改一个变量的值时,它会先在自己的工作内存中修改这个变量的值,然后再将这个值写回到主内存中。

        由于这种线程间通信的方式,就可能导致一个线程修改了某个变量的值,但这个修改对于其他线程来说是不可见的,因为它们的工作内存中存储的仍然是旧的值。   在 Java 中,volatile 关键字可以保证变量的可见性。 volatile 关键字的作用就是确保修改的值会立即被更新到主内存,当有其他线程需要读取时,它会去主内存中读取新值。这就是 volatile 的可见性。

注:volatile 关键字能保证数据的可见性,但不能保证数据的原子性synchronized 关键字两者都能保证。

3.2 禁止指令重排序

        在 Java 中,volatile 关键字除了可以保证变量的可见性,还有一个重要的作用就是防止 JVM 的指令重排序。 如果我们将变量声明为 volatile ,在对这个变量进行读写操作的时候,会通过插入特定的 内存屏障 的方式来禁止指令重排序。

注:内存屏障也称为内存栅栏、内存栅障或屏障指令,是一类同步屏障指令,用于确保在CPU或编译器对内存进行随机访问时,此点之前的所有读写操作都执行完毕后,才开始执行此点之后的操作。其能确保内存操作的顺序性和可见性防止编译器和硬件的不正确优化导致的存储器访问顺序与书写程序时的访问顺序不一致。其作用是:

  1. 阻止屏障两侧的指令重排序:确保屏障之前的所有写操作都写入内存,屏障之后的读操作都能获得屏障之前的写操作的结果。
  2. 强制数据同步:强制把写缓冲区/高速缓存中的脏数据等写回主内存,让缓存中相应的数据失效,从而保持数据的一致性。

案例:双重检验锁方式实现单例模式

public class Singleton {
    // 使用volatile关键字保证instance在多线程之间的可见性
    private volatile static Singleton uniqueInstance;

    // 私有构造函数,防止外部实例化  
    private Singleton() {
    }

    // 双重校验锁实现单例
    public  static Singleton getUniqueInstance() {
       //先判断对象是否已经实例过,没有实例化过才进入加锁代码
        if (uniqueInstance == null) {    // 第一次检查
            //类对象加锁
            synchronized (Singleton.class) {     // 同步块,线程安全地创建实例
                if (uniqueInstance == null) {    // 第二次检查,判断是否有另一个线程在第一次校验和进入同步块之间已经初始化了instance
                    uniqueInstance = new Singleton();    // 延迟初始化
                }
            }
        }
        return uniqueInstance;
    }
}

  uniqueInstance 采用 volatile 关键字修饰也是很有必要的, uniqueInstance = new Singleton(); 这段代码其实是分为三步执行:

  1. uniqueInstance 分配内存空间
  2. 初始化 uniqueInstance
  3. uniqueInstance 指向分配的内存地址

        但是由于 JVM 具有指令重排的特性,执行顺序有可能变成 1->3->2。指令重排在单线程环境下不会出现问题,但是在多线程环境下会导致一个线程获得还没有初始化的实例。例如,线程 T1 执行了 1 和 3,此时 T2 调用 getUniqueInstance() 后发现 uniqueInstance 不为空,因此返回 uniqueInstance,但此时 uniqueInstance 还未被初始化。

注:尽管双重校验锁可以减少同步的开销,但在大多数现代JVM实现中,静态内部类实现单例模式通常被认为是一种更简洁、更优雅且同样高效的方法。

public class Singleton {  
    // 静态内部类实现单例  
    private static class SingletonHolder {  
        private static final Singleton INSTANCE = new Singleton();  
    }  
  
    // 私有构造函数,防止外部实例化  
    private Singleton() {}  
  
    // 获取单例实例  
    public static Singleton getInstance() {  
        return SingletonHolder.INSTANCE;  
    }  
}

        静态内部类实现单例模式利用了Java的类加载机制确保INSTANCE只会被初始化一次(首次访问getInstance()这个静态方法时,外部类静态类都开始初始化,JVM会确保只有一个线程能够执行类的初始化操作,即静态内部类的加载和初始化,并且由于INSTANCE静态的,它在静态内部类加载时就会被初始化,因此是线程安全的。这种方法既简洁又高效,因此在许多情况下是首选的单例实现方式。 

3.3 volatile无法保证原子性

volatile 关键字能保证变量的可见性,但不能保证对变量的操作是原子性的。

案例:

public class VolatileAtomicityDemo {
    public volatile static int inc = 0;

    public void increase() {
        inc++;
    }

    public static void main(String[] args) throws InterruptedException {
        ExecutorService threadPool = Executors.newFixedThreadPool(5);
        VolatileAtomicityDemo volatileAtomicityDemo = new VolatileAtomicityDemo();
        for (int i = 0; i < 5; i++) {
            threadPool.execute(() -> {
                for (int j = 0; j < 500; j++) {
                    volatileAtomicityDemo.increase();
                }
            });
        }
        // 等待1.5秒,保证上面程序执行完成
        Thread.sleep(1500);
        System.out.println(inc);
        threadPool.shutdown();
    }
}

        正常情况下,运行上面的代码理应输出 2500。但你真正运行了上面的代码之后,你会发现每次输出结果都小于 2500。也就是说,如果 volatile 能保证 inc++ 操作的原子性的话。每个线程中对 inc 变量自增完之后,其他线程可以立即看到修改后的值。5 个线程分别进行了 500 次操作,那么最终 inc 的值应该是 5*500=2500。

原因:误以为自增操作 inc++ 是原子性的,实际上,inc++ 其实是一个复合操作,包括三步:

  1. 读取 inc 的值。
  2. 对 inc 加 1。
  3. 将 inc 的值写回内存。

volatile 是无法保证这三个操作是具有原子性的,有可能导致下面这种情况出现:

  1. 线程 1 对 inc 进行读取操作之后,还未对其进行修改。线程 2 又读取了 inc的值并对其进行修改(+1),再将inc 的值写回内存。
  2. 线程 2 操作完毕后,线程 1 对 inc的值进行修改(+1),再将inc 的值写回内存。

        这也就导致两个线程分别对 inc 进行了一次自增操作后,inc 实际上只增加了 1。可以有下面三种方法进行改进:

// 使用 synchronized 改进
public synchronized void increase() {
    inc++;
}

// 使用 AtomicInteger 改进
public AtomicInteger inc = new AtomicInteger();

public void increase() {
    inc.getAndIncrement();
}

// 使用 ReentrantLock 改进
Lock lock = new ReentrantLock();
public void increase() {
    lock.lock();
    try {
        inc++;
    } finally {
        lock.unlock();
    }
}

4. 乐观锁和悲观锁

4.1 乐观锁和悲观锁的定义

  • 悲观锁总是假设最坏的情况,认为共享资源每次被访问的时候就会出现问题(比如共享数据被修改),所以每次在获取资源操作的时候都会上锁,这样其他线程想拿到这个资源就会阻塞直到锁被上一个持有者释放。也就是说,共享资源每次只给一个线程使用,其它线程阻塞,用完后再把资源转让给其它线程。(如synchronizedReentrantLock
  • 乐观锁总是假设最好的情况,认为共享资源每次被访问的时候不会出现问题,线程可以不停地执行,无需加锁也无需等待,只是在提交修改的时候去验证对应的资源(也就是数据)是否被其它线程修改了(具体方法可以使用版本号机制或 CAS 算法)。在 Java 中java.util.concurrent.atomic包下面的原子变量类(比如AtomicIntegerLongAdder)就是使用了乐观锁的一种实现方式 CAS 实现的。

4.2 乐观锁和悲观锁的对比

  • 高并发的场景下,激烈的锁竞争会造成线程阻塞,大量阻塞线程会导致系统的上下文切换,增加系统的性能开销。并且,悲观锁还可能会存在死锁问题,影响代码的正常运行。
  • 同样在高并发的场景下,乐观锁相比悲观锁来说,不存在锁竞争造成线程阻塞,也不会有死锁的问题,在性能上往往会更胜一筹。但是,如果冲突频繁发生(写占比非常多的情况),会频繁失败和重试,这样同样会非常影响性能,导致 CPU 飙升。大量失败重试的问题也是可以解决的,LongAdder以空间换时间的方式就解决了这个问题。

总结:

  • 悲观锁通常多用于写比较多的情况(多写场景,竞争激烈),这样可以避免频繁失败和重试影响性能,悲观锁的开销是固定的。不过,如果乐观锁解决了频繁失败和重试这个问题的话(比如LongAdder),也是可以考虑使用乐观锁的,要视实际情况而定。
  • 乐观锁通常多用于写比较少的情况(多读场景,竞争较少),这样可以避免频繁加锁影响性能。不过,乐观锁主要针对的对象是单个共享变量(参考java.util.concurrent.atomic包下面的原子变量类)。

4.3 乐观锁的实现

乐观锁一般会使用版本号机制CAS 算法实现,CAS 算法相对来说更多一些。

  • 版本号机制 一般是在数据表中加上一个数据版本号 version 字段,表示数据被修改的次数。当数据被修改时,version 值会加一。当线程 A 要更新数据值时,在读取数据的同时也会读取 version,在提交更新时,若刚才读取到的 version 值为当前数据库中的 version 值相等才更新,否则重试更新操作,直到更新成功。
  • CAS算法 CAS 的思想很简单,就是用一个预期值要更新的变量值进行比较两值相等才会进行更新CAS 是一个原子操作,底层依赖于一条 CPU 的原子指令。

CAS 涉及到三个操作数:

  • V:要更新的变量值(Var)
  • E:预期值(Expected)
  • N:拟写入的新值(New)

        当且仅当 V 的值等于 E(CAS操作之前获取) 时,CAS 通过原子方式用新值 N 来更新 V 的值。如果不等,说明已经有其它线程更新了 V,则当前线程放弃更新。

        当多个线程同时使用 CAS 操作一个变量时,只有一个会胜出,并成功更新,其余均会失败,但失败的线程并不会被挂起,仅是被告知失败,并且允许再次尝试,当然也允许失败的线程放弃操作。

注:Java 语言并没有直接实现 CAS,CAS 相关的实现是通过 C++ 内联汇编的形式实现的(JNI 调用)。因此, CAS 的具体实现和操作系统以及 CPU 都有关系。

4.4 CAS的问题

4.4.1 ABA问题

        如果一个变量 V 初次读取的时候是 A 值,并且在准备赋值的时候检查到它仍然是 A 值,那我们就能说明它的值没有被其他线程修改过了吗?很明显是不能的,因为在这段时间它的值可能被改为其他值,然后又改回 A,那 CAS 操作就会误认为它从来没有被修改过。这个问题被称为 CAS 操作的 "ABA"问题。

        ABA 问题的解决思路是在变量前面追加上版本号或者时间戳。JDK 1.5 以后的 AtomicStampedReference 类就是用来解决 ABA 问题的,其中的 compareAndSet() 方法就是首先检查当前引用是否等于预期引用,并且当前标志是否等于预期标志,如果全部相等,则以原子方式将该引用和该标志的值设置为给定的更新值

4.4.2 循环时间开销大

        CAS 经常会用到自旋操作来进行重试,也就是不成功就一直循环执行直到成功。如果长时间不成功,会给 CPU 带来非常大的执行开销。

如果 JVM 能支持处理器提供的 pause 指令那么效率会有一定的提升,pause 指令有两个作用:

  1. 可以延迟流水线执行指令,使 CPU 不会消耗过多的执行资源,延迟的时间取决于具体实现的版本,在一些处理器上延迟时间是零。
  2. 可以避免在退出循环的时候因内存顺序冲突而引起 CPU 流水线被清空,从而提高 CPU 的执行效率。

4.4.3 只能保证一个共享变量的原子操作

        CAS 只对单个共享变量有效,当操作涉及跨多个共享变量时 CAS 无效。但是从 JDK 1.5 开始,提供了AtomicReference类来保证引用对象之间的原子性,你可以把多个变量放在一个对象里来进行 CAS 操作。所以我们可以使用或者利用AtomicReference类把多个共享变量合并成一个共享变量来操作。

5. synchronized关键字

5.1 synchronized概述

   synchronized 是 Java 中的一个关键字,翻译成中文是同步的意思,主要解决的是多个线程之间访问资源的同步性,可以保证被它修饰的方法或者代码块任意时刻只能有一个线程执行

        在 Java 早期版本中,synchronized 属于 重量级锁,效率低下。这是因为监视器锁(monitor)是依赖于底层的操作系统的 Mutex Lock 来实现的,Java 的线程映射到操作系统的原生线程之上的。如果要挂起或者唤醒一个线程,都需要操作系统帮忙完成,而操作系统实现线程之间的切换需要从用户态转换到内核态,这个状态之间的转换需要相对比较长的时间,时间成本相对较高

        不过,在 Java 6 之后, synchronized 引入了大量的优化如自旋锁、适应性自旋锁、锁消除、锁粗化、偏向锁、轻量级锁等技术来减少锁操作的开销,这些优化让 synchronized 锁的效率提升了很多。因此, synchronized 还是可以在实际项目中使用的

5.2 synchronized的用法

  • 修饰实例方法(锁作用于对象)
// 给当前对象实例加锁,进入同步代码前要获得 当前对象实例的锁
synchronized void method() {
    //业务代码
}
  • 修饰静态方法(锁作用于这个类)
// 给当前类加锁,会作用于类的所有对象实例 ,进入同步代码前要获得 当前 class 的锁。
synchronized static void method() {
    //业务代码
}
  • 修饰代码块(锁作用于对象/类)
// 对括号里指定的类加锁
synchronized(类.class) {
    //业务代码
}

// 对括号里指定的对象加锁
synchronized(object) {
    //业务代码
}

注:尽量不要使用 synchronized(String a) 因为 JVM 中,字符串常量池具有缓存功能

5.3 构造方法与synchronized

        构造方法不能使用 synchronized 关键字修饰。不过,可以在构造方法内部使用 synchronized 代码块。

        另外,构造方法本身是线程安全的,但如果在构造方法中涉及到共享资源的操作,就需要采取适当的同步措施来保证整个构造过程的线程安全。

5.4 synchronized的底层原理

        synchronized 关键字底层原理属于 JVM 层面的东西。

5.4.1 当synchronized修饰代码块时

public class SynchronizedDemo {
    public void method() {
        synchronized (this) {
            System.out.println("synchronized 代码块");
        }
    }
}

这段代码的字节码如下:

  synchronized 同步语句块的实现使用的是 monitorentermonitorexit 指令,其中 monitorenter 指令指向同步代码块的开始位置,monitorexit 指令则指明同步代码块的结束位置。上面的字节码中包含一个 monitorenter 指令以及两个 monitorexit 指令,这是为了保证锁在同步代码块代码正常执行以及出现异常的这两种情况下都能被正确释放

流程:

  1. 当执行 monitorenter 指令时,线程试图获取锁也就是获取 对象监视器 monitor 的持有权。
  2. 在执行monitorenter时,会尝试获取对象的锁,如果锁的计数器为 0 则表示锁可以被获取获取后将锁计数器设为 1 也就是加 1。
  3. 对象锁的的拥有者线程才可以执行 monitorexit 指令来释放锁。在执行 monitorexit 指令后,将锁计数器设为 0,表明锁被释放,其他线程可以尝试获取锁。
  4. 如果获取对象锁失败,那当前线程就要阻塞等待,直到锁被另外一个线程释放为止。

注:

  • 在 Java 虚拟机(HotSpot)中,Monitor 是基于 C++实现的,由ObjectMonitor实现的。每个对象中都内置了一个 ObjectMonitor对象。
  • 另外,wait/notify等方法也依赖于monitor对象,这就是为什么只有在同步的块或者方法中才能调用wait/notify等方法,否则会抛出java.lang.IllegalMonitorStateException的异常的原因

5.4.2 synchronized修饰方法时

public class SynchronizedDemo2 {
    public synchronized void method() {
        System.out.println("synchronized 方法");
    }
}

   synchronized 修饰的方法并没有 monitorenter 指令和 monitorexit 指令,取得代之的确实是 ACC_SYNCHRONIZED 标识,该标识指明了该方法是一个同步方法。JVM 通过该 ACC_SYNCHRONIZED 访问标志来辨别一个方法是否声明为同步方法,从而执行相应的同步调用

        如果是实例方法,JVM 会尝试获取实例对象的锁。如果是静态方法,JVM 会尝试获取当前 class 的锁

5.4.3 总结

  synchronized 同步语句块的实现使用的是 monitorentermonitorexit 指令,其中 monitorenter 指令指向同步代码块的开始位置,monitorexit 指令则指明同步代码块的结束位置。

  synchronized 修饰的方法并没有 monitorenter 指令和 monitorexit 指令,取得代之的确实是 ACC_SYNCHRONIZED 标识,该标识指明了该方法是一个同步方法。

        不过两者的本质都是对对象监视器 monitor 的获取

5.5 锁升级

        在 Java 6 之后,synchronized 引入了大量的优化如自旋锁、适应性自旋锁、锁消除、锁粗化、偏向锁、轻量级锁等技术来减少锁操作的开销,这些优化让 synchronized 锁的效率提升了很多。

        锁主要存在四种状态,依次是:无锁状态、偏向锁状态、轻量级锁状态、重量级锁状态,他们会随着竞争的激烈而逐渐升级。注意锁可以升级不可降级,这种策略是为了提高获得锁和释放锁的效率。

5.6 synchronized和volatile的区别

synchronized 关键字和 volatile 关键字是两个互补的存在,而不是对立的存在!

  • volatile 关键字是线程同步的轻量级实现,所以 volatile性能肯定比synchronized关键字要好 。但是 volatile 关键字只能用于变量而 synchronized 关键字可以修饰方法以及代码块。
  • volatile 关键字能保证数据的可见性,但不能保证数据的原子性synchronized 关键字两者都能保证。
  • volatile关键字主要用于解决变量在多个线程之间的可见性,而 synchronized 关键字解决的是多个线程之间访问资源的同步性

6. 各种锁

6.1 ReentrantLock

6.1.1 ReentrantLock概述

   ReentrantLock 实现了 Lock 接口,是一个可重入且独占式的锁,和 synchronized 关键字类似。不过,ReentrantLock 更灵活、更强大,增加了轮询、超时、中断、公平锁和非公平锁等高级功能。

        ReentrantLock 里面有一个内部类 SyncSync 继承 AQS(AbstractQueuedSynchronizer),添加锁和释放锁的大部分操作实际上都是在 Sync 中实现的。Sync 有公平锁 FairSync 和非公平锁 NonfairSync 两个子类。

 注:ReentrantLock 默认使用非公平锁,也可以通过构造器来显式的指定使用公平锁。ReentrantLock 的底层就是由 AQS 来实现的。

6.1.2 公平锁和非公平锁的区别

  • 公平锁 : 锁被释放之后,先申请的线程先得到锁。性能较差一些,因为公平锁为了保证时间上的绝对顺序,上下文切换更频繁。
  • 非公平锁:锁被释放之后,后申请的线程可能会先获取到锁,是随机或者按照其他优先级排序的。性能更好,但可能会导致某些线程永远无法获取到锁。

6.1.3 ReentrantLock和synchronized的区别

  1. 两者都是可重入锁。 可重入锁 也叫递归锁,指的是线程可以再次获取自己的内部锁。比如一个线程获得了某个对象的锁,此时这个对象锁还没有释放,当其再次想要获取这个对象的锁的时候还是可以获取的,如果是不可重入锁的话,就会造成死锁。
  2. synchronized依赖于JVM,ReentrantLock依赖于API。 synchronized 是依赖于 JVM 实现的,虚拟机团队在 JDK1.6 为 synchronized 关键字进行了很多优化,但是这些优化都是在虚拟机层面实现的,并没有直接暴露给我们。ReentrantLock 是 JDK 层面实现的(也就是 API 层面,需要 lock() 和 unlock() 方法配合 try/finally 语句块来完成),其源码可见

  3. ReentrantLocksynchronized拥有一些高级功能。 主要来说有三点:等待可中断(线程可以选择放弃等待),可实现公平锁(先等待的线程先获得锁),可实现选择性通知(锁可以绑定多个条件,只通知部分线程)。

注:Condition是 JDK1.5 之后才有的,它具有很好的灵活性,比如可以实现多路通知功能也就是在一个Lock对象中可以创建多个Condition实例(即对象监视器),线程对象可以注册在指定的Condition中,从而可以有选择性的进行线程通知,在调度线程上更加灵活。 在使用notify()/notifyAll()方法进行通知时,被通知的线程是由 JVM 选择的,用ReentrantLock类结合Condition实例可以实现“选择性通知” ,这个功能非常重要,而且是 Condition 接口默认提供的。而synchronized关键字就相当于整个 Lock 对象中只有一个Condition实例,所有的线程都注册在它一个身上。如果执行notifyAll()方法的话就会通知所有处于等待状态的线程,这样会造成很大的效率问题。而Condition实例的signalAll()方法,只会唤醒注册在该Condition实例中的所有等待线程(部分线程)。

6.1.4 可中断锁和不可中断锁

  • 可中断锁:获取锁的过程中可以被中断,不需要一直等到获取锁之后 才能进行其他逻辑处理。ReentrantLock 就属于是可中断锁。
  • 不可中断锁:一旦线程申请了锁,就只能等到拿到锁以后才能进行其他的逻辑处理。 synchronized 就属于是不可中断锁。

6.2 ReentrantReadWriteLock(用的不多)

6.2.1 ReentrantReadWriteLock概述

   ReentrantReadWriteLock 实现了 ReadWriteLock ,是一个可重入的读写锁,既可以保证多个线程同时读的效率,同时又可以保证有写入操作时的线程安全

   ReentrantReadWriteLock 其实是两把锁,一把是 WriteLock (写锁),一把是 ReadLock读锁) 。读锁是共享锁,写锁是独占锁。读锁可以被同时读,可以同时被多个线程持有,而写锁最多只能同时被一个线程持有。

  • 一般锁进行并发控制的规则:读读互斥、读写互斥、写写互斥。(全都互斥
  • 读写锁进行并发控制的规则:读读不互斥、读写互斥、写写互斥。(只有读读不互斥)。

 注:

  1. 和 ReentrantLock 一样,ReentrantReadWriteLock 底层也是基于 AQS 实现的。
  2. ReentrantReadWriteLock 也支持公平锁和非公平锁,默认使用非公平锁。
  3. 由于 ReentrantReadWriteLock 既可以保证多个线程同时读的效率,同时又可以保证有写入操作时的线程安全。因此,在读多写少的情况下,使用 ReentrantReadWriteLock 能够明显提升系统性能

6.2.2 独占锁和共享锁的区别

  • 共享锁:一把锁可以被多个线程同时获得。
  • 独占锁:一把锁只能被一个线程获得。

6.2.3 线程持有读锁还能获取写锁吗

  • 在线程持有读锁的情况下,该线程不能取得写锁(因为获取写锁的时候,如果发现当前的读锁被占用,就马上获取失败,不管读锁是不是被当前线程持有)。
  • 在线程持有写锁的情况下,该线程可以继续获取读锁(获取读锁时如果发现写锁被占用,只有写锁没有被当前线程占用的情况才会获取失败)。

6.2.4 读锁为什么不能升级为写锁

        写锁可以降级为读锁,但是读锁不能升级为写锁。这是因为读锁升级为写锁会引起线程的争夺,毕竟写锁属于是独占锁,这样的话,会影响性能。另外,还可能会有死锁问题发生。举个例子:假设两个线程的读锁都想升级写锁,则需要对方都释放自己锁,而双方都不释放,就会产生死锁。

6.3 StampedLock(不常用)

6.3.1 StampedLock概述

   StampedLock 是 JDK 1.8 引入的性能更好的读写锁不可重入且不支持条件变量 Condition

        不同于一般的 Lock 类,StampedLock 并不是直接实现 LockReadWriteLock接口,而是基于 CLH 锁 独立实现的(AQS 也是基于这玩意)。

StampedLock 提供了三种模式的读写控制模式:读锁、写锁和乐观读。

  • 写锁独占锁,一把锁只能被一个线程获得。当一个线程获取写锁后,其他请求读锁和写锁的线程必须等待。类似于 ReentrantReadWriteLock 的写锁,不过这里的写锁是不可重入的。
  • 读锁 (悲观读):共享锁,没有线程获取写锁的情况下,多个线程可以同时持有读锁。如果己经有线程持有写锁,则其他线程请求获取该读锁会被阻塞。类似于 ReentrantReadWriteLock 的读锁,不过这里的读锁是不可重入的。
  • 乐观读:允许多个线程获取乐观读以及读锁。同时允许一个写线程获取写锁。(ReentrantReadWriteLock在获得读锁后,就不能获取写锁

StampedLock还支持这三种锁在一定条件下进行互相转换。

long tryConvertToWriteLock(long stamp){}
long tryConvertToReadLock(long stamp){}
long tryConvertToOptimisticRead(long stamp){}

   StampedLock 在获取锁的时候会返回一个 long 型的数据戳,该数据戳用于稍后的锁释放参数,如果返回的数据戳为 0 则表示锁获取失败。当前线程持有了锁再次获取锁还是会返回一个新的数据戳,这也是StampedLock不可重入的原因。

6.3.2 StampedLock的性能为什么好

        相比于传统读写锁多出来的乐观读StampedLockReadWriteLock 性能更好的关键原因StampedLock乐观读允许一个写线程获取写锁,所以不会导致所有写线程阻塞,也就是当读多写少的时候,写线程有机会获取写锁,减少了线程饥饿的问题,吞吐量大大提高。

        在这种模式下,线程尝试读取数据时不会立即获取锁,而是先获取一个表示数据版本的“邮戳”(stamp)。在读取数据之前,线程会检查这个邮戳是否仍然有效(即在此期间数据是否被其他线程修改过)。如果邮戳有效,则线程可以继续读取数据;否则,它可能需要退化为悲观读锁或重新尝试获取乐观读锁。

6.3.3 适用场景

        和 ReentrantReadWriteLock 一样,StampedLock 同样适合读多写少的业务场景,可以作为 ReentrantReadWriteLock的替代品,性能更好

        不过,需要注意的是StampedLock不可重入不支持条件变量 Condition对中断操作支持也不友好(使用不当容易导致 CPU 飙升)。如果你需要用到 ReentrantLock 的一些高级性能,就不太建议使用 StampedLock 了。

6.3.4 StampedLock的底层原理

   StampedLock 不是直接实现 LockReadWriteLock接口,而是基于 CLH 锁 实现的(AQS 也是基于这玩意),CLH 锁是对自旋锁的一种改良,是一种隐式的链表队列StampedLock 通过 CLH 队列进行线程的管理,通过同步状态值 state 来表示锁的状态和类型

7. AQS

7.1 AQS概述

        AQS 的全称为 AbstractQueuedSynchronizer ,翻译过来的意思就是抽象队列同步器。这个类在 java.util.concurrent.locks 包下面。AQS 就是一个抽象类,主要用来构建锁和同步器

        AQS 为构建锁和同步器提供了一些通用功能的实现,因此,使用 AQS 能简单且高效地构造出应用广泛的大量的同步器,比如我们提到的 ReentrantLockSemaphore,其他的诸如 ReentrantReadWriteLockSynchronousQueue等等皆是基于 AQS 的。

7.2 AQS原理

7.2.1 核心思想

        AQS 核心思想是,如果被请求的共享资源空闲,则将当前请求资源的线程设置为有效的工作线程,并且将共享资源设置为锁定状态。如果被请求的共享资源被占用,那么就需要一套线程阻塞等待以及被唤醒时锁分配的机制,这个机制 AQS 是基于 CLH 锁 (Craig, Landin, and Hagersten locks) 实现的。

        CLH 锁是对自旋锁的一种改进,是一个虚拟的双向队列(虚拟的双向队列即不存在队列实例,仅存在结点之间的关联关系),暂时获取不到锁的线程将被加入到该队列中。AQS 将每条请求共享资源的线程封装成一个 CLH 队列锁的一个结点(Node)来实现锁的分配。在 CLH 队列锁中,一个节点表示一个线程,它保存着线程的引用(thread)、 当前节点在队列中的状态(waitStatus)、前驱节点(prev)、后继节点(next)。CLH 的锁状态不再是单一的原子变量,而是分散在每个节点的状态中,降低了自旋锁在竞争激烈时频繁同步的开销,公平锁。下面是CLH锁工作流程:

  1. CLH 锁初始化时会 Tail 会指向一个状态为 false 的空节点,如图1所示。

  2. 当 Thread 1(下称 T1)请求获取锁时,Tail 节点指向 T1 对应的节点,同时返回空节点。T1 检查到上一个节点状态为 false,就成功获取到锁,可以执行相应的逻辑了,如图2所示。

  3. 当 Thread 2(下称 T2)请求获取锁时,Tail 节点指向 T2 对应的节点,同时返回 T1 对应的节点。T2检查到上一个节点状态为 True,无法获取到锁,于是开始轮询上一个节点的状态,如图3所示。

  4. 当 T1 释放锁时,会将状态变量置为 False,如图4所示。

  5. T2 轮询到检查到上一个节点状态变为 False,则获取锁成功,如图5所示。

        CLH有两个缺点:第一是因为有自旋操作,当锁持有时间长时会带来较大的 CPU 开销。第二是基本的 CLH 锁功能单一,不改造不能支持复杂的功能。针对这两个缺点,AQS扩展每个节点的状态使得CLH的功能拓展。针对CPU开销大的问题,AQS阻塞等待替换了自旋操作,线程会阻塞等待锁的释放,不能主动感知到前驱节点状态变化的信息,显式的维护前驱节点和后继节点,需要释放锁的节点会显式通知下一个节点解除阻塞

注:AQS就是CLH的改进,核心也是CLH队列,也是公平锁。

7.2.2 源码一窥

        AQS 使用 int 成员变量 state 表示同步状态,通过内置的 FIFO 线程等待/等待队列 来完成获取资源线程的排队工作。

// 共享变量,使用volatile修饰保证线程可见性,并保证一个监视器锁上的解锁发生在该监视器锁的后续锁定之前
private volatile int state;

        另外,状态信息 state 可以通过 protected 类型的getState()setState()compareAndSetState() 进行操作。并且,这几个方法都是 final 修饰的,在子类中无法被重写。

// 返回同步状态的当前值
protected final int getState() {
     return state;
}
 // 设置同步状态的值
protected final void setState(int newState) {
     state = newState;
}
// 原子地(CAS操作)将同步状态值设置为给定值update如果当前同步状态的值等于expect(期望值)
protected final boolean compareAndSetState(int expect, int update) {
      return unsafe.compareAndSwapInt(this, stateOffset, expect, update);
}

        this.node.set(new Node()) 防止了死锁的发生(即线程1释放,线程2还没抢到,但是其state是true,此时线程1重新获取锁,state又变成true,此时线程2和线程1都分别等待对方释放,形成死锁),这里生成一个新的节点就可以避免这个问题。

7.2.3 AQS独占锁的具体工作流程

        以可重入的互斥锁 ReentrantLock 为例,它的内部维护了一个 state 变量,用来表示锁的占用状态state初始值为 0,表示锁处于未锁定状态。当线程 A 调用 lock() 方法时,会尝试通过 tryAcquire() 方法独占该锁,并state 的值加 1。如果成功了,那么线程 A 就获取到了锁。如果失败了,那么线程 A 就会被加入到一个等待队列(CLH 队列)中,直到其他线程释放该锁。

        假设线程 A 获取锁成功了,释放锁之前,A 线程自己是可以重复获取此锁的(state 会累加)。这就是可重入性的体现:一个线程可以多次获取同一个锁而不会被阻塞。但是,这也意味着,一个线程必须释放与获取的次数相同的锁才能让 state 的值回到 0,也就是让锁恢复到未锁定状态。只有这样,其他等待的线程才能有机会获取该锁。

7.2.4 AQS资源共享方式

        AQS 定义两种资源共享方式:Exclusive独占,只有一个线程能执行,如ReentrantLock)和Share共享,多个线程可同时执行,如Semaphore/CountDownLatch)。

        一般来说,自定义同步器的共享方式要么是独占,要么是共享,他们也只需实现tryAcquire-tryReleasetryAcquireShared-tryReleaseShared中的一种即可。但 AQS 也支持自定义同步器同时实现独占和共享两种方式,如ReentrantReadWriteLock

7.2.5 自定义同步器

        同步器的设计是基于模板方法模式的,如果需要自定义同步器一般的方式是这样(模板方法模式很经典的一个应用):

  1. 使用者继承 AbstractQueuedSynchronizer 并重写指定的方法。
  2. AQS 组合在自定义同步组件的实现中,并调用其模板方法,而这些模板方法会调用使用者重写的方法。

AQS 使用了模板方法模式,自定义同步器时需要重写下面几个 AQS 提供的钩子方法:

//独占方式。尝试获取资源,成功则返回true,失败则返回false。
protected boolean tryAcquire(int)
//独占方式。尝试释放资源,成功则返回true,失败则返回false。
protected boolean tryRelease(int)
//共享方式。尝试获取资源。负数表示失败;0表示成功,但没有剩余可用资源;正数表示成功,且有剩余资源。
protected int tryAcquireShared(int)
//共享方式。尝试释放资源,成功则返回true,失败则返回false。
protected boolean tryReleaseShared(int)
//该线程是否正在独占资源。只有用到condition才需要去实现它。
protected boolean isHeldExclusively()

注:钩子方法是一种被声明在抽象类中的方法,一般使用 protected 关键字修饰,它可以是空方法(由子类实现),也可以是默认实现的方法。模板设计模式通过钩子方法控制固定步骤的实现。(AQS中只有这些钩子方法是可以被重写的,其他都是final)

7.3 常见同步工具类

7.3.1 Semaphore(信号量)

7.3.1.1 Semaphore概述

   synchronized ReentrantLock 都是一次只允许一个线程访问某个资源,而Semaphore(信号量)可以用来限制同时访问特定资源的线程数量

   Semaphore 的使用简单,我们这里假设有 N(N>5) 个线程来获取 Semaphore 中的共享资源,下面的代码表示同一时刻 N 个线程中只有 5 个线程能获取到共享资源,其他线程都会阻塞,只有获取到共享资源的线程才能执行。等到有线程释放了共享资源,其他阻塞的线程才能获取到。

// 初始共享资源数量
final Semaphore semaphore = new Semaphore(5);
// 获取1个许可
semaphore.acquire();
// 释放1个许可
semaphore.release();

注:当初始的资源个数为 1 的时候,Semaphore 退化为排他锁。 

   Semaphore 通常用于那些资源有明确访问数量限制的场景比如限流仅限于单机模式,实际项目中推荐使用 Redis +Lua 来做限流)。

7.3.1.2 Semaphore原理

   Semaphore 共享锁的一种实现,它默认构造 AQS 的 state 值为 permits,你可以将 permits 的值理解为许可证的数量,只有拿到许可证的线程才能执行。

        以无参 acquire 方法为例,调用semaphore.acquire() ,线程尝试获取许可证,如果 state > 0 的话,则表示可以获取成功,如果 state <= 0 的话,则表示许可证数量不足,获取失败。

        如果可以获取成功的话(state > 0 ),会尝试使用 CAS 操作去修改 state 的值 state=state-1。如果获取失败则会创建一个 Node 节点加入等待队列,挂起当前线程。

        上面提到的几个方法底层基本都是通过同步器 sync 实现的。Sync CountDownLatch 的内部类, 继承了 AbstractQueuedSynchronizer重写了其中的某些方法。

7.3.1.3 Semaphore实践
public class SemaphoreExample {
  // 请求的数量
  private static final int threadCount = 550;

  public static void main(String[] args) throws InterruptedException {
    // 创建一个具有固定线程数量的线程池对象(如果这里线程池的线程数量给太少的话你会发现执行的很慢)
    ExecutorService threadPool = Executors.newFixedThreadPool(300);
    // 初始许可证数量
    final Semaphore semaphore = new Semaphore(20);

    for (int i = 0; i < threadCount; i++) {
      final int threadnum = i;
      threadPool.execute(() -> {// Lambda 表达式的运用
        try {
          semaphore.acquire();// 获取一个许可,所以可运行线程数量为20/1=20
          test(threadnum);
          semaphore.release();// 释放一个许可
        } catch (InterruptedException e) {
          // TODO Auto-generated catch block
          e.printStackTrace();
        }

      });
    }
    threadPool.shutdown();
    System.out.println("finish");
  }

  public static void test(int threadnum) throws InterruptedException {
    Thread.sleep(1000);// 模拟请求的耗时操作
    System.out.println("threadnum:" + threadnum);
    Thread.sleep(1000);// 模拟请求的耗时操作
  }
}

        执行 acquire() 方法阻塞,直到有一个许可证可以获得然后拿走一个许可证;每个 release 方法增加一个许可证,这可能会释放一个阻塞的 acquire() 方法。然而,其实并没有实际的许可证这个对象,Semaphore 只是维持了一个可获得许可证的数量。 Semaphore 经常用于限制获取某种资源的线程数量。

7.3.2 CountDownLatch(倒计时器)

7.3.2.1 CountDownLatch概述

   CountDownLatch 允许 count 个线程阻塞在一个地方,直至所有线程的任务都执行完毕。CountDownLatch 一次性的,计数器的值只能在构造方法中初始化一次,之后没有任何机制再次对其设置值,当 CountDownLatch 使用完毕后,它不能再次被使用

7.3.2.2 CountDownLatch原理

   CountDownLatch 共享锁的一种实现,它默认构造 AQS 的 state 值为 count。这个我们通过 CountDownLatch 的构造方法即可看出。

public CountDownLatch(int count) {
    if (count < 0) throw new IllegalArgumentException("count < 0");
    this.sync = new Sync(count);
}

private static final class Sync extends AbstractQueuedSynchronizer {
    Sync(int count) {
        setState(count);
    }
  //...
}

        当线程调用 countDown() 时,其实使用了tryReleaseShared方法以 CAS 的操作来减少 state,直至 state 为 0 。当 state 为 0 时,表示所有的线程都调用了 countDown 方法,那么在 CountDownLatch等待的线程就会被唤醒并继续执行

public void countDown() {
    // Sync 是 CountDownLatch 的内部类 , 继承了 AbstractQueuedSynchronizer
    sync.releaseShared(1);
}

        当调用 await() 的时候,如果 state 不为 0,那就证明任务还没有执行完毕await() 就会一直阻塞,也就是说 await() 之后的语句不会被执行(main 线程被加入到等待队列也就是 CLH 队列中了)。然后,CountDownLatch 会自旋 CAS 判断 state == 0,如果 state == 0 的话,就会释放所有等待的线程,await() 方法之后的语句得到执行。

// 等待(也可以叫做加锁)
public void await() throws InterruptedException {
    sync.acquireSharedInterruptibly(1);
}
// 带有超时时间的等待
public boolean await(long timeout, TimeUnit unit)
    throws InterruptedException {
    return sync.tryAcquireSharedNanos(1, unit.toNanos(timeout));
}

// acquireSharedInterruptibly方法是 AbstractQueuedSynchronizer 中的默认实现
// 尝试获取锁,获取成功则返回,失败则加入等待队列,挂起线程
public final void acquireSharedInterruptibly(int arg)
    throws InterruptedException {
    if (Thread.interrupted())
      throw new InterruptedException();
        // 尝试获得锁,获取成功则返回
    if (tryAcquireShared(arg) < 0)
      // 获取失败加入等待队列,挂起线程
      doAcquireSharedInterruptibly(arg);
}

// tryAcquireShared 方法是CountDownLatch 的内部类 Sync 重写的一个方法,其作用就是判断 state 的值是否为 0,是的话就返回 1,否则返回 -1。
protected int tryAcquireShared(int acquires) {
    return (getState() == 0) ? 1 : -1;
}
7.3.2.3  CountDownLatch 的两种典型用法
  • 某一线程在开始运行前等待 n 个线程执行完毕 : 将 CountDownLatch 的计数器初始化为 nnew CountDownLatch(n)),每当一个任务线程执行完毕,就将计数器减 1countdownlatch.countDown()),当计数器的值变为 0 时,在 CountDownLatch 上 await() 的线程就会被唤醒。一个典型应用场景就是启动一个服务时,主线程需要等待多个组件加载完毕,之后再继续执行。
  • 实现多个线程开始执行任务的最大并行性:注意是并行性,不是并发,强调的是多个线程在某一时刻同时开始执行。类似于赛跑,将多个线程放到起点,等待发令枪响,然后同时开跑。做法是初始化一个共享的 CountDownLatch 对象,将其计数器初始化为 1new CountDownLatch(1)),多个线程在开始执行任务前首先 coundownlatch.await(),当主线程调用 countDown()计数器变为 0,多个线程同时被唤醒
7.3.2.4 CountDownLatch 案例
public class CountDownLatchExample {
  // 请求的数量
  private static final int THREAD_COUNT = 550;

  public static void main(String[] args) throws InterruptedException {
    // 创建一个具有固定线程数量的线程池对象(如果这里线程池的线程数量给太少的话你会发现执行的很慢)
    // 只是测试使用,实际场景请手动赋值线程池参数
    ExecutorService threadPool = Executors.newFixedThreadPool(300);
    final CountDownLatch countDownLatch = new CountDownLatch(THREAD_COUNT);
    for (int i = 0; i < THREAD_COUNT; i++) {
      final int threadNum = i;
      threadPool.execute(() -> {
        try {
          test(threadNum);
        } catch (InterruptedException e) {
          e.printStackTrace();
        } finally {
          // 表示一个请求已经被完成
          countDownLatch.countDown();
        }

      });
    }
    countDownLatch.await();
    threadPool.shutdown();
    System.out.println("finish");
  }

  public static void test(int threadnum) throws InterruptedException {
    Thread.sleep(1000);
    System.out.println("threadNum:" + threadnum);
    Thread.sleep(1000);
  }
}

        上面的代码中,我们定义了请求的数量为 550,当这 550 个请求被处理完成之后,才会执行System.out.println("finish");

        与 CountDownLatch 的第一次交互是主线程等待其他线程。主线程必须在启动其他线程后立即调用 CountDownLatch.await() 方法。这样主线程的操作就会在这个方法上阻塞直到其他线程完成各自的任务

        其他 N 个线程必须引用闭锁对象,因为他们需要通知 CountDownLatch 对象,他们已经完成了各自的任务。这种通知机制是通过 CountDownLatch.countDown()方法来完成的;每调用一次这个方法,在构造函数中初始化的 count 值就减 1。所以当 N 个线程都调 用了这个方法,count 的值等于 0,然后主线程就能通过 await()方法,恢复执行自己的任务。

7.3.3 CyclicBarrier(循环栅栏)

7.3.3.1 CyclicBarrier概述

   CyclicBarrierCountDownLatch 非常类似,它也可以实现线程间的技术等待,但是它的功能比 CountDownLatch 更加复杂和强大。主要应用场景和 CountDownLatch 类似。

        CyclicBarrier 的字面意思是可循环使用(Cyclic)的屏障(Barrier)。它要做的事情是:让一组线程到达一个屏障(也可以叫同步点)时被阻塞,直到最后一个线程到达屏障时,屏障才会开门,所有被屏障拦截的线程才会继续干活。

7.3.3.2 原理

   CyclicBarrier 内部通过一个 count 变量作为计数器count 的初始值为 parties 属性的初始化值,每当一个线程到了栅栏这里了,那么就将计数器减 1。如果 count 值为 0 了,表示这是这一代最后一个线程到达栅栏,就尝试执行我们构造方法中输入的任务。

//每次拦截的线程数
private final int parties;
//计数器
private int count;

 1、CyclicBarrier 默认的构造方法是 CyclicBarrier(int parties),其参数表示屏障拦截的线程数量,每个线程调用 await() 方法告诉 CyclicBarrier 我已经到达了屏障,然后当前线程被阻塞

public CyclicBarrier(int parties) {
    this(parties, null);
}

public CyclicBarrier(int parties, Runnable barrierAction) {
    if (parties <= 0) throw new IllegalArgumentException();
    this.parties = parties;
    this.count = parties;
    this.barrierCommand = barrierAction;
}

其中,parties 就代表了有拦截的线程的数量,当拦截的线程数量达到这个值的时候就打开栅栏,让所有线程通过。

2、当调用 CyclicBarrier 对象调用 await() 方法时,实际上调用的是 dowait(false, 0L)方法。 await() 方法就像树立起一个栅栏的行为一样,将线程挡住了,当拦住的线程数量达到 parties 的值时栅栏才会打开,线程才得以通过执行。

public int await() throws InterruptedException, BrokenBarrierException {
  try {
      return dowait(false, 0L);
  } catch (TimeoutException toe) {
      throw new Error(toe); // cannot happen
  }
}
7.3.3.3 实例
public class CyclicBarrierExample1 {
  // 请求的数量
  private static final int threadCount = 550;
  // 需要同步的线程数量
  private static final CyclicBarrier cyclicBarrier = new CyclicBarrier(5);

  public static void main(String[] args) throws InterruptedException {
    // 创建线程池
    ExecutorService threadPool = Executors.newFixedThreadPool(10);

    for (int i = 0; i < threadCount; i++) {
      final int threadNum = i;
      Thread.sleep(1000);
      threadPool.execute(() -> {
        try {
          test(threadNum);
        } catch (InterruptedException e) {
          // TODO Auto-generated catch block
          e.printStackTrace();
        } catch (BrokenBarrierException e) {
          // TODO Auto-generated catch block
          e.printStackTrace();
        }
      });
    }
    threadPool.shutdown();
  }

  public static void test(int threadnum) throws InterruptedException, BrokenBarrierException {
    System.out.println("threadnum:" + threadnum + "is ready");
    try {
      /**等待60秒,保证子线程完全执行结束*/
      cyclicBarrier.await(60, TimeUnit.SECONDS);
    } catch (Exception e) {
      System.out.println("-----CyclicBarrierException------");
    }
    System.out.println("threadnum:" + threadnum + "is finish");
  }

}

当线程数量也就是请求数量达到我们定义的 5 个的时候, await() 方法之后的方法才被执行。

另外,CyclicBarrier 还提供一个更高级的构造函数 CyclicBarrier(int parties, Runnable barrierAction),用于在线程到达屏障时,优先执行 barrierAction,方便处理更复杂的业务场景。

8. ThreadLocal

8.1 ThreadLocal概述

   ThreadLocal类主要解决的就是让每个线程绑定自己的值,可以将ThreadLocal类形象的比喻成存放数据的盒子,盒子中可以存储每个线程的私有数据。

        如果你创建了一个ThreadLocal变量,那么访问这个变量的每个线程都会有这个变量的本地副本,这也是ThreadLocal变量名的由来。他们可以使用 get()set() 方法来获取默认值或将其值更改为当前线程所存的副本的值,从而避免了线程安全问题

8.2 ThreadLocal实例

import java.text.SimpleDateFormat;
import java.util.Random;

public class ThreadLocalExample implements Runnable{

     // SimpleDateFormat 不是线程安全的,所以每个线程都要有自己独立的副本
    private static final ThreadLocal<SimpleDateFormat> formatter = ThreadLocal.withInitial(() -> new SimpleDateFormat("yyyyMMdd HHmm"));

    public static void main(String[] args) throws InterruptedException {
        ThreadLocalExample obj = new ThreadLocalExample();
        for(int i=0 ; i<10; i++){
            Thread t = new Thread(obj, ""+i);
            Thread.sleep(new Random().nextInt(1000));
            t.start();
        }
    }

    @Override
    public void run() {
        System.out.println("Thread Name= "+Thread.currentThread().getName()+" default Formatter = "+formatter.get().toPattern());
        try {
            Thread.sleep(new Random().nextInt(1000));
        } catch (InterruptedException e) {
            e.printStackTrace();
        }
        //formatter pattern is changed here by thread, but it won't reflect to other threads
        formatter.set(new SimpleDateFormat());

        System.out.println("Thread Name= "+Thread.currentThread().getName()+" formatter = "+formatter.get().toPattern());
    }

}

// 输出
Thread Name= 0 default Formatter = yyyyMMdd HHmm
Thread Name= 0 formatter = yy-M-d ah:mm
Thread Name= 1 default Formatter = yyyyMMdd HHmm
Thread Name= 2 default Formatter = yyyyMMdd HHmm
Thread Name= 1 formatter = yy-M-d ah:mm
Thread Name= 3 default Formatter = yyyyMMdd HHmm
Thread Name= 2 formatter = yy-M-d ah:mm
Thread Name= 4 default Formatter = yyyyMMdd HHmm
Thread Name= 3 formatter = yy-M-d ah:mm
Thread Name= 4 formatter = yy-M-d ah:mm
Thread Name= 5 default Formatter = yyyyMMdd HHmm
Thread Name= 5 formatter = yy-M-d ah:mm
Thread Name= 6 default Formatter = yyyyMMdd HHmm
Thread Name= 6 formatter = yy-M-d ah:mm
Thread Name= 7 default Formatter = yyyyMMdd HHmm
Thread Name= 7 formatter = yy-M-d ah:mm
Thread Name= 8 default Formatter = yyyyMMdd HHmm
Thread Name= 9 default Formatter = yyyyMMdd HHmm
Thread Name= 8 formatter = yy-M-d ah:mm
Thread Name= 9 formatter = yy-M-d ah:mm

        由上面的代码可以看出,虽然 Thread-0 已经改变了 formatter 的值,但 Thread-1 默认格式化值与初始化值相同,其他线程也一样。

8.3 ThreadLocal原理

  • Thread源代码
public class Thread implements Runnable {
    //......
    //与此线程有关的ThreadLocal值。由ThreadLocal类维护
    ThreadLocal.ThreadLocalMap threadLocals = null;

    //与此线程有关的InheritableThreadLocal值。由InheritableThreadLocal类维护
    ThreadLocal.ThreadLocalMap inheritableThreadLocals = null;
    //......
}

        从上面Thread类源代码可以看出Thread 类中有一个 threadLocals 和 一个 inheritableThreadLocals 变量,它们都是 ThreadLocalMap 类型的变量,我们可以把 ThreadLocalMap 理解为ThreadLocal 类实现的定制化的 HashMap。默认情况下这两个变量都是 null,只有当前线程调用 ThreadLocal 类的 setget方法时才创建它们实际上调用这两个方法的时候,我们调用的是ThreadLocalMap类对应的 get()set()方法

  • ThreadLocal的set方法
public void set(T value) {
    //获取当前请求的线程
    Thread t = Thread.currentThread();
    //取出 Thread 类内部的 threadLocals 变量(哈希表结构)
    ThreadLocalMap map = getMap(t);
    if (map != null)
        // 将需要存储的值放入到这个哈希表中
        map.set(this, value);
    else
        createMap(t, value);
}
ThreadLocalMap getMap(Thread t) {
    return t.threadLocals;
}

        先获取到当前线程对象,再通过这个线程对象获取到ThreadLocalMap,变量通过map.set()放在了当前线程的 ThreadLocalMap 中,并不是存在 ThreadLocal 上。ThreadLocal 可以理解为只是ThreadLocalMap的封装,传递了变量值。 ThrealLocal 类中可以通过Thread.currentThread()获取到当前线程对象后,直接通过getMap(Thread t)可以访问到该线程的ThreadLocalMap对象

  • ThreadLocalMap的数据结构

         每个Thread中都具备一个ThreadLocalMap(ThreadLocal的静态内部类),而ThreadLocalMap可以存储以ThreadLocal为 key ,Object 对象为 value 的键值对。

​ThreadLocalMap(ThreadLocal<?> firstKey, Object firstValue) {
    //......
}

注:这个hashmap再解决冲突时,没有用到链表,而是采取往后查询的策略。具体参考:ThreadLocal 详解 | JavaGuide

8.4 ThreadLocal内存泄漏问题

   ThreadLocalMap 中使用的 keyThreadLocal弱引用,而 value 强引用。所以,如果 ThreadLocal 没有被外部强引用(new ThreadLocal<>().set(value);)的情况下,在垃圾回收的时候,key 会被清理掉,而 value 不会被清理掉。

        这样一来,ThreadLocalMap 中就会出现 key 为 null 的 Entry。假如我们不做任何措施的话,value 永远无法被 GC 回收,这个时候就可能会产生内存泄露。ThreadLocalMap 实现中已经考虑了这种情况,在调用 set()get()remove() 方法的时候,会清理掉 key 为 null 的记录。使用完 ThreadLocal方法后最好手动调用remove()方法。

注:内存泄漏问题指的是在程序中动态分配的内存没有被正确释放,从而导致系统内存的浪费,甚至可能导致程序崩溃或者系统变得不稳定

9. 线程池

9.1 线程池概述

        线程池就是管理一系列线程的资源池。当有任务要处理时,直接从线程池中获取线程来处理,处理完之后线程并不会立即被销毁,而是等待下一个任务

9.2 为什么要使用线程池

        线程池提供了一种限制和管理资源(包括执行一个任务)的方式。 每个线程池还维护一些基本统计信息,例如已完成任务的数量。池化技术的思想主要是为了减少每次获取资源的消耗提高对资源的利用率,如线程池、数据库连接池、HTTP 连接池。使用线程池的好处:

  • 降低资源消耗。通过重复利用已创建的线程降低线程创建和销毁造成的消耗
  • 提高响应速度。当任务到达时,任务可以不需要等到线程创建就能立即执行
  • 提高线程的可管理性线程是稀缺资源,如果无限制的创建,不仅会消耗系统资源,还会降低系统的稳定性,使用线程池可以进行统一的分配,调优和监控

9.3 线程池的创建

  1. 通过ThreadPoolExecutor构造函数来创建(推荐)
  2. 通过 Executor 框架的工具类 Executors 来创建,包括更多类型的线程池。

Executors包括的线程池如下:

  • FixedThreadPool固定线程数量的线程池。该线程池中的线程数量始终不变。当有一个新的任务提交时,线程池中若有空闲线程,则立即执行。若没有,则新的任务会被暂存在一个任务队列中,待有线程空闲时,便处理在任务队列中的任务。
  • SingleThreadExecutor只有一个线程的线程池。若多余一个任务被提交到该线程池,任务会被保存在一个任务队列中,待线程空闲,按先入先出的顺序执行队列中的任务。
  • CachedThreadPool: 可根据实际情况调整线程数量的线程池。线程池的线程数量不确定,但若有空闲线程可以复用,则会优先使用可复用的线程。若所有线程均在工作,又有新的任务提交,则会创建新的线程处理任务。所有线程在当前任务执行完毕后,将返回线程池进行复用。
  • ScheduledThreadPool给定的延迟后运行任务或者定期执行任务的线程池

9.4 为什么不推荐使用内置线程池(Executors

        《阿里巴巴 Java 开发手册》中强制线程池不允许使用 Executors 去创建,而是通过 ThreadPoolExecutor 构造函数的方式,这样的处理方式让写的同学更加明确线程池的运行规则,规避资源耗尽的风险。

Executors 返回线程池对象的弊端如下:

  • FixedThreadPool SingleThreadExecutor:使用的是无界的 LinkedBlockingQueue任务队列最大长度为 Integer.MAX_VALUE,可能堆积大量的请求,从而导致 OOM
  • CachedThreadPool:使用的是同步队列 SynchronousQueue, 允许创建的线程数量为 Integer.MAX_VALUE ,如果任务数量过多且执行速度较慢,可能会创建大量的线程,从而导致 OOM
  • ScheduledThreadPool SingleThreadScheduledExecutor:使用的无界的延迟阻塞队列DelayedWorkQueue任务队列最大长度为 Integer.MAX_VALUE,可能堆积大量的请求,从而导致 OOM

9.5 线程池的常见参数

ThreadPoolExecutor 3 个最重要的参数

  • corePoolSize: 任务队列未达到队列容量时,最大可以同时运行的线程数量
  • maximumPoolSize: 线程池中允许的最大线程数量。当任务数量超过核心线程数,并且任务队列已满时,线程池会创建新的线程来处理任务,直到达到最大线程数
  • workQueue: 新任务来的时候会先判断当前运行的线程数量是否达到核心线程数,如果达到的话,新任务就会被存放在队列中

ThreadPoolExecutor其他常见参数 :

  • keepAliveTime: 线程池中的线程数量大于 corePoolSize 的时候,如果这时没有新的任务提交,核心线程外的线程不会立即销毁,而是会等待直到等待的时间超过了 keepAliveTime才会被回收销毁
  • unit: keepAliveTime 参数的时间单位。
  • threadFactory : executor 创建新线程的时候会用到的工厂。
  • handler拒绝策略

 9.6 线程池的拒绝策略

        如果当前同时运行的线程数量达到最大线程数量并且队列也已经被放满了任务时,会触发拒绝策略,ThreadPoolExecutor 定义一些策略:

  • ThreadPoolExecutor.AbortPolicy抛出 RejectedExecutionException异常拒绝新任务的处理。(直接报错)
  • ThreadPoolExecutor.CallerRunsPolicy调用执行自己的线程运行任务,也就是直接在调用execute方法的线程运行(run)被拒绝的任务,如果执行程序已关闭,则会丢弃该任务。因此这种策略会降低对于新任务提交速度,影响程序的整体性能。如果你的应用程序可以承受此延迟并且你要求任何一个任务请求都要被执行的话,你可以选择这个策略。(调用执行execute的线程去执行)
  • ThreadPoolExecutor.DiscardPolicy不处理新任务,直接丢弃掉。(直接丢弃)
  • ThreadPoolExecutor.DiscardOldestPolicy:此策略将丢弃最早的未处理的任务请求。(丢弃最早)

注:

  • 如果不允许丢弃任务,应该选择CallerRunsPolicy策略,这提供了一种反馈机制,可以减缓新任务的提交速度,因为它会占用提交任务的线程来执行这些被拒绝的任务。
  • CallerRunsPolicy策略存在风险,如果走到CallerRunsPolicy的任务是个非常耗时的任务,且处理提交任务的线程是主线程,可能会导致主线程阻塞,进而导致后续任务无法及时执行,严重的情况下很可能导致 OOM。       

9.7 CallerRunPolicy的风险怎么解决

  • 在内存允许的情况下,我们可以增加阻塞队列BlockingQueue的大小并调整堆内存以容纳更多的任务,确保任务能够被准确执行。
  • 充分利用 CPU,调整线程池的maximumPoolSize (最大线程数)参数,这样可以提高任务处理速度避免累计在 BlockingQueue的任务过多导致内存用完。

        如果服务器资源以达到可利用的极限,这就意味我们要在设计策略上改变线程池的调度了,我们都知道,导致主线程卡死的本质就是因为我们不希望任何一个任务被丢弃。还可以采用任务持久化的思路:

  1. 设计一张任务表间任务存储到 MySQL 数据库中。
  2. Redis缓存任务。
  3. 将任务提交到消息队列中。

如果要实现案例一,实现逻辑可以如下:

  • 实现RejectedExecutionHandler接口自定义拒绝策略,自定义拒绝策略负责将线程池暂时无法处理(此时阻塞队列已满)的任务入库(保存到 MySQL 中)。注意:线程池暂时无法处理的任务会先被放在阻塞队列中,阻塞队列满了才会触发拒绝策略。
  • 继承BlockingQueue实现一个混合式阻塞队列,该队列包含JDK自带的ArrayBlockingQueue。另外,该混合式阻塞队列需要修改取任务处理的逻辑,也就是重写take()方法,取任务时优先从数据库中读取最早的任务,数据库中无任务时再从 ArrayBlockingQueue中去取任务

        如此一来,一旦我们的线程池中线程以达到满载时,我们就可以通过拒绝策略将最新任务持久化到 MySQL 数据库中,等到线程池有了有余力处理所有任务时,让其优先处理数据库中的任务以避免"饥饿"问题。

9.8 线程池常用的阻塞队列

        新任务来的时候会先判断当前运行的线程数量是否达到核心线程数,如果达到的话,新任务就会被存放在队列中。不同的线程池会选用不同的阻塞队列:

  • LinkedBlockingQueue无界队列):容量为 Integer.MAX_VALUE 。FixedThreadPool SingleThreadExectorFixedThreadPool最多只能创建核心线程数的线程核心线程数和最大线程数相等),SingleThreadExector只能创建一个线程(核心线程数和最大线程数都是 1),二者的任务队列永远不会被放满
  • SynchronousQueue同步队列):CachedThreadPool SynchronousQueue 没有容量,不存储元素,目的是保证对于提交的任务,如果有空闲线程,则使用空闲线程来处理;否则新建一个线程来处理任务。也就是说,CachedThreadPool最大线程数是 Integer.MAX_VALUE ,可以理解为线程数是可以无限扩展的,可能会创建大量线程,从而导致 OOM
  • DelayedWorkQueue延迟阻塞队列):ScheduledThreadPool SingleThreadScheduledExecutorDelayedWorkQueue 的内部元素并不是按照放入的时间排序,而是会按照延迟的时间长短对任务进行排序,内部采用的是“堆”的数据结构,可以保证每次出队的任务都是当前队列中执行时间最靠前的。DelayedWorkQueue 添加元素满了之后会自动扩容原来容量的 1/2,即永远不会阻塞,最大扩容可达 Integer.MAX_VALUE,所以最多只能创建核心线程数的线程

9.9 线程池处理任务的流程

  1.  如果当前运行的线程数小于核心线程数,那么就会新建一个线程来执行任务。
  2. 如果当前运行的线程数等于或大于核心线程数,但是小于最大线程数,那么就把该任务放入到任务队列里等待执行。
  3. 如果向任务队列投放任务失败(任务队列已经满了),但是当前运行的线程数是小于最大线程数的,就新建一个线程来执行任务。
  4. 如果当前运行的线程数已经等同于最大线程数了,新建线程将会使当前运行的线程超出最大线程数,那么当前任务会被拒绝调用拒绝策略RejectedExecutionHandler.rejectedExecution()方法。

9.10 线程池线程异常后的处理

  • 使用execute()提交任务:当任务通过execute()提交到线程池并在执行过程中抛出异常时,如果这个异常没有在任务内被捕获,那么该异常会导致当前线程终止,并且异常会被打印到控制台或日志文件中。线程池会检测到这种线程终止,并创建一个新线程来替换它,从而保持配置的线程数不变。
  • 使用submit()提交任务:对于通过submit()提交的任务,如果在任务执行中发生异常,这个异常不会直接打印出来。相反,异常会被封装在由submit()返回的Future对象中。当调用Future.get()方法时,可以捕获到一个ExecutionException。在这种情况下,线程不会因为异常而终止,它会继续存在于线程池中,准备执行后续的任务。

        简单来说,使用execute()时,未捕获异常导致线程终止,线程池创建新线程替代;使用submit()时,异常被封装在Future中,线程继续复用。这种设计允许submit()提供更灵活的错误处理机制,因为它允许调用者决定如何处理异常,而execute()适用于那些不需要关注执行结果的场景

9.11 线程池的大小设置

线程池并不是越大越好,线程池越大,上下文切换成本越高,严重的影响了执行效率。

  • 如果我们设置的线程池数量太小的话,如果同一时间有大量任务/请求需要处理,可能会导致大量的请求/任务在任务队列中排队等待执行甚至会出现任务队列满了之后任务/请求无法处理的情况,或者大量任务堆积在任务队列导致 OOM。这样很明显是有问题的,CPU 根本没有得到充分利用。
  • 如果我们设置线程数量太大,大量线程可能会同时在争取 CPU 资源,这样会导致大量的上下文切换,从而增加线程的执行时间,影响了整体执行效率

一般来说,有一个简单并且适用面比较广的公式:

  • CPU 密集型任务(N+1): 这种任务消耗的主要是 CPU 资源,可以将线程数设置为 N(CPU 核心数)+1。比 CPU 核心数多出来的一个线程是为了防止线程偶发的缺页中断,或者其它原因导致的任务暂停而带来的影响。一旦任务暂停CPU 就会处于空闲状态,而在这种情况下多出来的一个线程就可以充分利用 CPU 的空闲时间
  • I/O 密集型任务(2N): 这种任务应用起来,系统会用大部分的时间来处理 I/O 交互,而线程在处理 I/O 的时间段内不会占用 CPU 来处理,这时就可以将 CPU 交出给其它线程使用。因此在 I/O 密集型任务的应用中,我们可以多配置一些线程,具体的计算方法是 2N

注:如何判断CPU密集型和IO密集型?CPU 密集型简单理解就是利用 CPU 计算能力的任务比如你在内存中对大量数据进行排序。但凡涉及到网络读取文件读取这类都是 IO 密集型,这类任务的特点是 CPU 计算耗费时间相比于等待 IO 操作完成的时间来说很少,大部分时间都花在了等待 IO 操作完成上。

注:线程数更严谨的计算的方法应该是:最佳线程数 = N(CPU 核心数)∗(1+WT(线程等待时间)/ST(线程计算时间)),其中 WT(线程等待时间)=线程运行总时间 - ST(线程计算时间)线程等待时间所占比例越高,需要越多线程。线程计算时间所占比例越高,需要越少线程。

9.12 动态修改线程池的参数

美团技术团队的思路是主要对线程池的核心参数实现自定义可配置。这三个核心参数是:

  • corePoolSize : 核心线程数线程数定义了最小可以同时运行的线程数量。
  • maximumPoolSize : 当队列中存放的任务达到队列容量的时候,当前可以同时运行的线程数量变为最大线程数。
  • workQueue: 当新任务来的时候会先判断当前运行的线程数量是否达到核心线程数,如果达到的话,新任务就会被存放在队列中。

这三个参数是 ThreadPoolExecutor 最重要的参数,它们基本决定了线程池对于任务的处理策略。如何支持参数的动态配置?ThreadPoolExecutor 提供的下面这些方法:

注:格外需要注意的是 corePoolSize, 程序运行期间的时候,我们调用 setCorePoolSize()这个方法的话,线程池会首先判断当前工作线程数是否大于corePoolSize,如果大于的话就会回收工作线程

注:上面并没有动态指定队列长度的方法,美团的方式是自定义了一个叫做 ResizableCapacityLinkedBlockIngQueue 的队列(主要就是LinkedBlockingQueue的 capacity 字段的 final 关键字修饰给去掉了,让它变为可变的)。

注:也可以借助现成的开源项目,如Hippo4j,Dynamic TP(支持主流配置中心)。

9.13 设计一个能够根据任务的优先级来执行的线程池

         可以考虑使用 PriorityBlockingQueue (优先级阻塞队列)作为任务队列(ThreadPoolExecutor 的构造函数有一个 workQueue 参数可以传入任务队列)。

   PriorityBlockingQueue 是一个支持优先级的无界阻塞队列,可以看作是线程安全的 PriorityQueue,两者底层都是使用小顶堆形式的二叉堆,即值最小的元素优先出队。不过,PriorityQueue 不支持阻塞操作。

        要想让 PriorityBlockingQueue 实现对任务的排序,传入其中的任务必须是具备排序能力的,方式有两种:

  1. 提交到线程池的任务实现 Comparable 接口,并重写 compareTo 方法来指定任务之间的优先级比较规则。
  2. 创建 PriorityBlockingQueue 时传入一个 Comparator 对象来指定任务之间的排序规则(推荐)。

不过,这存在一些风险和问题,比如:

  • PriorityBlockingQueue无界的,可能堆积大量的请求,从而导致 OOM
  • 可能会导致饥饿问题,即低优先级的任务长时间得不到执行
  • 由于需要对队列中的元素进行排序操作以及保证线程安全(并发控制采用的是可重入锁 ReentrantLock),因此会降低性能

        对于 OOM 这个问题的解决比较简单粗暴,就是继承PriorityBlockingQueue重写一下 offer 方法(入队)的逻辑,当插入的元素数量超过指定值返回 false

        饥饿问题这个可以通过优化设计来解决(比较麻烦),比如等待时间过长的任务会被移除并重新添加到队列中,但是优先级会被提升

        对于性能方面的影响,是没办法避免的,毕竟需要对任务进行排序操作。并且,对于大部分业务场景来说,这点性能影响是可以接受的。

10. Future类

10.1 Future类概述

   Future 类是异步思想的典型运用,主要用在一些需要执行耗时任务的场景,避免程序一直原地等待耗时任务执行完成,执行效率太低。具体来说是这样的:当我们执行某一耗时的任务时,可以将这个耗时任务交给一个子线程去异步执行,同时我们可以干点其他事情,不用傻傻等待耗时任务执行完成。等我们的事情干完后,我们再通过 Future 类获取到耗时任务的执行结果。这样一来,程序的执行效率就明显提高了。

注:这其实就是多线程中经典的 Future 模式,你可以将其看作是一种设计模式,核心思想是异步调用,主要用在多线程领域,并非 Java 语言独有。

        在 Java 中,Future只是一个泛型接口,位于 java.util.concurrent 包下,其中定义了 5 个方法,主要包括下面这 4 个功能:

  • 取消任务;
  • 判断任务是否被取消;
  • 判断任务是否已经执行完成;
  • 获取任务执行结果。
// V 代表了Future执行的任务返回值的类型
public interface Future<V> {
    // 取消任务执行
    // 成功取消返回 true,否则返回 false
    boolean cancel(boolean mayInterruptIfRunning);
    // 判断任务是否被取消
    boolean isCancelled();
    // 判断任务是否已经执行完成
    boolean isDone();
    // 获取任务执行结果
    V get() throws InterruptedException, ExecutionException;
    // 指定时间内没有返回计算结果就抛出 TimeOutException 异常
    V get(long timeout, TimeUnit unit)

        throws InterruptedException, ExecutionException, TimeoutExceptio

}

10.2 Future和Callable的关系

        可以通过 FutureTask 来理解 CallableFuture 之间的关系。FutureTask 提供了 Future 接口的基本实现,常用来封装 CallableRunnable,具有取消任务、查看任务是否执行完成以及获取任务执行结果的方法。ExecutorService.submit() 方法返回的其实就是 Future 的实现类 FutureTask

<T> Future<T> submit(Callable<T> task);
Future<?> submit(Runnable task);

   FutureTask 不光实现了 Future接口,还实现了Runnable 接口,因此可以作为任务直接被线程执行。

   FutureTask 有两个构造函数,可传入 Callable 或者 Runnable 对象。实际上,传入 Runnable 对象也会在方法内部转换为Callable 对象

public FutureTask(Callable<V> callable) {
    if (callable == null)
        throw new NullPointerException();
    this.callable = callable;
    this.state = NEW;
}
public FutureTask(Runnable runnable, V result) {
    // 通过适配器RunnableAdapter来将Runnable对象runnable转换成Callable对象
    this.callable = Executors.callable(runnable, result);
    this.state = NEW;
}

   FutureTask相当于对Callable 进行了封装,管理着任务执行的情况,存储了 Callable 的 call 方法的任务执行结果

10.3 CompletableFuture类的作用

   Future 在实际使用过程中存在一些局限性比如不支持异步任务的编排组合、获取计算结果的 get() 方法为阻塞调用

        Java 8 才被引入CompletableFuture 类可以解决Future 的这些缺陷。CompletableFuture 除了提供了更为好用和强大的 Future 特性之外,还提供了函数式编程异步任务编排组合(可以将多个异步任务串联起来,组成一个完整的链式调用)等能力。

   CompletionStage 接口描述了一个异步计算的阶段。很多计算可以分成多个阶段或步骤,此时可以通过它将所有步骤组合起来,形成异步计算的流水线。

   CompletionStage 接口中的方法比较多,CompletableFuture 的函数式能力就是这个接口赋予的。从这个接口的方法参数你就可以发现其大量使用了 Java8 引入的函数式编程。

10.4 实现 Runnable 接⼝和 Callable 接⼝的区别

  1. 方法定义与返回值
    • Runnable接口定义了一个run()方法,该方法没有返回值(返回类型为void)。
    • Callable接口定义了一个call()方法,该方法必须返回一个值,返回值的类型通过泛型指定。
  2. 异常处理
    • 在Runnable接口的run()方法中,无法直接抛出已检查的异常(checked exception),所有的异常都必须在方法内部处理。
    • Callable接口的call()方法则可以抛出已检查的异常,这些异常可以被调用者捕获和处理。
  3. 使用方式
    • 实现Runnable接口的类通常被用于创建线程实例,通过实现run()方法来定义线程的行为。由于run()方法没有返回值,它适用于那些不需要返回结果,只需要执行某些操作(如打印输出、修改共享变量等)的场景。
    • 实现Callable接口的类则通常与FutureTask结合使用,FutureTask包装了Callable实例的调用结果。调用FutureTaskget()方法可以获得Callable任务的结果,同时该方法会阻塞直到任务完成。由于可以抛出已检查的异常,并且有返回值,Callable接口适用于需要返回值或进行复杂计算(如网络操作、IO操作等)的场景。
  4. 执行与结果获取
    • Runnable接口的实例可以直接传递给Thread构造函数,并通过start()方法启动线程。线程执行完毕后,无法直接获取执行结果。
    • Callable接口的实例则需要通过ExecutorServicesubmit()方法提交给线程池执行。执行完毕后,可以通过Future接口的get()方法获取执行结果。如果Callable任务在执行过程中抛出异常,那么调用get()方法时会抛出ExecutionException,可以通过该异常获取到实际的异常信息。

参考

Java并发常见面试题总结(上) | JavaGuide

Java并发常见面试题总结(中) | JavaGuide

Java并发常见面试题总结(下) | JavaGuide

  • 19
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值