12.1 概述
- 在许多情况下,让计算机同时去做几件事情,不仅是因为计算机的运算能力强大了,还有一个很重要的原因是计算机的运算速度与它的存储和通信子系统速度的差距太大,大量的时间都花费在磁盘I/O、网络通信或者数据库访问上。如果不希望处理器在大部分时间里都处于等待其他资源的状态,就必须使用一些手段去把处理器的运算能力 “压榨” 出来。
- 衡量一个服务性能的高低好坏,每秒事务处理数(Transactions Per Second,TPS)是最重要的指标之一,它代表着一秒内服务端平均能响应的请求总数,而 TPS 值与程序的并发能力又有非常密切的关系。对于计算量相同的任务,程序线程并发协调得越有条不紊,效率自然就会越高;反之,线程之间频繁阻塞甚至死锁,将会大大降低程序的并发能力。
12.2 硬件的效率与一致性
- “让计算机并发执行若干个运算任务” 与 “更充分地利用计算机处理器的效能” 之间的因果关系,看起来顺理成章,实际上它们之间的关系并没有想象中的那么简单,其中一个重要的复杂性来源是绝大多数的运算任务都不可能只靠处理器 “计算” 就能完成,处理器至少要与内存交互,如读取运算数据、存储运算结果等,这个I/O操作是很难消除的(无法仅靠寄存器来完成所有运算任务)。
- 由于计算机的存储设备与处理器的运算速度有几个数量级的差距,所以现代计算机系统都不得不加入一层读写速度尽可能接近处理器运算速度的高速缓存(Cache)来作为内存与处理器之间的缓冲:将运算需要使用到的数据复制到缓存中,让运算能快速进行,当运算结束后再从缓存同步回内存之中,这样处理器就无须等待缓慢的内存读写了。
- 基于高速缓存的存储交互很好地解决了处理器与内存的速度矛盾,但是也为计算机系统带来更高的复杂度,因为它引入了一个新的问题:缓存一致性(Cache Coherence)。
- 在多处理器系统中,每个处理器都有自己的高速缓存,而它们又共享同一主内存(Main Memory),如下图所示:
- 当多个处理器的运算任务都涉及同一块主内存区域时,将可能导致各自的缓存数据不一致,如果真的发生这种情况,那同步回到主内存时以谁的缓存数据为准呢?为了解决一致性的问题,需要各个处理器访问缓存时都遵循一些协议,在读写时要根据协议来进行操作,这类协议有MSI、MESI(Illinois Protocol)、MOSI、Synapse、Firefly及Dragon Protocol等。
- 除了增加高速缓存之外,为了使得处理器内部的运算单元能尽量被充分利用,处理器可能会对输入代码进行乱序执行(Out-Of-Order Execution)优化,处理器会在计算之后将乱序执行的结果重组,保证该结果与顺序执行的结果是一致的,但并不保证程序中各个语句计算的先后顺序与输入代码中的顺序一致,因此,如果存在一个计算任务依赖另外一个计算任务的中间结果,那么其顺序性并不能靠代码的先后顺序来保证。与处理器的乱序执行优化类似,Java虚拟机的即时编译器中也有类似的指令重排序(Instruction Reorder)优化。
12.3 Java内存模型
12.3.1 主内存与工作内存
- Java 内存模型的主要目标是定义程序中各个变量的访问规则,即在虚拟机中将变量存储到内存和从内存中取出变量这样的底层细节。
- 此处的变量(Variables)与 Java 编程中所说的变量有所区别,它包括了实例字段、静态字段和构成数组对象的元素,但不包括局部变量与方法参数,因为后者是线程私有的,不会被共享,自然就不会存在竞争问题。
- Java 内存模型规定了所有的变量都存储在主内存(Main Memory)中,每条线程还有自己的工作内存(Working Memory,可与前面讲的处理器高速缓存类比),线程的工作内存中保存了被该线程使用到的变量的主内存副本拷贝,线程对变量的所有操作(读取、赋值等)都必须在工作内存中进行,而不能直接读写主内存中的变量。不同的线程之间也无法直接访问对方工作内存中的变量,线程间变量值的传递均需要通过主内存来完成。
12.3.2 内存间交互操作
- 关于主内存与工作内存之间具体的交互协议,即一个变量如何从主内存拷贝到工作内存、如何从工作内存同步回主内存之类的实现细节,Java 内存模型中定义了以下 8 种操作来完成,虚拟机实现时必须保证下面提及的每一种操作都是原子的、不可再分的。
操作 | 作用对象 | 描述 |
---|---|---|
lock(锁定) | 主内存 | 把一个变量标识为一条线程独占的状态 |
unlock(解锁) | 主内存 | 把一个处于锁定状态的变量释放出来,释放后的变量才可以被其他线程锁定 |
read(读取) | 主内存 | 把一个变量的值从主内存传输到线程的工作内存中 |
load(载入) | 工作内存 | 把 read 操作从主内存中得到的变量值放入工作内存的变量副本中 |
use(使用) | 工作内存 | 把工作内存中一个变量的值传递给执行引擎 |
assign(赋值) | 工作内存 | 把一个从执行引擎接收到的值赋给工作内存的变量 |
store(存储) | 工作内存 | 把工作内存中一个变量的值传送到主内存中 |
write(写入) | 主内存 | 把 store 操作从工作内存中得到的变量的值放入主内存的变量中 |
-
如果要把一个变量从主内存复制到工作内存,那就要顺序地执行 read 和 load 操作,如果要把变量从工作内存同步回主内存,就要顺序地执行 store 和 write 操作。除此之外,Java 内存模型还规定了在执行上述 8 种基本操作时必须满足如下规则:
- 不允许 read 和 load、store 和 write 操作之一单独出现,即不允许一个变量从主内存读取了但工作内存不接受,或者从工作内存发起回写了但主内存不接受的情况出现。
- 不允许一个线程丢弃它的最近的 assign 操作,即变量在工作内存中改变了之后必须把该变化同步回主内存。
- 不允许一个线程无原因地(没有发生过任何assign操作)把数据从线程的工作内存同步回主内存中。
- 一个新的变量只能在主内存中 “诞生”,不允许在工作内存中直接使用一个未被初始化(load或assign)的变量。
- 一个变量在同一个时刻只允许一条线程对其进行 lock 操作,但 lock 操作可以被同一条线程重复执行多次,多次执行 lock 后,只有执行相同次数的 unlock 操作,变量才会被解锁。
- 如果对一个变量执行 lock 操作,那将会清空工作内存中此变量的值,在执行引擎使用这个变量前,需要重新执行 load 或 assign 操作初始化变量的值。
- 如果一个变量事先没有被 lock 操作锁定,那就不允许对它执行 unlock 操作,也不允许去 unlock 一个被其他线程锁定住的变量。
- 对一个变量执行 unlock 操作之前,必须先把此变量同步回主内存中(执行store、write操作)。
12.3.3 对于 volatile 型变量的特殊规则
12.3.3.1 可见性
- 当一个变量定义为 volatile 之后,它将具备两种特性,第一是保证此变量对所有线程的可见性。
- 这里的 “可见性” 是指当一条线程修改了这个变量的值,新值对于其他线程来说是可以立即得知的。而普通变量不能做到这一点,普通变量的值在线程间传递均需要通过主存来完成,
- volatile 变量在各个线程的工作内存中不存在一致性问题(在各个线程的工作内存中,volatile 变量也可以存在不一致的情况,但由于每次使用之前都要先刷新,执行引擎看不到不一致的情况,因此可以认为不存在一致性问题),但是 Java 里面的运算并非原子操作,导致 volatile 变量的运算在并发下一样是不安全的。
public class VolatileTest
{
public static volatile int race = 0;
public static void increase()
{
race++;
}
private static final int THREADS_COUNT = 20;
public static void main(String[] args)
{
Thread[] threads = new Thread[THREADS_COUNT];
for (int i = 0; i < THREADS_COUNT; i++)
{
threads[i] = new Thread(new Runnable()
{
@Override
public void run()
{
for (int i = 0; i < 10000; i++)
{
increase();
}
}
});
threads[i].start();
}
// 等待所有累加线程都结束
while (Thread.activeCount() > 2)
{
Thread.yield();
}
// 结果小于200000
System.out.println(race);
}
}
- 上述代码发起了 20 个线程,每个线程对 race 变量进行10000次自增操作,如果这段代码能够正确并发的话,最后输出的结果应该是200000,但是实际输出结果小于200000。
- 问题就出现在自增运算 “race+” 之中,实际上只有一行代码的
increase()
方法在Class文件中是由4条字节码指令构成的(除去return)。 - 当
getstatic
指令把 race 的值取到操作栈顶时,volatile 关键字保证了 race 的值在此时是正确的,但是在执行iconst_1
、iadd
这些指令的时候,其他线程可能已经把 race 的值加大了,而在操作栈顶的值就变成了过期的数据,所以putstatic
指令执行后就可能把较小的 race 值同步回主内存之中。
public static void increase();
Code:
Stack=2, Locals=0, Args_size=0
0: getstatic #13; //Field race:I
3: iconst_1
4: iadd
5: putstatic #13; //Field race:I
8: return
LineNumberTable:
line 14: 0
line 15: 8
- 由于 volatile 变量只能保证可见性,在不符合以下两条规则的运算场景中,我们仍然要通过加锁(使用synchronized或 java.util.concurrent 中的原子类)来保证原子性:
- 运算结果并不依赖变量的当前值,或者能够确保只有单一的线程修改变量的值。
- 变量不需要与其他的状态变量共同参与不变约束。
12.3.3.2 禁重排
- 使用 volatile 变量的第二个语义是禁止指令重排序优化,普通的变量仅仅会保证在该方法的执行过程中所有依赖赋值结果的地方都能获取到正确的结果,而不能保证变量赋值操作的顺序与程序代码中的执行顺序一致。因为在一个线程的方法执行过程中无法感知到这点,这也就是 Java内存模型中描述的所谓的 “线程内表现为串行的语义”(Within-Thread As-If-Serial Semantics)。
Map configOptions;
char[] configText;
// 此变量必须定义为volatile
volatile boolean initialized = false;
// 假设以下代码在线程A中执行
// 模拟读取配置信息,当读取完成后将initialized设置为true以通知其他线程配置可用
configOptions = new HashMap();
configText = readConfigFile(fileName);
processConfigoptions(configText, configoptions);
initialized = true;
// 假设以下代码在线程B中执行
// 等待initialized为true,代表线程A已经把配置信息初始化完成
while(!initialized)
{
sleep();
}
// 使用线程A中初始化好的配置信息
doSomethingwithconfig();
- 如果定义 initialized 变量时没有使用 volatile 修饰,就可能会由于指令重排序的优化,导致位于线程 A 中最后一句的代码
initialized = true
被提前执行,这样在线程 B 中使用配置信息的代码就可能出现错误,而volatile 关键字则可以避免此类情况的发生。
12.3.3.3 具体实现方式
- 可见性
- 有 volatile 修饰的变量,赋值后会多执行了一个 lock 操作,这个操作相当于一个内存屏障(Memory Barrier 或Memory Fence,指重排序时不能把后面的指令重排序到内存屏障之前的位置),它的作用是使得本 CPU 的 Cache 写入了内存,该写入动作也会引起别的 CPU 或者别的内核无效化(Invalidate)其Cache。
- 这种操作相当于对 Cache 中的变量做了一次 “store" 和 "write” 操作,所以可让前面 volatile 变量的修改对其他CPU立即可见。
- 禁止指令重排序
- 从硬件架构上讲,指令重排序是指 CPU 采用了允许将多条指令不按程序规定的顺序分开发送给各相应电路单元处理,但并不是说指令任意重排。CPU 需要能正确处理指令依赖情况以保障程序能得出正确的执行结果。
- 譬如指令1:把地址A中的值加10,指令2:把地址A中的值乘以2,指令3:把地址B中的值减去3
- 这时指令1和指令2是有依赖的,它们之间的顺序不能重排,但指令3可以重排到指令1、2之前或者中间,所以在本内CPU中,重排序看起来依然是有序的。
- 因此,当 lock 指令把修改同步到内存时,意味着所有之前的操作都已经执行完成,这样便形成了 “指令重排序无法越过内存屏障” 的效果。
12.3.3.4 volatile变量的特殊规则
- 假定 T 表示一个线程,V 和 W 分别表示两个 volatile 型变量,那么在进行read、load、use、assign、store和write操作时需要满足如下规则:
- 在工作内存中,每次使用 V 前都必须先从主内存刷新最新的值,用于保证能看见其他线程对变量 V 所做的修改后的值
- 在工作内存中,每次修改 V 后都必须立刻同步回主内存中,用于保证其他线程可以看到自己对变量 V 所做的修改。
- volatile 修饰的变量不会被指令重排序优化,保证代码的执行顺序与程序的顺序相同。
12.3.4 对于long和double 型变量的特殊规则
- Java 内存模型要求lock、unlock、read、load、assign、use、store、write这8个操作都具有原子性,但是对于64位的数据类型(long和double),在模型中特别定义了一条相对宽松的规定:允许虚拟机将没有被 volatile 修饰的64位数据的读写操作划分为两次32位的操作来进行,即允许虚拟机实现选择可以不保证64位数据类型的load、store、read和write这4个操作的原子性,这点就是所谓的long和double的非原子性协定(Nonatomic Treatment of double and long Variables)。
- 如果有多个线程共享一个并未声明为 volatile 的 long 或 double 类型的变量,并且同时对它们进行读取和修改操作,那么某些线程可能会读取到一个既非原值,也不是其他线程修改值的代表了 “半个变量” 的数值。
- 不过这种读取到 “半个变量” 的情况非常罕见(在目前商用Java虚拟机中不会出现),因为 Java 内存模型虽然允许虚拟机不把 long 和 double 变量的读写实现成原子操作,但允许虚拟机选择把这些操作实现为具有原子性的操作,而且还 “强烈建议” 虚拟机这样实现。在实际开发中,目前各种平台下的商用虚拟机几乎都选择把64位数据的读写操作作为原子操作来对待。
12.3.5 原子性、可见性与有序性
- 最后再整体回顾一下 Java 内存模型的特征,它是围绕着在并发过程中如何处理原子性、可见性和有序性这3个特征来建立的,我们逐个来看一下哪些操作实现了这3个特性:
12.3.5.1 原子性(Atomicity)
-
由 Java 内存模型来直接保证的原子性变量操作包括 read、load、assign、use、store和write,我们大致可以认为基本数据类型的访问读写是具备原子性的。
-
如果应用场景需要一个更大范围的原子性保证(经常会遇到),Java内存模型还提供了 lock 和 unlock 操作来满足这种需求,尽管虚拟机未把 lock 和 unlock 操作直接开放给用户使用,但是却提供了更高层次的字节码指令 monitorenter 和 monitorexit 来隐式地使用这两个操作,这两个字节码指令反映到 Java 代码中就是同步块——synchronized关键字,因此在synchronized块之间的操作也具备原子性。
-
虚拟机操作lock/unlock——> 字节码monitorenter/monitorexit ——> Java关键字synchronized
12.3.5.2 可见性(Visibility)
- 可见性是指当一个线程修改了共享变量的值,其他线程能够立即得知这个修改。
- volatile 的特殊规则保证了新值能立即同步到主内存,以及每次使用前立即从主内存刷新。
- 除了 volatile 之外,Java 还有两个关键字能实现可见性,即 synchronized 和 final。
- 同步块的可见性是由 “对一个变量执行unlock操作之前,必须先把此变量同步回主内存中(执行store、write操作)” 这条规则获得的
- final关键字的可见性是指:被 final 修饰的字段在构造器中一旦初始化完成,并且构造器没有把 “this” 的引用传递出去,那在其他线程中就能看见 final 字段的值。
12.3.5.3 有序性(Ordering)
- Java 程序中天然的有序性可以总结为一句话:如果在本线程内观察,所有的操作都是有序的;如果在一个线程中观察另一个线程,所有的操作都是无序的。
- 前半句是指 “线程内表现为串行的语义”(Within-Thread As-If-Serial Semantics),后半句是指 “指令重排序” 现象和 “工作内存与主内存同步延迟” 现象。
- Java 语言提供了 volatile 和 synchronized 两个关键字来保证线程之间操作的有序性:
- volatile 关键字本身就包含了禁止指令重排序的语义
- synchronized 则是由 “一个变量在同一个时刻只允许一条线程对其进行lock操作” 这条规则获得的,这条规则决定了持有同一个锁的两个同步块只能串行地进入。
12.3.6 先行发生原则
-
Java 语言中有 “先行发生”(happens-before)的原则,它是判断数据是否存在竞争、线程是否安全的主要依据,依靠这个原则,我们可以通过几条规则一揽子地解决并发环境下两个操作之间是否可能存在冲突问题。
-
先行发生是 Java 内存模型中定义的两项操作之间的偏序关系:
- 如果说操作A先行发生于操作B,其实就是说在发生操作B之前,操作A产生的影响能被操作B观察到
- “影响” 包括修改了内存中共享变量的值、发送了消息、调用了方法等。
-
假设如下代码中,线程A的操作
i=1
先行发生于线程B的操作j = i
,那么可以确定在线程B的操作执行后,变量 j 的值一定等于1,得出这个结论的依据有两个:- 一是根据先行发生原则,
i = 1
的结果可以被观察到 - 二是线程 C 还没 “登场”,线程A 操作结束之后没有其他线程会修改变量 i 的值。
- 一是根据先行发生原则,
// 以下操作在线程A中执行
i = 1;
// 以下操作在线程B中执行
j = i;
// 以下操作在线程C中执行
i = 2;
-
现在再来考虑线程C,我们依然保持线程A和线程B之间的先行发生关系,而线程C出现在线程A和线程B的操作之间,但是线程C与线程B没有先行发生关系,那 j 的值会是多少呢?
- 答案是不确定,1和2都有可能
- 因为线程C对变量 i 的影响可能会被线程B观察到,也可能不会,这时候线程B就存在读取到过期数据的风险,不具备多线程安全性。
-
下面是 Java 内存模型下一些 “天然的” 先行发生关系,这些先行发生关系无须任何同步器协助就已经存在,可以在编码中直接使用。如果两个操作之间的关系不在此列,并且无法从下列规则推导出来的话,它们就没有顺序性保障,虚拟机可以对它们随意地进行重排序:
- 程序次序规则(Program Order Rule):在一个线程内,按照程序代码顺序,书写在前面的操作先行发生于书写在后面的操作。准确地说,应该是控制流顺序而不是程序代码顺序,因为要考虑分支、循环等结构。
- 管程锁定规则(Monitor Lock Rule):一个unlock操作先行发生于后面对同一个锁的lock操作。这里必须强调的是同一个锁,而“后面”是指时间上的先后顺序。
- volatile 变量规则(Volatile Variable Rule):对一个volatile变量的写操作先行发生于后面对这个变量的读操作,这里的“后面”同样是指时间上的先后顺序。
- 线程启动规则(Thread Start Rule):Thread对象的 start() 方法先行发生于此线程的每一个动作。
- 线程终止规则(Thread Termination Rule):线程中的所有操作都先行发生于对此线程的终止检测,我们可以通过Thread.join() 方法结束、Thread.isAlive() 的返回值等手段检测到线程已经终止执行。
- 线程中断规则(Thread Interruption Rule):对线程 interrupt() 方法的调用先行发生于被中断线程的代码检测到中断事件的发生,可以通过 Thread.interupted() 方法检测到是否有中断发生。
- 对象终结规则(Finalizer Rule):一个对象的初始化完成(构造函数执行结束)先行发生于它的 finalize() 方法的开始。
- 传递性(Transitivity):如果操作A先行发生于操作B,操作B先行发生于操作C,那就可以得出操作A先行发生于操作C的结论。
-
时间先后顺序与先行发生原则之间基本没有太大的关系,所以我们衡量并发安全问题的时候不要受到时间顺序的干扰,一切必须以先行发生原则为准。
12.4 Java与线程
12.4.1 线程的实现
- 线程是比进程更轻量级的调度执行单位,线程的引入,可以把一个进程的资源分配和执行调度分开,各个线程既可以共享进程资源(内存地址、文件I/O等),又可以独立调度(线程是CPU调度的基本单位)。
- 实现线程主要有3种方式:使用内核线程实现、使用用户线程实现和使用用户线程加轻量级进程混合实现。
12.4.1.1 使用内核线程实现
- 内核线程(Kermel-Level Thread,KLT)就是直接由操作系统内核(Kermel,下称内核)支持的线程,这种线程由内核来完成线程切换,内核通过操纵调度器(Scheduler)对线程进行调度,并负责将线程的任务映射到各个处理器上。每个内核线程可以视为内核的一个分身,这样操作系统就有能力同时处理多件事情,支持多线程的内核就叫做多线程内核(Multi-Threads Kernel)。
- 程序一般不会直接去使用内核线程,而是去使用内核线程的一种高级接口——轻量级进程(Light Weight Process,LWP),轻量级进程就是我们通常意义上所讲的线程,由于每个轻量级进程都由一个内核线程支持,因此只有先支持内核线程,才能有轻量级进程。
- 由于内核线程的支持,每个轻量级进程都成为一个独立的调度单元,即使有一个轻量级进程在系统调用中阻塞了,也不会影响整个进程继续工作,但是轻量级进程具有它的局限性:
- 首先,由于是基于内核线程实现的,所以各种线程操作,如创建、析构及同步,都需要进行系统调用,而系统调用的代价相对较高,需要在用户态(User Mode)和内核态(Kernel Mode)中来回切换。
- 其次,每个轻量级进程都需要有一个内核线程的支持,因此轻量级进程要消耗一定的内核资源(如内核线程的栈空间),因此一个系统支持轻量级进程的数量是有限的。
12.4.1.2 使用用户线程实现
- 狭义上的用户线程指的是完全建立在用户空间的线程库上,系统内核不能感知线程存在的实现。用户线程的建立、同步、销毁和调度完全在用户态中完成,不需要内核的帮助。
- 如果程序实现得当,这种线程不需要切换到内核态,因此操作可以是非常快速且低消耗的,也可以支持规模更大的线程数量。
- 使用用户线程的优势在于不需要系统内核支援,劣势也在于没有系统内核的支援,所有的线程操作都需要用户程序自己处理。线程的创建、切换和调度都是需要考虑的问题。
12.4.1.3 使用用户线程加轻量级进程混合实现
- 在这种混合实现下,既存在用户线程,也存在轻量级进程。用户线程还是完全建立在用户空间中,因此用户线程的创建、切换、析构等操作依然廉价,并且可以支持大规模的用户线程并发。
- 而操作系统提供支持的轻量级进程则作为用户线程和内核线程之间的桥梁,这样可以使用内核提供的线程调度功能及处理器映射,并且用户线程的系统调用要通过轻量级线程来完成,大大降低了整个进程被完全阻塞的风险。
12.4.2 Java 线程调度
- 线程调度是指系统为线程分配处理器使用权的过程,主要调度方式有两种,分别是协同式线程调度(Cooperative Threads-Scheduling)和抢占式线程调度(Preemptive Threads-Scheduling)。
12.4.2.1 协同式调度
- 如果使用协同式调度的多线程系统,线程的执行时间由线程本身来控制,线程把自己的工作执行完了之后,要主动通知系统切换到另外一个线程上。
- 协同式多线程的最大好处是实现简单,而且由于线程要把自己的事情干完后才会进行线程切换,切换操作对线程自己是可知的,所以没有什么线程同步的问题。
- 它的坏处也很明显:线程执行时间不可控制,甚至如果一个线程编写有问题,一直不告知系统进行线程切换,那么程序就会一直阻塞在那里。
12.4.2.2 抢占式调度
- 如果使用抢占式调度的多线程系统,那么每个线程将由系统来分配执行时间,线程的切换不由线程本身来决定。在这种实现线程调度的方式下,线程的执行时间是系统可控的,也不会有一个线程导致整个进程阻塞的问题
- 虽然 Java 线程调度是系统自动完成的,但是我们还是可以 “建议” 系统给某些线程多分配一点执行时间,另外的一些线程则可以少分配一点——这项操作可以通过设置线程优先级来完成。
12.4.3 状态转换
- Java语言定义了6种线程状态,在任意一个时间点,一个线程只能有且只有其中的一种状态这6种状态分别如下:
- 新建(New):创建后尚未启动的线程处于这种状态。
- 运行(Runable):Runable 包括了操作系统线程状态中的 Running 和 Ready,也就是处于此状态的线程有可能正在执行,也有可能正在等待着CPU为它分配执行时间。
- 无限期等待(Waiting):处于这种状态的线程不会被分配 CPU 执行时间,它们要等待被其他线程显式地唤醒。以下方法会让线程陷入无限期的等待状态:
- 没有设置 Timeout 参数的
Object.wait()
方法 - 没有设置 Timeout 参数的
Thread.join()
方法 LockSupport.park()
方法
- 没有设置 Timeout 参数的
- 限期等待(Timed Waiting):处于这种状态的线程也不会被分配 CPU 执行时间,不过无须等待被其他线程显式地唤醒,在一定时间之后它们会由系统自动唤醒。以下方法会让线程进入限期等待状态:
Thread.sleep()
方法- 设置了 Timeout 参数的
Object.wait()
方法 - 设置了 Timeout 参数的
Thread.join()
方法 LockSupport.parkNanos()
方法LockSupport.parkUntil()
方法
- 阻塞(Blocked):线程被阻塞了,“阻塞状态” 与 “等待状态”的区别是:
- “阻塞状态” 在等待着获取到一个排他锁,这个事件将在另外一个线程放弃这个锁的时候发生;
- 而 “等待状态” 则是在等待一段时间,或者唤醒动作的发生。在程序等待进入同步区域的时候,线程将进入这种状态
- 结束(Terminated):已终止线程的线程状态,线程已经结束执行。