
一、基础概念
1、同步(Synchronous)和异步(Asynchronous)
同步和异步通常用来形容一次方法的调用
- 同步: 调用同步方法之后,一直等待同步方法的执行完成,才能进行后续的操作。
- 异步: 调用异步方法之后,无需等待异步方法的执行,就可以进行后续的操作。
2、并发(concurrency)和并行(Parallelism)
它们都可以代表两个或多个任务一起执行。
- 并发: 多个任务交替执行,而多个任务之间有可能还是串行的。
- 并行: 多个任务同时执行。
3、临界区
临界区用来表示一种公共资源或者共享资源,可以被多个线程使用。但是每一次只能有一个线程使用它,一旦临界区资源被占用,其他要使用这个资源的线程必须等待。
4、阻塞(Blocking)和非阻塞(Non-Blocking)
- 阻塞和非阻塞用来形容线程之间的相互影响。
比如一个线程占用了临界区,其他线程来访问临界区这个共享资源的时候就会在临界区等待,导致线程的挂起,这种情况就是阻塞。 - 而非阻塞的意思就与其相反,它强调没有一个线程可以阻碍其他线程的执行,所有线程都一直向前执行。
5、死锁(Deadlock)、饥饿(Starvation)和活锁(Livelock)
死锁、饥饿、活锁都是线程的活跃性问题。如果线程发生了上面的几种情况,那么线程可能就不在活跃了,也就是说它们很难再继续执行下去了。
- 死锁: 两个或多个线程之间相互占用彼此资源,导致所有线程都无法执行下去。
- 饥饿: 一个或多个线程由于种种原因无法获得所需资源,导致一直无法执行。比如该线程的优先级较低,一直被高优先级线程抢占资源,导致该线程一直无法执行。
- 活锁: 两个线程都主动将资源释放给其他线程使用,导致资源不停的在两个资源之间交换,而没有一个线程获取到资源正常的执行。
6、并发级别
由于临界区的存在,多线程之间的并发必须受到控制。根据控制并发的策略,我们可以把并发的级别分为阻塞、无饥饿、无障碍、无锁、无等待几种。
(1)、阻塞
一个线程是阻塞的,那么在其他线程释放资源之前,当前线程无法执行,当我们使用sychronized和重入锁时,我们得到的就是阻塞线程。
(2)、无饥饿(Stravation-Free)
如果线程之间时有优先级的,那么线程的调度总是满足高优先级线程。也就是说,对于同一个资源的分配是不公平的。
- 非公平锁:系统允许高优先级的线程插队。
- 公平锁:按照先来后到的规则进行线程的调用。
(3)、无障碍(Obstruction-Free)
无障碍是一种最弱的非阻塞调度。两个线程如果无阻塞的执行,那么不会因为临界区的问题导致一方被挂起。换而言之,大家都可以无阻碍的进入临界区,一起修改共享数据,但把数据修改坏了怎么办?对于无障碍的线程来说,一旦发现这种情况,它会立即对自己所做的修改进行回滚,确保数据安全。
(4)、无锁(Lock-Free)
无锁的并行都是无障碍的。在无锁的情况下,所有的线程都能尝试对临界区进行访问,但不同的是,无锁的并发保证必然有一个线程能在有限步内完成操作离开临界区
(5)、无等待(Wait-Free)
无锁只要求有一个 线程在有限步内完成操作,而无等待则在无锁的基础上进一步拓展。它要求所有的线程都要在有限步内完成操作,这样就不会引起饥饿的情况。
7、有关并行的两个重要定律
(1)、Amdahl定律
它定义了串行系统并行后的加速比的计算公式和理论上限
加速比 = 优化前系统耗时 / 优化后系统耗时
n:处理器数量,T:时间,T1:优化前耗时,Tn:优化后耗时,F:程序中只能串行执行的比例。
- 根据这个公式,如果CPU的数量趋近于无穷,那么加速比与系统的串行化比例成反比,如果系统中有
50%
的代码串行执行,那么系统的最大加速比为2。 - 假如有一个程序分为以下步骤执行,每个步骤执行花费100个单位时间,其中步骤2和步骤5可以并行,而1、3、4都只能串行。在全串行执行的情况下,系统的耗时为500单位时间。
- 若将步骤2和步骤5进行并行操作,假设在双核的情况下,步骤2和步骤5的耗时将是50个单位时间。故系统整体的耗时为400个单位时间。那么根据加速比的定义有:加速比 = 1.25
- 5个步骤中,三个步骤并行,串行化比例为3/5=0.6,即F=0.6,且双核处理器的N = 2。代入加速比公式:
加速比 = 1/(0.6+((1-0.6)/2))=1.67
- 在极端的情况下,假设处理器个数无限大,步骤2和5的处理时间趋近0。即使这样,系统整体耗时还是大于300个单位时间,使用加速比公式,N趋于无穷大,有加速比=1/F,且F=0.6,故有加速比=1.67,即加速比的极限就是1.67。
- 由此可见,仅增加系统的处理器数量并不能有效的改变处理时间,需要从根本上修改程序的串行化行为,提高系统中可并行化的模块比重。
(2)、Gustafson定律
Gustafson定律也试图说明处理器个数、串行化比例和加速比之间的关系。
从Gustafson定律中可以看出,如果串行化比例很小,并行化比例较大,那么加速比就是处理器个数,只有无限累加处理器,那么就可以获得更快的速度。
(3)、两个公式的侧重点
Amdahl: 当系统的串行比例一定时,加速比是有上限的,无论加多少个处理器都无法突破加速比的极限
Gustafson: 如果并行化的代码所占的比例足够大,那么加速比就能随着处理器数量线性增长。
二、Java并行程序基础
1、线程基本操作
- 新建(new)线程
Thread thread = new Thread();
注意:
启动线程应该调用thread.start()
,而不是调用thread.run()
,因为后者只是调用了一个普通方法,而没有启动线程。
- 终止(stop)线程
Thread.stop()调用之后会释放该线程所持有的所有锁,但这些锁恰恰是用来维持对象一致性的,假如数据写到一半,线程被强制终止了,那么对象的数据就会被写坏。 - 中断(interrupt)线程
一般中断线程之后,线程不会立即退出,而是会给线程发送一个通知,告知该线程有人希望你退出。至于该线程收到通知之后如何处理,完全由该线程决定。所以一般使用Thread.isInterrupt()
对线程状态进行判断,进而进行对线程的进一步处理。而在当前线程(thread)处于sleep的时候被其他线程调用了thread.interrupt()
,则会抛出异常InterruptedException
- 等待(wait)、通知(notify)
注意: wait和notify都是object
的方法。Object.wait()
和Object.notify()
必须包含着sychronized同步块中。wait会释放锁,而sleep不会释放锁。
当一个线程调用了object.wait()
则该线程会进入object的等待队列。这个等待队列中可能会有很多个线程等待同一个对象。当object.notify()
被调用的时候,它会在等待队列中随机唤醒一个线程,这个选择是完全随机的。 - 挂起(suspend)和继续执行(resume)
不推荐使用suspend和resume的原因是,suspend挂起线程的时候不会释放任何锁资源并且该线程处于runable状态。 - 等待线程结束(join)和谦让(yeild)
join方法的本质是wait,tread.join()之后,主线程等待tread线程执行完成之后再执行。
yeild:让出CPU时间片,当前线程进入可运行状态(Runable)
2、Volatile关键词
- 如果不使用volatile关键词声明变量,当变量被修改的时候,其他线程可能不会被通知到,甚至在别的线程中看到修改线程的顺序都是反的。
3、线程组
- 在一个系统中,线程数量很多,而且分工明确,就可以把相同功能的线程放在同一个线程组中。
activeCount()
方法可以获得活动线程总数,但由于线程是动态的,所以这个数是一个估计值,无法精确。list()
可以打印线程组中的线程信息,对调试有一定帮助。
package ThreadStudy;
public class ThreadGroupTest implements Runnable{
public static void main(String[] args) {
ThreadGroup threadGroup = new ThreadGroup("PrintGroup");
Thread t1 = new Thread(threadGroup,new ThreadGroupTest(),"T1");
Thread t2 = new Thread(threadGroup,new ThreadGroupTest(),"T2");
t1.start();
t2.start();
System.out.println(threadGroup.activeCount());
threadGroup.list();
}
@Override
public void run() {
String name = "Group name"+Thread.currentThread().getThreadGroup().getName() +
"My name : " + Thread.currentThread().getName();
while(true){
System.out.println(name);
try {
Thread.sleep(3000);
} catch (InterruptedException e) {
e.printStackTrace();
}
}
}
}
4、驻守后台:守护线程(Daemon)
- 守护线程是一种特殊线程,他是系统的守护者,在后台完成一些系统性操作,例如:
垃圾回收线程
,JIT线程
等。 - 与之对应的是用户线程,用户线程可以理解为系统的工作线程,他会完成这个程序要完成的业务操作。如果用户线程全部结束,那么就意味着整个程序实际上无事可做了。守护线程要守护的对象已经不存在了,那么整个应用程序就应该结束。因此,当java应用内只有守护线程的时候,java虚拟机会自然退出。
- 使用
setDaemon()
把线程设置为守护线程。且一定要防止start()之前,如果放在start()之后,那么该线程会被当作用户线程,而且你会得到以下报错。
Exception in thread "main" java.lang.IllegalThreadStateException
package ThreadStudy;
public class ThreadDaemonTest extends Thread {
@Override
public void run() {
while(true){
System.out.println("I am Alive");
try {
Thread.sleep(1000);
} catch (InterruptedException e) {
e.printStackTrace();
}
}
}
public static void main(String[] args) throws Exception {
Thread t = new ThreadDaemonTest();
t.setDaemon(true);
t.start();
Thread.sleep(2000);
}
}
5、线程优先级
- 可看以下代码,创建两个不同的线程,给不同的优先级,即使先调用低优先级线程的start,但绝大多数都是高优先级的线程优先执行完。
package ThreadStudy;
public class ThreadPriorityTest {
public static class HighPriority extends Thread{
static int count = 0;
@Override
public void run() {
while (true){
synchronized (ThreadPriorityTest.class){
count++;
if (count>10000) {
System.out.println("HighPriority---End");
break;
}
}
}
}
}
public static class LowPriority extends Thread{
static int count = 0;
@Override
public void run() {
while (true){
synchronized (ThreadPriorityTest.class){
count++;
if (count>10000){
System.out.println("LowPriority---End");
break;
}
}
}
}
}
public static void main(String[] args) throws Exception{
Thread highPriority = new HighPriority();
Thread lowPriority = new LowPriority();
//设置线程优先级
highPriority.setPriority(10);
lowPriority.setPriority(1);
//开启线程
lowPriority.start();
highPriority.start();
}
}
6、 线程安全和sychronized
- 程序并行化是为了提高程序执行效率,但是前提是不能以牺牲正确性为代价。
- sychronized的多种用法
- 指定加锁对象:对对象加锁,进入同步代码块要获得指定对象的锁
- 直接作用于实例方法:对实例加锁,进入同步代码块要获得当前实例的锁
- 直接作用于静态方法:对当前类加锁,进入同步代码块要获得当前类的锁
(1)、指定加锁对象
指定加锁对象为o,每次进入synchronized包裹的代码块就会要求请求instance的锁。
public static class LowPriority extends Thread{
static int count = 0;
Object o = new Object();
@Override
public void run() {
while (true){
synchronized (o){
count++;
if (count>10000){
System.out.println("LowPriority---End");
break;
}
}
}
}
}
(2)、直接作用于实例方法
public static class LowPriority implements Runnable{
static LowPriority instance = new LowPriority ();
public synchronized void increase(){
}
@Override
public void run() {
while (true){
increase();
}
}
public static void main(String[] args) throws Exception{
Thread t1 = new Thread (instance);
Thread t2 = new Thread (instance);
t1.start();t2.start()
}
}
- 最后的new两个线程的时候,让两个线程都同时指向了同一个对象实例instance,这样才能保证两个线程在工作时,能够关注到用一个对象锁上,从而保证线程安全。
- 而一种错的使用方式就是以下
public static void main(String[] args) throws Exception{
Thread t1 = new Thread (new LowPriority());
Thread t2 = new Thread (new LowPriority());
t1.start();t2.start()
}
- 上面的两个线程的Runnable实例并不是同一个,它们使用的都不是同一个锁,所以线程安全是无法保证的。
- 可以将increase()方法修改成
public static synchronized void increase(){
}
- 即使两个线程指向两个不同的Runnable对象,但由于方法块请求的是当前类锁,而不是实例锁,所以可以保证线程安全。
三、JDK并发包
1、多线程的团队协作:同步控制
(1)、关键字synchronized功能拓展:重入锁
重入锁顾名思义就是可以重复进入的锁,一个线程是可以多次获得锁的,如果像以下代码获得了两次锁,那么释放锁的时候就得释放两次,否则其他线程也无法获得该锁,也就无法进入临界区。
package ThreadStudy;
import java.util.concurrent.locks.ReentrantLock;
public class ReentrantLockTest implements Runnable{
public static ReentrantLock lock = new ReentrantLock();
@Override
public void run() {
for (int i=0 ; i<100000 ; i++){
lock.lock();
lock.lock();
try {
i++;
}finally {
lock.unlock();
lock.unlock();
}
}
}
}
(1)、中断响应
对于关键词sychronized来说,如果一个线程在等待锁,那么就只有两种情况,一种就是获得锁继续执行下去,要么就是继续等待锁。而使用重入锁,则提供另一种可能,就是线程可以被中断。也就是线程在等待锁得时候,可以根据需求取消对锁的请求。例如:如果一个线程在等待锁,那么它可以收到一个通知,被告知无需等待,可以停止工作了。这种情况对于处理死锁是有一定帮助的。
package ThreadStudy;
import java.util.concurrent.locks.ReentrantLock;
public class ReentrantLockInterruptTest implements Runnable{
public static ReentrantLock lock1 = new ReentrantLock();
public static ReentrantLock lock2 = new ReentrantLock();
int lock;
ReentrantLockInterruptTest(int lock){
this.lock = lock;
}
@Override
public void run() {
try {
if (lock == 1){
lock1.lockInterruptibly();
Thread.sleep(500);
lock2.lockInterruptibly();
}else {
lock2.lockInterruptibly();
Thread.sleep(500);
lock1.lockInterruptibly();
}
}catch (Exception e){
e.printStackTrace();
}finally {
if (lock1.isHeldByCurrentThread()){
lock1.unlock();
}else {
lock2.unlock();
}
System.out.println(Thread.currentThread().getId()+":线程退出!");
}
}
public static void main(String[] args) throws Exception{
ReentrantLockInterruptTest lock1 = new ReentrantLockInterruptTest(1);
ReentrantLockInterruptTest lock2 = new ReentrantLockInterruptTest(2);
Thread thread1 = new Thread(lock1);
Thread thread2 = new Thread(lock2);
thread1.start();thread2.start();
Thread.sleep(2000);
//中断一个线程
thread2.interrupt();
}
}
线程1和线程2抢占lock1和lock2,由于线程1先获得lock1,线程2先获得lock2,导致两个线程处于死锁状态,在main方法的最后一行对线程2进行中断操作,那么线程2就释放了lock2,线程1获得了lock2得以正常执行完成,程序执行完成之后控制台有以下输出。
java.lang.InterruptedException
at java.util.concurrent.locks.AbstractQueuedSynchronizer.doAcquireInterruptibly(AbstractQueuedSynchronizer.java:898)
at java.util.concurrent.locks.AbstractQueuedSynchronizer.acquireInterruptibly(AbstractQueuedSynchronizer.java:1222)
at java.util.concurrent.locks.ReentrantLock.lockInterruptibly(ReentrantLock.java:335)
at ThreadStudy.ReentrantLockInterruptTest.run(ReentrantLockInterruptTest.java:24)
at java.lang.Thread.run(Thread.java:748)
12:线程退出!
11:线程退出!
(2)、锁申请等待限时
通常,我们无法判断为什么一个线程无法获得锁,可能是死锁,也可能是饥饿,如果给定一个时间,让线程自动放弃是有意义的。
package ThreadStudy;
import java.util.concurrent.TimeUnit;
import java.util.concurrent.locks.ReentrantLock;
public class ReentrantTryLockTest implements Runnable {
public static ReentrantLock lock = new ReentrantLock();
@Override
public void run() {
try {
if (lock.tryLock(5, TimeUnit.SECONDS)){
Thread.sleep(6000);
}else {
System.out.println("获取锁失败!");
}
} catch (InterruptedException e) {
e.printStackTrace();
}finally {
if (lock.isHeldByCurrentThread())
lock.unlock();
}
}
public static void main(String[] args) {
ReentrantTryLockTest test = new ReentrantTryLockTest();
Thread t1 = new Thread(test);
Thread t2 = new Thread(test);
t1.start();
t2.start();
}
}
lock.tryLock()
接收两个参数,第一个参数是等待时间,第二个参数是等待时间单位。如果线程在该时间内获得了锁,则返回true,否则返回false。
(3)、公平锁
大多数情况下,锁的获得都是非公平的,但公平锁会按照请求锁的时间先后顺序,保证先到先得,后到后得,公平锁最大的一个特点就是:不会产生饥饿现象。如果我们使用synchronized关键词进行锁控制,那么产生的锁就是非公平的。
重入锁允许我们对其公平性进行设置:
public ReentrantLock(boolean fair) {}
当参数fair为true的时候,表示锁是公平的。但要实现公平锁必须维护一个有序队列,因此公平锁的实现成本较高,并且效率低下,所以一般锁都是非公平的。
就重入锁的实现来看,主要包含三个要素:
- 原子状态。原子状态用CAS操作来存储当前锁的状态,判断锁是否被别的线程持有了。
- 等待队列。所有请求锁的线程都会进入等待队列进行等待,待其他线程释放锁,再从等待队列唤醒一个线程,继续工作。
- 阻塞原语park()和unpark(),用来挂起和恢复线程。
(2)、重入锁的搭档:Condition
Condition和Object.notify(),Object.wait()的作用是一样的,Object的方法是搭配synchronized关键词使用的,而Condition是配合重入锁使用的。
(3)、允许多个线程访问:信号量(Semaphore)
从广义上讲,信号量是对锁的拓展。无论是内部锁synchronized,还是重入锁ReentrantLock,一次都只允许一个线程访问一个资源,而信号量可以指定多个线程,同时访问某一个资源。
public Semaphore(int permits) {}
public Semaphore(int permits, boolean fair) {}
在构造信号量对象的时候,必须指定信号量的准入数(许可量)。
public void acquire()//线程尝试获取许可,若无法获得,则等待,直到有线程释放许可或者当前线程中断
public void acquireUninterruptibly()//和acquire类似,但不响应中断
public boolean tryAcquire()//尝试获取许可,获取到则true,否则false,不会等待,立即返回。
public void release(int permits)//线程访问资源结束后释放资源。
package ThreadStudy;
import java.util.concurrent.ExecutorService;
import java.util.concurrent.Executors;
import java.util.concurrent.Semaphore;
public class SemaphoreTest implements Runnable {
final Semaphore semaphore = new Semaphore(5);
@Override
public void run() {
try {
semaphore.acquire();
Thread.sleep(2000);
System.out.println(Thread.currentThread().getId()+":done!");
} catch (InterruptedException e) {
e.printStackTrace();
}finally {
semaphore.release();
}
}
public static void main(String[] args) {
ExecutorService executorService = Executors.newFixedThreadPool(20);
final SemaphoreTest test = new SemaphoreTest();
for (int i=0 ; i<20 ; i++){
executorService.execute(test);
}
}
}
申请信号量的时候使用acquire(),离开的时候使用release()。
(4)、ReadWriteLock读写锁
例如:线程W1、W2、W3进行写操作,线程R1、R2、R3进行读操作,如果使用内部锁或者重入锁,理论来说所有的读写、读读、写写之间都是串行操作。当R1进行读操作的时候,R2、R3则需要等待锁,由于读操作并不会对数据的完整性造成破坏,这种等待则是完全不合理的。
所以,读写锁允许多个线程同时读,R1、R2、R3之间是真正的并行。但是,考虑到数据的完整性,读写和写写之间仍然是需要相互等待和持有锁的。
读写锁的访问约束情况
读 | 写 | |
---|---|---|
读 | 不阻塞 | 阻塞 |
写 | 阻塞 | 阻塞 |
package ThreadStudy;
import java.util.Random;
import java.util.concurrent.locks.Lock;
import java.util.concurrent.locks.ReentrantLock;
import java.util.concurrent.locks.ReentrantReadWriteLock;
public class ReadWriteLock {
private static Lock lock = new ReentrantLock();
private static ReentrantReadWriteLock readWriteLock = new ReentrantReadWriteLock();
private static Lock writeLock = readWriteLock.writeLock();
private static Lock readLock = readWriteLock.readLock();
private int value;
public Object handleRead (Lock lock) {
try {
lock.lock();
Thread.sleep(1000);
return value;
}catch (InterruptedException e) {
e.printStackTrace();
}finally {
lock.unlock();
}
return null;
}
public void handleWrite(Lock lock,int value){
try {
lock.lock();
Thread.sleep(1000);
this.value = value;
} catch (InterruptedException e) {
e.printStackTrace();
}finally {
lock.unlock();
}
}
public static void main(String[] args) {
ReadWriteLock readWriteLock = new ReadWriteLock();
Runnable read = new Runnable() {
@Override
public void run() {
readWriteLock.handleRead(lock);
// readWriteLock.handleRead(readLock);
}
};
Runnable write = new Runnable() {
@Override
public void run() {
readWriteLock.handleWrite(lock,new Random().nextInt());
// readWriteLock.handleWrite(writeLock,new Random().nextInt());
}
};
for (int i=0 ; i<18 ; i++){
new Thread(read).start();
}
for (int i=0 ; i<2 ; i++){
new Thread(write).start();
}
}
}
以上代码进行注释的地方使用的是读写锁,而没注释的地方使用的是重入锁,下面两个for循环模拟18个线程读和2个线程写操作。当使用读写锁的时候,代码耗时2秒多,因为读操作完全并行。而使用重入锁的时候,代码耗时20秒左右,因为读操作和写操作都是串行操作。
(5)、倒计数器:CountDownLatch
主线程等待所有检查线程执行完成之后再进行执行。
package ThreadStudy;
import java.util.Random;
import java.util.concurrent.CountDownLatch;
import java.util.concurrent.ExecutorService;
import java.util.concurrent.Executors;
public class CountDownLatchTest implements Runnable{
final static CountDownLatch end = new CountDownLatch(10);
final static CountDownLatchTest demo = new CountDownLatchTest();
@Override
public void run() {
try {
//模拟处理事件
Thread.sleep(new Random().nextInt(10)*1000);
System.out.println("check complete");
end.countDown();
} catch (InterruptedException e) {
e.printStackTrace();
}
}
public static void main(String[] args) throws InterruptedException {
ExecutorService service = Executors.newFixedThreadPool(10);
for (int i=0 ; i<10 ; i++){
service.submit(demo);
}
//等待检查
end.await();
System.out.println("check----end");
service.shutdown();
}
}
2、线程复用:线程池
- 虽然与进程相比,线程是一种轻量级工具,但其开启和关闭仍然需要花费时间,如果每一个小任务都创建一个线程,那么有可能线程的创建和销毁所需要的时间,都大于了线程所执行任务所需时间,这样就得不偿失了。
- 其次,线程本身也是需要占用内存空间的,大量的线程会抢占宝贵的内存资源,如果处理不当,会造成
out of memory
的错误,即使没有,大量的线程回收也会给GC带来很大的压力,延长GC的停顿时间。 - 因此,对线程的使用必须掌握一定的度,在有限范围内增加线程的数量可以明显提高系统的吞吐量,如果超出这个范围,大量线程只会拖垮应用系统。
(1)、什么是线程池
- 如果我们进行过数据库开发,那么对数据库连接池就不会陌生,当我们每次查询数据库的时候会创建数据库连接,当查询完成之后又会销毁数据库连接,为了避免大量的连接和销毁所消耗的时间和资源,我们可以使用数据库连接池维护一些数据库连接,每次都不创建连接,而是直接从数据库连接池中取出一个连接,而断开连接时,不是真正断开数据库连接,而是把连接"还"个数据库连接池。
- 线程池也是相同的概念,在线程池中,总有在活跃的线程,需要使用线程就从池中取出一个空闲线程,线程完成工作之后,不是销毁线程,而是把线程放入线程池中。
(1)、固定大小的线程池
package ThreadStudy.ThreadPool;
import java.util.concurrent.ExecutorService;
import java.util.concurrent.Executors;
public class FixedPool {
public static class Fixed implements Runnable{
@Override
public void run() {
System.out.println(System.currentTimeMillis()+"Thread ID:"+
Thread.currentThread().getId());
try {
Thread.sleep(1000);
} catch (InterruptedException e) {
e.printStackTrace();
}
}
}
public static void main(String[] args) {
Fixed t = new Fixed();
ExecutorService executorService = Executors.newFixedThreadPool(5);
for (int i=0 ; i<10 ; i++){
executorService.submit(t);
}
}
}
1658471537034Thread ID:11
1658471537034Thread ID:12
1658471537034Thread ID:13
1658471537034Thread ID:14
1658471537034Thread ID:15
1658471538034Thread ID:15
1658471538034Thread ID:14
1658471538034Thread ID:11
1658471538034Thread ID:13
1658471538034Thread ID:12
在main函数的第二行创建了一个固定大小为5的线程池,使用for循环依次向线程池提交了10个任务,此后,线程池就会安排调度这10个任务。看控制台输出,很明显就是前5个和后5个线程的执行时间相差1s,并且两者线程id是相同的,说明这10个任务是分成两个批次执行的,也完全符合一个线程池5个线程的行为。
(2)、计划任务
package ThreadStudy.ThreadPool;
import java.util.concurrent.Executors;
import java.util.concurrent.ScheduledExecutorService;
import java.util.concurrent.TimeUnit;
public class SheduleThread {
public static void main(String[] args) {
ScheduledExecutorService ses = Executors.newScheduledThreadPool(10);
//如果前面的任务没有完成,则后面的调度也不会启动
ses.scheduleAtFixedRate(new Runnable() {
@Override
public void run() {
try {
Thread.sleep(1000);
} catch (InterruptedException e) {
e.printStackTrace();
}
System.out.println(System.currentTimeMillis()/1000);
}
},0,2, TimeUnit.SECONDS);
}
}
1658474036
1658474038
1658474040
1658474042
1658474044
可以看到线程的执行时间间隔2秒,这里有一个有意思的问题,假如线程的执行时间超过了调度时间会怎么样。我们把Thread.sleep(1000)修改成Thread.sleep(8000),控制台打印如下:
1658475169
1658475177
1658475185
也就是说,周期太短,那么任务就会在上一个任务结束后立即被调用。
(3)、核心线程池的内部实现
对于核心的线程池,无论newFixedThreadPool()、newSingleThreadExecutor()、newCachedThreadPool(),虽然看起来创建的线程有不同的特点,但内部实现均使用了ThreadPoolExecutor()类
- corePoolSize:指定线程池中线程数量
- maximumPoolSize:线程池中最大线程数量
- keepAliveTime:超过corePoolSize的线程,多少时间内被销毁
- unit:keepAliveTime的单位
- workQueue:任务队列:被提交但尚未被执行的任务
- threadFactory:线程工厂,用于创建线程
- handler:拒绝策略,当任务来不及处理时,如何拒绝任务
public ThreadPoolExecutor(int corePoolSize,
int maximumPoolSize,
long keepAliveTime,
TimeUnit unit,
BlockingQueue<Runnable> workQueue,
ThreadFactory threadFactory,
RejectedExecutionHandler handler) {
this(corePoolSize, maximumPoolSize, keepAliveTime, unit, workQueue,
Executors.defaultThreadFactory(), defaultHandler);
}
参数workQueue指被提交但未执行的任务队列,它是BlockingQueue接口,仅用于存放Runnable接口类型。根据队列功能分类,在ThreadPoolExecutor类的构造函数中,可以使用以下几种BlockingQueue队列:
- 直接提交的队列:该功能由synchronousQueue对象提供。synchronousQueue没有容量,每一个插入操作都要等待一个相应的删除操作,而每一个删除操作都要等待一个相应的插入操作。如果使用synchronousQueue,则提交的任务不会真实地保存,而总是将新任务交给线程执行,假如没有空闲的进程,则创建新的进程,如果进程数量已经达到最大值,则执行拒绝策略。
- 有界队列 :有界队列可以用ArrayBlockingQueue来实现,
public ArrayBlockingQueue(int capacity)
,ArrayBlockingQueue的构造函数得带一个参数,用来表示该队列的最大容量。:当使用有界的任务队列时,若有新的任务需要执行,如果线程池的实际线程数小于 corePoolsize ,则会优先创建新的线程,若大于 corePoolsize ,则会将新任务加入等待队列。若等待队列己满,无法加入,则在总线程数不大于 maximumPoolsize 的前提下,创建新的进程执行任务。若大于 maximumPoolsize ,则执行拒绝策略。可见,有界队列仅当在任务队列装满时,才可能将线程数提升到。 corePoolsize 以上,换言之,除非系统非常繁忙,否则要确保核心线程数维持在 corePoolsize 。 - 无界的任务队列:无界任务队列可以通过 LinkedBlockingQueue 类实现.与有界队列相比,除非系统资源耗尽,否则无界的任务队列不存在任务入队失败的情况。当有新的任务到来,系统的线程数小于 corePoolsize 时,线程池会生成新的线程执行任务,但当系统的线程数达到 corePoolsize 后,就不会继续增加了.若后续仍有新的任务加入,而又没有空闲的线程资源,则任务直接进入队列等待.若任务创建和处理的速度差异很大,无界队列会保持快速增长,直到耗尽系统内存。
- 优先任务队列:优先任务队列是带有执行优先级的队列。它通过 PriorityBlockingQueue 类实现,可以控制任务的执行先后顺序。它是一个特殊的无界队列。无论是有界队ArrayBlockingQueue,还是未指定大小的无界队列LinkedBlockingQueue,都是按照先进先出算法处理任务的。
(4)、拒绝策略
JDK内置策略有以下四个:
- AbortPolicy 策略:该策略会直接抛出异常,阻止系统正常工作.
- callerRunsPolicy 策略:只要线程池未关闭,该策略直接在调用者线程中,运行当前被丢弃的任务。显然这样做不会真的丢弃任务,但是,任务提交线程的性能极有可能会急剧下降。
- DiscardOldestPolicy 策略:该策略将丢弃最老的一个请求,也就是即将被执行的一个任务,并尝试再次提交当前任务。
- DiscardPolicy 策略:该策略默默地丢弃无法处理的任务,不予任何处理.如果允许任务丢失,我觉得这可能是最好的一种方案了吧!
以上内置的策略均实现了RejectedExecutionHandler接口。若以上的接口无法满足需求,那么完全可以自己实现RejectedExecutionHandler接口。
package ThreadStudy.ThreadPool;
import java.util.concurrent.*;
public class rejectThreadPoolDemo {
public static class MyTesk implements Runnable{
@Override
public void run() {
System.out.println(System.currentTimeMillis()+"Thread ID:"
+Thread.currentThread().getId());
try {
Thread.sleep(100);
} catch (InterruptedException e) {
e.printStackTrace();
}
}
}
public static void main(String[] args) throws InterruptedException {
MyTesk tesk = new MyTesk();
ThreadPoolExecutor executors = new ThreadPoolExecutor(5, 5,
0L, TimeUnit.MILLISECONDS,
new LinkedBlockingDeque<Runnable>(10),
Executors.defaultThreadFactory(),
new RejectedExecutionHandler() {
@Override
public void rejectedExecution(Runnable r, ThreadPoolExecutor executor) {
System.out.println(r.toString() + "is discard");
}
});
for (int i = 0; i < Integer.MAX_VALUE; i++) {
executors.submit(tesk);
Thread.sleep(10);
}
}
}
- 该线程池有5个常驻线程,并且最大线程数也是5个,但是他拥有一个只有10个容量的等待队列。因为使用无界队列很可能并不是最佳解决方案,如果任务量极大,很有可能会把内存“撑死”。给出一个合理的队列大小,也是合乎常理的选择。同时,这里自定义了拒绝策略,我们不抛出异常,因为万一在任务提交端没有进行异常处理,则有可能使整个系统崩溃,这不是我们希望遇到的。但作为必要的信.息记录,我们将任务丢弃的信息进行打印,当然,这只比内置的 DiscardPolicy 策略高级那么一点点。
- 在以上代码中,由于每个线程会执行100ms,必定会导致大量的任务被直接丢弃,控制台输出如下:
1659081307821Thread ID:13
1659081307821Thread ID:12
1659081307821Thread ID:11
1659081307836Thread ID:14
1659081307852Thread ID:15
java.util.concurrent.FutureTask@66d3c617is discard
java.util.concurrent.FutureTask@63947c6bis discard
(5)、自定义线程创建:ThreadFactory
- 线程池中的线程是哪儿来的呢?
- 线程池的存在就是为了线程复用,也就是避免了线程的重复创建。
- ThreadFactory是一个接口,它只有一个用来创建线程的方法。当线程池需要新建线程时就会调用这个方法。
Thread newThread(Runnable r);
自定义线程池可以帮我们做很多事情。比如:
- 我们可以知道线程池在合适创建了多少线程
- 自定义线程的名称、组以及优先级等信息
- 甚至可以任性的将所有线程设置为守护线程
package ThreadStudy.ThreadPool;
import java.util.concurrent.*;
public class ThreadFactoryTest {
public static class MyTesk implements Runnable{
@Override
public void run() {
System.out.println(System.currentTimeMillis()+"Thread ID:"
+Thread.currentThread().getId());
try {
Thread.sleep(100);
} catch (InterruptedException e) {
e.printStackTrace();
}
}
}
public static void main(String[] args) throws InterruptedException {
MyTesk tesk = new MyTesk();
ExecutorService es = new ThreadPoolExecutor(5, 5, 0L, TimeUnit.MILLISECONDS,
new SynchronousQueue<Runnable>(),
new ThreadFactory() {
@Override
public Thread newThread(Runnable r) {
Thread t = new Thread(r);
t.setDaemon(true);
System.out.println("Create :"+t);
return t;
}
});
for (int i = 0; i < 5; i++) {
es.submit(tesk);
}
Thread.sleep(2000);
}
}
(6)、我的应用我做主:拓展线程池
假如我们需要对线程池做一些扩展,比如,监控每个任务的开始和结束时间,或者其他一些自定义的增强功能,那应该怎么做。其实,ThreadPoolExecutor
是一个可扩展的线程池,它提供了beforeExecute
、afterExecute
、afterExecute
三个接口来对线程池进行控制。在默认的ThreadPoolExecutor
中,提供了空的beforeExecute
、afterExecute
的实现。
package ThreadStudy.ThreadPool;
import java.util.concurrent.ExecutorService;
import java.util.concurrent.LinkedBlockingDeque;
import java.util.concurrent.ThreadPoolExecutor;
import java.util.concurrent.TimeUnit;
public class ExtThreadPool {
public static class MyTask implements Runnable{
String name;
MyTask(String name){
this.name = name;
}
@Override
public void run() {
System.out.println("正在执行"+"Thread ID :"
+Thread.currentThread().getId());
try {
Thread.sleep(100);
} catch (InterruptedException e) {
e.printStackTrace();
}
}
}
public static void main(String[] args) throws InterruptedException {
ExecutorService es = new ThreadPoolExecutor(5,5,0L, TimeUnit.MILLISECONDS,
new LinkedBlockingDeque<Runnable>()){
@Override
protected void beforeExecute(Thread t, Runnable r) {
System.out.println("准备执行--" + ((MyTask)r).name);
}
@Override
protected void afterExecute(Runnable r, Throwable t) {
System.out.println("执行完成---" + ((MyTask)r).name);
}
@Override
protected void terminated() {
System.out.println("线程池退出---");
}
};
for(int i=0 ; i<5 ; i++){
MyTask task = new MyTask("MyTask"+i);
es.execute(task);
Thread.sleep(10);
}
es.shutdown();
}
}
以上代码中我们可以看出,我们重写了ThreadPoolExecutor
的三个方法,用于记录一个任务的开始、结束和整个线程池的退出。在提交完成后,使用shutdown
方法关闭线程池。
(7)、优化线程池线程数量
线程池大小对系统的性能有一定的影响,过大或过小都无法发挥最优的系统性能。一般来说,确定线程池的大小需要考虑CPU数量和内存大小。
Ncpu = CPU数量
Ucpu = CPU的使用率 0 ≤ Ucpu ≤ 1
W/C 等待时间和计算时间的比值
为保持处理器达到预期的使用率,最优的线程池大小为:
Nthread = Ncpu * Ucpu *(1+W/C)
在java中,可以使用以下代码获取CPU数量
Runtime.getRuntime().availableProcessors()
(8)、线程池中寻找堆栈
- 线程池可能吃掉异常,导致我们对异常一无所知。例如以下代码的输出就少了一行,但又没有异常发生。
package ThreadStudy.ThreadPool;
import com.sun.org.apache.xpath.internal.operations.Div;
import java.sql.Time;
import java.util.concurrent.LinkedBlockingDeque;
import java.util.concurrent.ThreadPoolExecutor;
import java.util.concurrent.TimeUnit;
public class DivTask implements Runnable {
int a,b;
DivTask(int a , int b){
this.a = a;
this.b = b;
}
@Override
public void run() {
double result = a/b;
System.out.println(result);
}
public static void main(String[] args) {
ThreadPoolExecutor pools = new ThreadPoolExecutor(0,Integer.MAX_VALUE
, 0L,TimeUnit.MILLISECONDS,
new LinkedBlockingDeque<Runnable>());
for (int i = 0; i < 5; i++) {
DivTask div = new DivTask(100,i);
pools.submit(div);
}
}
}
输出:
100.0
50.0
33.0
25.0
- 一种最简单的方式就是弃用submit(),使用execute()方法
//弃用
pools.submit(Thread)
//使用
pools.execute(Thread)
- 或者使用以下方式
Future re= pools.submit(Thread);
re.get();
- 上面两种方法只能得到部分堆栈信息,为什么说是部分,因为从这里的异常堆栈中只能获取到发生异常的位置,但是我们没法知道这个任务是在哪里被提交的,而任务的具体提交位置已经被线程池淹没了。既然如此,我们就要拓展我的ThreadPoolExecutor线程池,在它调度之前保存一下提交任务线程的堆栈信息。
package ThreadStudy.ThreadPool;
import java.util.concurrent.BlockingQueue;
import java.util.concurrent.Future;
import java.util.concurrent.ThreadPoolExecutor;
import java.util.concurrent.TimeUnit;
public class TraceThreadPoolExecutor extends ThreadPoolExecutor {
public TraceThreadPoolExecutor(int corePoolSize, int maximumPoolSize, long keepAliveTime, TimeUnit unit, BlockingQueue<Runnable> workQueue) {
super(corePoolSize, maximumPoolSize, keepAliveTime, unit, workQueue);
}
@Override
public void execute(Runnable command) {
super.execute(wrap(command,clientTrace()));
}
@Override
public Future<?> submit(Runnable task) {
return super.submit(wrap(task,clientTrace()));
}
private Exception clientTrace(){
return new Exception("Client stack trace");
}
private Runnable wrap(final Runnable task , final Exception clientStack){
return new Runnable() {
@Override
public void run() {
try {
task.run();
}catch (Exception e){
clientStack.printStackTrace();
throw e;
}
}
};
}
}
- 上面代码使用wrap方法的第二个参数是一个异常,保存着提交任务的线程的堆栈信息。接下来就使用我们这个拓展的线程池类,就可以看到抛出该异常的任务被提交的位置。
public static void main(String[] args) {
ThreadPoolExecutor pools = new TraceThreadPoolExecutor(0,Integer.MAX_VALUE
, 0L,TimeUnit.MILLISECONDS,
new LinkedBlockingDeque<Runnable>());
for (int i = 0; i < 5; i++) {
DivTask div = new DivTask(100,i);
pools.execute(div);
}
}
java.lang.Exception: Client stack trace
at ThreadStudy.ThreadPool.TraceThreadPoolExecutor.clientTrace(TraceThreadPoolExecutor.java:24)
at ThreadStudy.ThreadPool.TraceThreadPoolExecutor.execute(TraceThreadPoolExecutor.java:15)
at ThreadStudy.ThreadPool.DivTask.main(DivTask.java:33)
Exception in thread "pool-1-thread-1" java.lang.ArithmeticException: / by zero
at ThreadStudy.ThreadPool.DivTask.run(DivTask.java:21)
at ThreadStudy.ThreadPool.TraceThreadPoolExecutor$1.run(TraceThreadPoolExecutor.java:33)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624)
at java.lang.Thread.run(Thread.java:748)
100.0
50.0
33.0
25.0
Process finished with exit code 0
(9)、分而治之:Fork/Join框架
分而治之简单来说就是,你要处理1000条数据,但是你不具备处理1000条数据的能力,那么你可以只处理其中的10条,然后分阶段处理100次,再把这100次的结果合成,最终结果就是对1000个数据处理后的结果。
(10)、Guava中对线程池的拓展
除了JDK内置线程池外,Guava对线程池也进行了一定的扩展,主要体现在MoreExecutors工具类中。
- 特殊的DirectExecutor
它总是将任务在当前任务中直接执行。为什么需要一个这样的线程池呢?这是软件设计上的需要。
从软件设计的角度来说,抽象是软件设计的根本和精髓。将不同业务的相同属性提取并抽象成一个模型将会有利于对不同业务的统一处理。我们总是希望使用通用的代码处理不同的场景,所以就需要对不同的场景进行统一的抽象和建模。
3、不要重复发明轮子:JDK并发容器
(1)、并发集合简介
- ConcurrentHashMap:高效的并发Hashmap,可以理解成线程安全的HashMap
- CopyOnWriteArrayList:在读多写少的场景,性能优于Vector。
- ConcurrentLinkedQueue:高效并发队列,使用链表实现。可以看作线程安全LinkedList。
- BlockingQueue:接口,通过链表和数组实现。阻塞队列,非常适合用作数据共享的通道。
- ConcurrentSkipListMap:跳表的实现。这是一个Map,使用跳表的数据结构进行快速查找。
(2)、有关HashMap的线程安全
通过以下方式产生的HashMap就是线程安全的。
Collections.synchronizedMap(new HashMap<>());
通过mutex进行互斥操作。
SynchronizedMap(Map<K,V> m) {
this.m = Objects.requireNonNull(m);
mutex = this;
}
虽然该类可以满足线程安全的要求,但是对Map的读取和写入,都需要获取mutex锁,这会导致所有对Map的操作都会进入等待状态。而ConcurrentHashMap对并发进行了性能优化,因此更适合多线程场景。
(3)、有关List的线程安全
ArrayList和Vector都使用数组实现的,ArrayList 不是线程安全,Vector是线程安全的。LinkedList使用链表实现了List,但也不是线程安全,参考Collections.synchronizedMap(),我们可以使用Collections.synchronizedList()来包装List
Collections.synchronizedList(new ArrayList<>());
(4)、高效读写队列:ConcurrentLinkedQueue
(5)、高效读取:不变模式下的CopyOnWriteArrayList
- 在很多场景,读操作远远要大于写的操作。比如,有些系统级的信息,往往只需要加载或修改很少次,但是会被系统内所有模块频繁访问,对于这种场景,我们希望的是读操作尽量的快,而写即使慢一点都没什么问题。
- 由于读操作不会修改原有的数据,因此每次读操作都进行加锁是一种资源浪费。我们应该允许多个线程同时访问List,因为读操作是安全的。但是读操作要受到写操作的阻碍,当写发生的时候,读必须等待,否则会读到不一样的数据。同理,读操作在进行过程中,写操作也要被阻塞。
- 为了将性能发挥到极致,
CopyOnWriteArrayList
的读操作之间不需要加锁,并且写也不会阻塞读操作。因为它在进行写操作的时候,创建了一个新的数组进行写操作,写完之后再用这个修改过的副本去覆盖原来的数据。
public boolean add(E e) {
final ReentrantLock lock = this.lock;
lock.lock();
try {
Object[] elements = getArray();
int len = elements.length;
Object[] newElements = Arrays.copyOf(elements, len + 1);
newElements[len] = e;
setArray(newElements);
return true;
} finally {
lock.unlock();
}
}
- 读操作之间没有任何同步控制和锁操作,因为数组不会被修改,只会被替换。
private E get(Object[] a, int index) {
return (E) a[index];
}
/**
* {@inheritDoc}
*
* @throws IndexOutOfBoundsException {@inheritDoc}
*/
public E get(int index) {
return get(getArray(), index);
}
(6)、数据共享通道:BlockingQueue
-
如何进行多线程中的数据共享呢?比如,线程A想给线程B发一条消息,用什么方式更合理呢?
-
当我们希望线程A 通知线程B,但又不希望线程A 知道线程B的存在。这样,如果将来进行重构或者升级,我们完全不用修改A线程,直接把线程B升级成线程C,保证系统的平滑过渡。而这中间的"箱子"就可以用BlockingQueue来实现。
-
BlockingQueue是一个接口,以下是它的实现类。
-
ArrayBlockingQueue是用数组实现的,它适合做有界队列,因为队列的最大容量需要在队列初始化的时候指定(数组的动态扩展不太方便)
-
LinkedBlockingQueue使用链表实现的,它适合做无界队列,因为队列内部的元素可以动态增加,它不会因为初始容量很大,而占据一大半的内存。
-
Blocking是阻塞的意思,当服务线程(指不断获取队列中的消息,进行处理的线程)处理完队列中的所有消息的时候,它如何知道下一条消息何时到来呢?
-
一种最简单的方式是线程按照一定时间间隔不停循环和监控这个队列,这是一种可行的方式,但造成了不必要的资源浪费,而且时间间隔也难以确定。而BlokingQueue解决了这个问题,它会让服务线程在队列为空时进行等待,当有新的消息进入队列后,自动将线程唤醒。
方法名 | 作用 |
---|---|
offer() | 队列满了返回false,否则进行正常的入队操作 |
put() | 队列满了一直等待,否则入队 |
poll() | 队列为空返回null |
take() | 队列为空一直等待元素入队 |
- 因此take和put才是BlockingQueue的关键。
(7)、随机数组结构:跳表(SkipList)
可以用来快速查找的数据结构,有点类似于平衡树,他们都可以对元素进行快速查找。但对平衡树的插入和删除操作往往需要对平衡树进行一次整体的重排,而对跳表的插入和删除只需要对整个数据结构的局部进行操作即可。在高并发的情况下,你需要一个全局锁来保证整个平衡树的安全。而对于跳表来说,只需要使用部分锁就行。
底层链表维护了所有的数据,每上面一层都是下面一层的子集,一个元素插入哪层是完全随机的。
使用跳表实现Map和使用哈希算法实现Map的另一个不同之处是:哈希并不会保存元素的顺序,而跳表会。实现这一数据结构的是ConcurrentSkipListMap
跳表的内部实现由几个关键的数据结构组成。
- Node节点,保存了Key和value,还有指向下一个元素的next
-
使用CAS
-
Index,内部包装了Node,同时增加了向下的引用和向右的引用。
-
HeadIndex,表示链表的头一个Index,它继承Index
4、使用JVM进行性能测试
(1)、什么是JMH
JMH(Java Microbenchmark Harness)