第一章 并发编程的挑战
上下文切换
即使是单核处理器也支持多线程执行代码,CPU通过给每个线程分配时间片来实现这个机制。时间片是CPU分配给各个线程的时间,因为时间片非常短,所以CPU通过不停的切换线程执行,让我们感觉是多个线程同时执行的,时间片一般是几十毫秒。CPU通过时间片分配算法来循环执行任务,当前任务执行一个时间片后会切换到下一个任务。
但是在切换前需要保存上一个任务的状态,以便下次切换回这个任务的时候,可以再加载这个任务的状态。所以,任务从保存到再加载的过程就是一次上下文切换。
这样切换会影响多线程的执行速度。
多线程一定快么?
这个是不一定的,在并发操作量不大的情况下,多线程并发执行的速度可能没有串行执行的快,因为线程在创建和上下文切换时有额外的开销。
如何减少上下文切换
- 无锁并发编程
多线程竞争锁时,会引起上下文切换,所以多线程处理数据时,可以用一些办法来避免使用锁,如将数据的ID按照Hash算法取模分段,不同的线程处理不同段的数据。(这个不太懂,需要摸索一番) - CAS算法
JAVA的Atomic包使用CAS算法来更新数据,而不需要加锁。 - 使用最少线程
避免创建不需要的线程,比如任务很少,但是创建了很多线程来处理,这样会造成大量线程都处于等待状态 - 使用协程
在单线程里实现多任务调度,并在单线程里维持多个任务的切换。
死锁
public class DeadLockDemo {
private static String A="A";
private static String B="B";
private void deadLock(){
Thread thread1 = new Thread(){
@Override
public void run() {
synchronized (A){
try {
Thread.currentThread().sleep(2000);
} catch (InterruptedException e) {
e.printStackTrace();
}
synchronized (B){
System.out.println("1");
}
}
}
};
Thread thread2 = new Thread(){
@Override
public void run() {
synchronized (B){
synchronized (A){
System.out.println("w");
}
}
}
};
thread1.start();
thread2.start();
}
public static void main(String[] args) {
new DeadLockDemo().deadLock();
}
}
这段代码演示了死锁的场景。
有几种避免死锁的常见方法:
- 避免一个线程同时获取多个锁
- 避免一个线程在锁内同时占用多个资源,尽量保证每个锁只占用一个资源
- 尝试使用定时锁,使用lock.tryLock(timeout)来替代使用内部锁机制。(不理解)
- 对于数据库锁,加锁和解锁都必须在一个数据库连接里,负责会出现解锁失败的情况。
说明
本文是读java并发编程的艺术做的笔记。