并发编程的挑战
并发编程的目的是为了让程序运行得更快,但是并不是启动更多的线程就能让程序最大限度地并发执行。在进行并发编程时,如果希望通过多线程执行任务让程序运行得更快,会面临非常多的挑战,比如上下文切换的问题、死锁的问题。以及受限于硬件和软件的资源限制问题。
上下文切换
即使是单核处理器也支持多线程执行代码。通过CPU给每个线程分配时间片来实现。
CPU通过时间片分配算法来循环执行任务,当前任务执行一个时间片后会切换到下一个任务。但是,在切换前会保存上一个任务的状态,以便下次切换回这个任务时,可以再加载这个任务的状态。所以任务从保存到再加载的过程就是一次上下文切换。
多线程一定快吗
下面的代码演示串行和并发执行累加操作的时间,分析:下面代码并发执行一定比串行执行快吗?
public class ConcurrencyTest {
private static final long count = 100001;
public static void main(String[] args)throws InterruptedException{
concurrency();
serial();
}
private static void concurrency() throws InterruptedException{
long start =System.currentTimeMillis();
Thread thread = new Thread(new Runnable() {
@Override
public void run() {
int a = 0;
for( long i = 0; i<count ; i++ ){
a+=5;
}
}
});
thread.start();
int b = 0;
for( long i =0 ; i<count ; i++ ){
b -- ;
}
long time = System.currentTimeMillis() -start;
thread.join();
System.out.println("concurrency :"+time +"ms,b="+b);
}
private static void serial(){
long start = System.currentTimeMillis() ;
int a = 0;
for ( long i = 0; i <count ; i++ ){
a +=5 ;
}
int b = 0;
for(long i = 0;i<count ;i++){
b--;
}
long time = System.currentTimeMillis() -start;
System.out.println("serial: "+ time +"ms ,b"+b +",a= "+a );
}
}
可以发现,当并发执行累加操作不超过百万次时,速度会比串行累加执行累加操作要慢。那么,为什么并发执行的速度会比串行慢呢?这是因为线程有创建和上下文切换的开销。
如何减少上下文切换
减少上下文切换的方法有无锁并发编程、CAS算法、使用最少线程和使用协程。
-
无锁并发编程。多线程竞争锁,会引起上下文切换,所以多线程处理数据时,可以用一些办法来避免使用锁,如将数据的ID按照Hash算法取模分段,不同的线程处理不同段的数据。(减少线程的切换的等待时间,如果有锁,还需要判断锁的状态等,使用无锁减少线程切换的时间,让更多的时间用于线程的逻辑处理。)
-
CAS算法。java的Atomic包使用CAS算法来更新数据,而不需要加锁。
-
使用最少线程。避免创建不需要的线程,比如任务很少,但是创建了很多线程啦处理,这样会造成大量线程都处理等待状态。
-
协程:在单线程里实现多任务的调度,并在单线程里维持多个任务间的切换。
死锁
锁是个非常有用的工具,运用场景非常多,因为它使用起来非常简单,而且易于理解。但同时它也会带来一些困扰,那就是可能会引起死锁,一旦产生死锁,就会造成系统功能不可用。让我们先来看一段代码,这段代码会引起死锁,使线程t1和线程t2互相等待对方释放锁。
public class DeadLockDemo {
private static String A ="A";
private static String B ="B";
public static void main(String[] args) {
new DeadLockDemo().deadLock();
}
private void deadLock(){
Thread t1 =new Thread(new Runnable() {
@Override
public void run() {
synchronized (A){
try{Thread.currentThread().sleep(2000);
}catch (InterruptedException e){
e.printStackTrace();
}
synchronized (B){
System.out.println("1");
}
}
}
});
Thread t2 =new Thread(new Runnable() {
@Override
public void run() {
synchronized (B){
synchronized (A){
System.out.println("2");
}
}
}
});
t1.start();
t2.start();
}
}
这段代码只是演示死锁的场景,在现实中你可能不会写出这样的代码。
但是在一些更为复杂的场景中,你可能会遇到这样的问题,比如t1拿到锁之后,因为一些异常情况没有释放锁(死循环)。又或者是t1拿到一个数据库锁,释放锁的时候抛出了一场,没释放掉。
一旦出现死锁,业务是可感知的,因为不能继续提供服务了,那么只能通过dump线程查看到底是哪个线程出现了问题。一下线程信息告诉我们是DeadLockDemo类的第42行和第31行引起的死锁。
介绍避免死锁的几个常见方法。
- 避免一个线程同时获取多个锁。
- 避免一个线程在锁内同时占用多个资源,尽量保障每个锁只占用一个资源。
- 尝试使用定时锁。使用lock.tryLock(timeout)来代替使用内部锁机制。
- 对于数据库锁,加锁和解锁必须在一个数据库连接里,否则会出现解锁失败的情况。
资源限制的挑战
- 什么是资源限制
资源限制是指在进行并发编程时,程序的执行速度受限制与计算机硬件资源或者软件资源。例如服务器的带宽只有2Mb/s,某个资源的下载速度是1Mb/s美妙,系统启动10个线程下载资源,下载速度不会编程10Mb/s,所以在进行并发编程时,要考虑这些资源的限制。硬件资源限制有带宽的上传/下载速度、硬盘读写速度和CPU的处理速度。软件资源限制有数据库的连接数和socket连接数等。
- 资源限制引发的问题
在并发编程中,将代码执行速度加快的原则是将代码中串行执行的部分编程并发执行,但是如果将某段串行的代码并发执行,因为受限于资源,仍然在串行执行,这时候程序不仅不会加快执行,反而会更慢,因为增加了上下文切换和资源调度的时间。
- 如何解决资源限制的问题
对于硬件资源限制,可以考虑使用集群并行执行程序。既然单机的资源有限制,那么就让程序在多机上运行。比如使用ODP S、Hadoop或者自己搭建服务器集群,不同的机器处理不同的数据。可以通过“数据ID%机器数”,计算得到一个机器编号,然后由对应编号的机器处理这笔数据。
对于软件资源限制,可以考虑使用资源池将资源复用。比如使用连接池将数据库和socket连接复用,或者在调用对方webservice接口获取数据时,只建立一个连接。
- 在资源限制情况下进行并发编程
如何在资源限制的情况下,让程序执行得更快呢?方法就是,根据不同的资源限制调整程序的并发度,比如下载文件程序依赖于两个资源——带宽和硬盘读写速度。有数据库操作时,涉及数据库连接数,如果SQL语句执行非常快,而线程的数量比数据库连接数大很多,则某些线程会被阻塞,等待数据库连接。