问题说明
这个问题可以概括为两个:集群上运行spark任务,本身还有很多代码需要执行,但是突然spark任务就结束了,而且没有报错,是正常结束。
也可以概括为:多线程任务,main线程本应在子线程结束后再结束,但是子线程还没有结束,main线程在跑完所有代码后就结束了。通常情况下,main线程里面只写t1.start();
,也就是说,在调用完子线程后,main线程就结束了。
实际例子
最近有一个需求,在spark集群上运行一个任务,这个任务是多线程的,伪代码如下:
public class TestMain {
public static void main(String[] args) {
Thread t1 = new Thread( new A(1));
Thread t2 = new Thread( new A(2));
t1.start();
t2.start();
System.out.println("start");
}
}
class A implements Runnable{
private int num;
public A(int num) {
this.num = num;
}
public void run() {
for (int i = 0; i < 10000; i++) {
System.out.println( num + " - " + i );
}
}
}
正常情况下,代码应该输出start然后打印数字。也就是说,main线程会在t1、t2线程执行完毕后才结束。
集群上运行
在本地测试的时候,我也跑通了,但是实际测试的时候,就出问题了。
程序总是在结束的很快,块到子线程根本没有跑完。而因为极短时间内结束,我还没有创建SparkContext对象,所以报错是: User did not initialize spark context
。在我将创建SparkContext对象的代码前移后,不报错了,但是程序仍然结束的很快。
后来百度了半天,也没啥结果。最后无意中发现任务结束的时间和main线程中所有的线程start后的时间是非常接近的。如果读不懂这句话,看下面的代码:
public class TestMain {
public static void main(String[] args) {
Thread t1 = new Thread( new A(1));
Thread t2 = new Thread( new A(2));
t1.start();
t2.start();
// 集群上的任务结束的时间,和下面的时间非常接近。
System.out.println(new Date());
}
}
这种情况,明显就是:主线程在执行完所有任务后就结束了,并不是等待子线程结束后再结束。在网上百度也没找到什么解释,所以在这里写一下。
解决方案
我也没想出来啥太好的解决方案,最后想到的办法是:在main线程中加一个while循环,当所有子线程都结束以后,才跳出循环。这样main线程就可以在所有子线程结束后再结束。
具体见代码:
这就需要用到isAlive(),当线程还在运行,返回true;当线程结束了,就返回false。
public class TestMain {
public static void main(String[] args) throws InterruptedException {
Thread t1 = new Thread( new A(1));
Thread t2 = new Thread( new A(2));
t1.start();
t2.start();
// 只要还有一个子线程运行,就继续循环
while( t1.isAlive() || t2.isAlive() ){
// 为了节省资源,隔一段时间再去检测一次线程的状态
Thread.sleep(10 * 1000);
}
}
}
或者也可以使用getState(),不过这个方法返回的是State类型的对象,如果要用于比较的话,还得把他转化成字符串在进行比较,这种方法太麻烦,这里就不多说了。