查看spark任务日志

 spark运行的任务往往通过web来查看,但是,当运行的是sparkStreaming任务时,日志往往会很大,web查看并不方便,因此需要定位到服务器上去看。下面将分别介绍两种查看driver端和executor端日志的方式。

一、web端日志的查看:
下面是四个yarn调度spark任务的web总界面:

点击第一个任务:application_1509845442132_3866  进入下面界面,右下角记录的日志其实就是driver端的日志,driver端在打了马赛克的那个节点上。

另外我们还可以查看executor节点上的日志。上图打开applicationMaster将跳转到spark的任务调度总界面

点开executor后可以看到四个executor,和一个driver。日志见右侧。stdout是自己定义println的输出日志,stderr是spark输出的规范日志。

二、服务器端日志查看
    sparkStreaming的任务日志往往很大,web查看并不方便。因此需要我们定位到服务器上查看。前面web可以看到那个节点是driver。driver端的日志一般在如下目录:/yarn/container-logs/

万一不知道具体在哪个目录,可以直接find下: find / -name "application_1509845442132_3866"

对应的executor日志同样用此方式在服务器上找。

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值