(8)Spark 2.0.0 查看job 历史日志

1.引言

      在使用Spark的时候,有时候我们会关注job的历史日志,但是在Spark中默认情况下,历史日志是关闭的,在本篇博客中主要介绍一下如何启动spark的历史日志。

      博主的环境为:

  • 操作系统为Centos6.7
  • Hadoop版本为2.6.1
  • Hadoop安装目录为:/usr/local/hadoop
  • HDFS的地址为:hdfs://localhost:9000
  • Spark的版本为:2.0.0,且Spark是伪分布安装。

2. 启动Spark历史日志

2.1 安装Spark

      如何安装Spark的伪分布,请参考博文:Spark 2.0.0 伪分布安装

2.2 修改配置文件spark-defaults.conf

//将模板文件修改为配置文件
cp spark-defaults.conf.template spark-defaults.conf
//修改的配置信息
spark.eventLog.enabled true 
//设置hdfs的目录,需要和自己hadoop的目录匹配
spark.eventLog.dir hdfs://localhost:9000/var/log/spark 
spark.eventLog.compress true

这里写图片描述

这里写图片描述

2.3 修改配置文件spark-env.sh

//配置文件最后加入
export SPARK_HISTORY_OPTS="-Dspark.history.ui.port=18080 -Dspark.history.retainedApplications=3 -Dspark.history.fs.logDirectory=hdfs:/localhost:9000/var/log/spark"

这里写图片描述

2.4 创建日志目录

      Spark不会自动创建日志文件夹,因此需要我们自己创建

//首先进入hadoop的bin目录
cd /usr/local/hadoop/bin
//创建文件夹命令
./hadoop fs -mkdir /var
./hadoop fs -mkdir /var/log
./hadoop fs -mkdir /var/log/spark

2.5 启动spark历史日志web端

//进入spark的bin目录
cd /usr/local/spark/sbin
//如果spark集群正在启动,首先停止集群
./stop-all.sh
//重新启动集群
./start-all.sh
//启动job历史端口
./start-history-server.sh

2.6 浏览器查看是否启动成功

这里写图片描述

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值