配置 spark 历史服务器

Spark-shell 没有退出之前, 我们是可以看到正在执行的任务的日志情况,一旦任务执行结束,web-ui 就不能看到历史任务,需要额外配置历史服务器

1. 配置 spark-default.conf 文件, 开启 Log

// 创建 Log
hadoop fs -mkdir hdfs://hadoop1:9000/spark-job-log
[hadoop@hadoop1 apps]$ cd spark-2.2.0/conf/
[hadoop@hadoop1 conf]$ cp spark-defaults.conf.template spark-defaults.conf
[hadoop@hadoop1 conf]$ vim spark-defaults.conf

spark.eventLog.enabled           true
spark.eventLog.dir               hdfs://hadoop1:9000/spark-job-log

注意: hdfs://hadoop1:9000/spark-job-log 需要提前创建

2. 修改 spark-env.sh文件

[hadoop@hadoop1 conf]$ vim spark-env.sh 

# history server
export SPARK_HISTORY_OPTS="-Dspark.history.ui.port=18080 -Dspark.history.retainedApplications=30 -Dspark.history.fs.logDirectory=hdfs://hadoop1:9000/spark-job-log"

3. 分发到其他节点

[hadoop@hadoop1 apps]$ sh xscp.sh /home/hadoop/apps/spark-2.2.0/conf/spark-env.sh 
[hadoop@hadoop1 apps]$ sh xscp.sh /home/hadoop/apps/spark-2.2.0/conf/spark-defaults.conf

4. 开启历史服务器

[hadoop@hadoop1 apps]$ ./spark-2.2.0/sbin/start-history-server.sh 
starting org.apache.spark.deploy.history.HistoryServer, logging to /home/hadoop/apps/spark-2.2.0/logs/spark-hadoop-org.apache.spark.deploy.history.HistoryServer-1-hadoop1.out

[hadoop@hadoop1 apps]$ sh xcall.sh jps
============= hadoop@192.168.131.137 jps =============
2017 NodeManager
6546 HRegionServer
1685 DataNode
7431 HistoryServer      // 历史服务器进程
1912 ResourceManager
7483 Jps
4907 SparkSubmit
6414 HMaster
2399 QuorumPeerMain
1583 NameNode

Web-Ui 地址:http://192.168.131.137:18080/

注意:需要先启动 HDFS

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

风老魔

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值