Spark配置日志服务器

  1. 复制spark.default.conf.template到spark.default.conf
  2. 将以下内容添加到spark.default.conf中

    spark.eventLog.enabled           true
    spark.eventLog.dir                    hdfs://namenode:8021/directory
  3. 修改spark.env.sh

    export SPARK_HISTORY_OPTS="-Dspark.history.ui.port=4000 -Dspark.history.retainedApplications=3 -Dspark.history.fs.logDirectory=hdfs://namenode:8021/directory"
    spark.eventLog.dir:Application 在运行过程中所有的信息均记录在该属性
    指定的路径下;
    spark.history.ui.port=4000 调整 WEBUI 访问的端口号为 4000
    spark.history.fs.logDirectory=hdfs://master01:9000/directory 配 置 了 该 属性后,在 start-history-server.sh 时就无需再显式的指定路径,Spark History Server页面只展示该指定路径下的信息spark.history.retainedApplications=3 指定保存 Application 历史记录的个数,如果超过这个值,旧的应用程序信息将被删除,这个是内存中的应用数,而不是页面上显示的应用数。
  4. 将所有修改文件同步其他节点
  5. 在master上启动集群,在master上启动日志服务器(sbin/start-history-server.sh),在4000端口可查
到此为止,Spark History Server 安装完毕.
如果遇到 Hadoop HDFS 的写入权限问题:
org.apache.hadoop.security.AccessControlException
解决方案: 在 hdfs-site.xml 中添加如下配置,关闭权限验证
<property>
    <name>dfs.permissions</name>
    <value>false</value>
</property>
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值