spark 日志清理问题

jar 包在spark的 standalone 的 cluster 模式下执行

报错如下

2018-06-04 16:08:37 ERROR ClientEndpoint:70 - Exception from cluster was: java.io.IOException: Failed to create directory /usr/lib/spark/work/driver-20180604160832-0001
java.io.IOException: Failed to create directory /usr/lib/spark/work/driver-20180604160832-0001
    at org.apache.spark.deploy.worker.DriverRunner.createWorkingDirectory(DriverRunner.scala:141)
    at org.apache.spark.deploy.worker.DriverRunner.prepareAndRunDriver(DriverRunner.scala:172)
    at org.apache.spark.deploy.worker.DriverRunner$$anon$1.run(DriverRunner.scala:92)

错误原因

spark-submit 提交任务时,会指定jar包的位置,spark会为每一个提交的application生成一个文件夹,默认位于$SPARK_HOME/work目录下,用以存放从HttpFileServer下载下来的第三方库依赖及Executor运行时生成的日志信息。这样容易导致硬盘空间不足

解决方法:

1.暴力删除,使用rm -r删除work文件,再重新创建一个

2.修改spark-env.sh,添加下面的配置

SPARK_WORKER_OPTS=”-Dspark.worker.cleanup.enabled=true
当程序停止后,对应的程序文件夹会被清理掉


  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值