Spark相关

1、Spark产生临时文件问题

spark产生两类临时文件,一种是work目录下的临时文件,另一种是/tmp下的*_lock,*_cache文件,前一种临时文件是spark运行程序时需要加载到内存中的数据。这两种文件不及时处理,能分分钟撑爆你的磁盘,对于work目录下的文件,只需在conf文件中加入export SPARK_WORKER_OPTS=”-Dspark.worker.cleanup.enabled=true”就能很好的处理,后一种就必须要人工定时去删了,可以写定时shell脚本,不过听说spark更高版本会对这个bug进行修复。

2、spark运行程序出现jvm溢出的情况

具体还不知道是什么原因,可能是跟每个driver设置的jvm大小有关。

3、spark自动删除临时文件

配置文件添加

export SPARK_WORKER_OPTS="-Dspark.worker.cleanup.enabled=true"
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值