spark莫名其妙的错误

描述

我在服务器上自己的用户下安装了spark单节点,解压,在.bashrc中配置一下SPARK_HOMEPATH就可以了,在其他的节点,这样做一点问题都没有,但是移动到一个公共的节点(很多人在用root账户)就失败了,spark-shell报无法连接的错误,pyspark报莫名其妙的错误(py4j.protocol.Py4JJavaError)。

解决

其实这个错误很意外,主要是有人再使用root的用户的时候,将一些配置文件写入到了/etc/profile中,导致了我的spark采用了这些配置,其中最主要的是HADOOP_CONF_DIR,因为我的spark单节点是没有使用hadoop

cp spark/conf/spark-env.sh.temple spark/conf/spark-env.sh
# 添加
export HADOOP_CONF_DIR=""

备注

最好将所有配置文件写到对应用户的.bashrc 中,而不要写到/etc/profile

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值