linux 安装hadoop3.2.1基础上安装spark3.0.1

参考文章一
参考文章二

先安装完hadoop3.2.1之后,再安装的spark,基于上面的参考安装,spark要依赖scala,然后配置环境

坑一:ssh权限问题
生成的密钥文件无法修改chattr -ia ~/.ssh/authorized_keys移除无法修改的属性,chmod加权

**坑二:安装完成之后,运行spark-all出现
Unable to initialize main class org.apache.spark.deploy.master.Master
Caused By: java.lang.NoClassDefFoundError: org/apache/log4j/Logger
**
在/etc/profile添加export SPARK_DIST_CLASSPATH=$(/mytool/hadoop/hadoop-3.2.1/bin/hadoop classpath)
也有文章说可以在spark-env.sh 添加

最终的profile配置

# java environment
export JAVA_HOME=/mytool/java/jdk-15.0.1
export CLASSPATH=.:${JAVA_HOME}/jre/lib/rt.jar:${JAVA_HOME}/lib/dt.jar:${JAVA_HOME}/lib/tools.jar
#expo
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值