1.上传spark-2.2.2-bin-hadoop2.7.tgz
2.解压文件
tar -zxvf spark-2.2.2-bin-hadoop2.7.tgz -C /usr/local/
3.进入conf/下把spark-env.sh.template改为spark-env.sh
cd /usr/local/spark-2.2.2-bin-hadoop2.7/conf/
mv spark-env.sh.template spark-env.sh
4.修改配置文件 spark-env.sh
1.编辑 spark-env.sh
vi spark-env.sh
2.修改内容如下
export JAVA_HOME=/usr/local/jdk1.8.0_211
export SPARK_MASTER_HOST=hadoop01
export SPARK_MASTER_PORT=7077
5.把slaves.template改为slaves
mv slaves.template slaves
6.修改配置文件slaves
1.编辑 slaves
vim slaves
2.修改内容如下

本文详细介绍了如何安装Spark 2.2.2版本,包括上传安装包、解压、配置环境变量、修改配置文件如spark-env.sh和slaves,以及最后的分发和确认步骤。
最低0.47元/天 解锁文章
381

被折叠的 条评论
为什么被折叠?



