1.上传spark-2.2.2-bin-hadoop2.7.tgz
2.解压文件
tar -zxvf spark-2.2.2-bin-hadoop2.7.tgz -C /usr/local/
3.进入conf/下把spark-env.sh.template改为spark-env.sh
cd /usr/local/spark-2.2.2-bin-hadoop2.7/conf/
mv spark-env.sh.template spark-env.sh
4.修改配置文件 spark-env.sh
1.编辑 spark-env.sh
vi spark-env.sh
2.修改内容如下
export JAVA_HOME=/usr/local/jdk1.8.0_211
export SPARK_MASTER_HOST=hadoop01
export SPARK_MASTER_PORT=7077
5.把slaves.template改为slaves
mv slaves.template slaves
6.修改配置文件slaves
1.编辑 slaves
vim slaves
2.修改内容如下