进入spark的conf目录
[root@master conf]#cd /usr/cstor/spark/conf
复制文件
[root@master conf]# cp slaves.template slaves
编辑配置文件,把文件里面的localhost删除
[root@master conf]# vim slaves
slave1
slave2
复制文件
[root@master conf]# cp spark-env.sh.template spark-env.sh
编写配置文件spark-env.sh,配置hadoop和jdk
[root@master conf]# vim spark-env.sh
把文件分发给slave1 和slave2
[root@master conf]# scp -r /usr/cstor/spark/ root@slave1:/usr/cstor
[root@master conf]# scp -r /usr/cstor/spark/ root@slave2:/usr/cstor
启动spark
[root@master conf]# sbin/start-all.sh
[root@master conf]# jps
327 NameNode
754 SecondaryNameNode
3040 Jps
557 DataNode
2791 Master
1539 HMaster