单机版的配置我的另一篇博客有单独描述,附上链接:
https://blog.csdn.net/weixin_43729499/article/details/103857948
1、在集群单机版的配置基础上,配置分布式环境
增加以下配置信息:
①、vim spark-env.sh
export SPARK_MASTER_HOST=Master的节点信息
②、vim slaves
Slaves 节点信息
此处直接写入从节点名称或IP即可
2、修改完配置信息后,把master节点上的spark文件夹复制发送到各个slave节点上
scp -r FFF 用户名@slave节点:/XXX
FFF:要发送的文件所在路径
XXX:指定从节点存放文件的路径
3、启动Hadoop集群
先进入Hadoop的sbin目录下
在此目录下执行 ./start-all.sh
4、启动master节点同样在sbin目录下
./start-master.sh
5、启动slave节点
sbin目录下 ./start-slaves.sh
6、web浏览器查看集群信息(http://master:8080)
master为master的IP