完全分布式Hadoop搭建可参考一下网址
https://blog.csdn.net/weixin_44168245/article/details/118941000
搭建spark集群
先创建一个sparkCluster文件夹
将spark包解压至sparkCluster中
将解压后的文件名重命名为spark,同时把spark文件夹的权限赋给hadoop用户和hadoop组,最后配置环境变量
配置slaves文件和spark-env.sh文件(slaves文件设置Worker节点)
将 slaves.template 拷贝到 slaves,编辑slaves内容,把默认内容localhost替换成slave1,slave2
将 spark-env.sh.template 拷贝到 spar