首先修改配置文件:
scp -r spark-2.3.1/ marshal05:$PWD
spark-env.sh
这里不设置端口也默认为7077
slaves,用于指定子节点。
将配置好的文件分发到其他机器上:
scp -r spark-2.3.1/ marshal05:$PWD
接下来我们就要用start-all.sh启动多台机器上的spark,他会在执行这个脚本的机器上启动一个Master,然后读取slaves文件,在对应的机器上通过ssh协议启动Worker
我们可以通过web页面查看集群的资源和情况。
这里的8080是spark集群的管理页面的端口。707