1.SPARK的local模式原理
local[4]的角色图,两个程序可以运行
运行spark local[*]模式
也可以向spark中提交已经写好的python程序,spark- submit
local模式总结
2.SPARK的standalone原理
spark的standalone环境配置,主要是spark-env.sh,在worker文件里面指定workers,配置好之后要分发到其他节点上,3台服务器,一台是master和worker,另外两台均为worker。
运行sbin/start-all.sh之后,会打开集群所有节点,这里可以查看网页的端口,node1:8080。
3.SPARK程序运行层次结构
一个spark程序的运行层次
4040相当于application
小结
4.standalone的HA模式运行原理
High Availability(高可用)
配置中将master注释掉,并添加上HA模式,在第一个alive的master被kill之后,会第二个standby的master激活。