Spark基础笔记之启动命令顺序

系统环境(三台虚拟机)

node1 192.168.32.101(主)
node2 192.168.32.102
node3 192.168.32.103

1、启动hdfs、yarn、historyserver(hadoop用户启动)

# 启动dfs,启动后的服务名: DataNode、SecondaryNameNode、NameNode
sh /export/hadoop/sbin/start-dfs.sh 

# 启动yarn,启动后的服务名: NodeManager、ResourceManager
sh /export/hadoop/sbin/start-yarn.sh 

 # 启动历史日志,启动后的服务名: JobHistoryServer
/export/hadoop/bin/mapred --daemon start|stop historyserver

2、启动zookeeper、spark、historyserver(hadoop用户启动)

# 启动zookeeper,三台均启动,启动后服务:QuorumPeerMain
sh /export/zookeeper/bin/zkServer.sh start   

# 启动后服务:Worker、Master 
# 监控页面默认8080被占用则顺延:http://node1:8081/
sh /export/spark/sbin/start-all.sh  

# 启动历史日志,启动后的服务名:HistoryServer
# 监控页面访问地址:http://node1:18080
sh /export/spark/sbin/start-history-server.sh

3、spark任务运行后,Driver绑定到4040端口提供监控页面:

# 运行后 访问监控页面:http://node1:4040/
cd /export/server/spark/bin/
./pyspark 
./spark-submit --master local[*] /export/server/spark/examples/src/main/python/pi.py 10

4、spark应用层级关系

pyspark 应用程序 --> Job子任务 --> 多个阶段运行 --> 多个Task去干活

  • 4
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

java刘先生

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值