spark 4040端口_查看Spark任务的详细信息

本文介绍了如何通过Spark的4040端口观察运行时任务的详细信息,包括DAG、stage和task。当任务完成后,通过配置和启动历史任务服务,可以访问18080端口查看已完成任务的记录,以便于学习和研究Spark。
摘要由CSDN通过智能技术生成

欢迎访问我的GitHub

这里分类和汇总了欣宸的全部原创(含配套源码):https://github.com/zq2599/blog_demos

在学习Spark的过程中,查看任务的DAG、stage、task等详细信息是学习的重要手段,在此做个小结;

环境信息

本文对应的环境信息如下:

  1. CentOS Linux release 7.5.1804
  2. JDK:1.8.0_191
  3. hadoop:2.7.7
  4. spark:2.3.2

参考文档(准备环境用到)

搭建hadoop、spark、运行耗时任务,请参考以下文章:

  1. on Yarn模式部署Spark集群:《部署Spark2.2集群(on Yarn模式)》
  2. 开发一个比较耗时的计算任务:《spark实战之:分析维基百科网站统计数据(java版)》

经过以上准备,我们就有了一个可以用的Spark集群环境,并且计算任务也准备好了。

观察运行时任

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值