超详细的Spark任务流程图带你走进Spark!

一道简单的命令下去 … … 10秒过去了, … … 20秒过去了, … … 哇,报错了。。。
相信这种场景在我们用 Mapreduce 处理数据的时候相当常见吧,不得不说,Mapreduce 的处理速度有时候真的让我们不敢恭维,那么我们今天就来学习一下号称比它快了 N 倍的Spark。

先来看一下Spark的整体任务流程图
第一步:调用RDD上的方法构建DAG
第二步:DAGSchedule将Stage切分,并将生成的Task以TakeSet的形式传给TaskScheduler
第三步:TaskSchedule调度Task(根据资源情况调度到相应的Executor中)
第四步:Executor接收Task,并将Task丢入到线程池中执行

以上便是Spark任务的整体流程了,如果发现有什么错误或者什么不同的见解,欢迎在评论区给我留言!

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值