MR作业提交全过程

YARN作业提交全过程(详细)

client调用job.waitForCompletion方法,向整个集群提交MapReduce作业 (第1步) 。 新的作业ID(应用ID)由资源管理器分配(第2步).
作业的client核实作业的输出, 计算输入的split,将作业的资源(包括Jar包, 配置文件, split信息)拷贝给HDFS(第3步). 最后, 通过调用资源管理器的submitApplication()来提交作业(第4步).
当资源管理器收到submitApplication()的请求时, 就将该请求发给调度器(scheduler), 调度器分配container, 然后资源管理器在该container内启动应用管理器进程, 由节点管理器监控(第5a和5b步)。


MapReduce作业的应用管理器是一个主类为MRAppMaster的Java应用。其通过创造一些bookkeeping对象来监控作业的进度,
得到任务的进度和完成报告(第6步)。然后其通过分布式文件系统得到由客户端计算好的输入split(第7步)。然后为每个输入split创建一个map任务,
根据mapreduce.job.reduces创建reduce任务对象。


  如果作业很小,应用管理器会选择在其自己的JVM中运行任务。如果不是小作业, 那么应用管理器
  向资源管理器请求container来运行所有的map和reduce任务(第8步). 这些请求是通过心跳来传输的,

包括每个map任务的数据位置, 比如存放输入split的主机名和机架(rack). 调度器利用这些信息来调度任务,

尽量将任务分配给存储数据的节点, 或者退而分配给和存放输入split的节点相同机架的节点.

 当一个任务由资源管理器的调度分配给一个container后, 应用管理器通过联系节点管理器来启动
 container(第9a步和9b步). 任务由一个主类为YarnChild的Java应用执行.

在运行任务之前首先本地化任务需要的资源, 比如作业配置, JAR文件, 以及分布式缓存的所有文件(第10步). 最后,
运行map或reduce任务(第11步). YarnChild运行在一个专用的JVM中, 但是YARN不支持JVM重用.
YARN中的任务将其进度和状态(包括counter)返回给应用管理器,客户端每秒(通过mapreduce.client.progressmonitor.pollinterval设置)向应用管理器请求进度更新,展示给用户。
除了向应用管理器请求作业进度外,客户端每5分钟都会通过调用waitForCompletion()来检查作业是否完成。时间间隔可以通过mapreduce.client.completion.
pollinterval来设置。作业完成之后, 应用管理器和container会清理工作状态,
OutputCommiter的作业清理方法也会被调用。作业的信息会被作业历史服务器存储以备之后用户核查。

作业提交过程之MapReduce

shuffle执行过程分为两个核心环节 mapShuffle reduceShuffle
job提交数据任务,根据客户提交的切片决定maptask的次数,map读取job提交的数据,输出格式为key/value的形式,对键值对进行一个默认的分区,每一个map任务分配一个缓存,缓存默认大小是100m当缓存到达80%时会启动溢写操作,在写入我文件之前对键值对进行分区排序合并,,默认分区是hash函数对key进行哈希在对reduce的数量取模,也可以按照需求自定义分区,默认会对key的一个字典排序,排序结束后有一个可选的合并(combine)的操作,一般在累加最大的值得场景上使用。溢出的文件时分区且区内有序的,最后对所以溢写文件进行一个归并操作。如果磁盘中生生产溢写文件的数量超过min.num.spills.for.combine的值时(默认是3,用户可以修改)就可以再次运行combiner对数据进行合并,从而减小写入磁盘的数据量。map端shuffle过程结束,通知相关的Reduce任务来拉取数据,并把数据放到缓存中,缓存内容达到80%的时候同样执行溢写操作,生产溢写文件,把这些溢写文件归并成一个大文件需要多轮归并操作,每轮归并操作的文件数由参数io.sort.factor来决定(默认是10,可以修改)然后输出到Reduce任务进行最终的一个输出数

Hdfs写数据流程

1)客户端向namenode请求上传文件,namenode检查目标文件是否已存在,父目录是否存在。 2)namenode返回是否可以上传。
3)客户端请求第一个 block上传到哪几个datanode服务器上。NN
4)namenode返回3个datanode节点,分别为dn1、dn2、dn3。
5)客户端请求dn1上传数据,dn1收到请求会继续调用dn2,然后dn2调用dn3,将这个通信管道建立完成。
6)dn1、dn2、dn3逐级应答客户端
7)客户端开始往dn1上传第一个block(先从磁盘读取数据放到一个本地内存缓存),以packet为单位,dn1收到一个packet就会传给dn2,dn2传给dn3;dn1每传一个packet会放入一个应答队列等待应答
8)当一个block传输完成之后,客户端再次请求namenode上传第二个block的服务器。(重复执行3-7步)

Hdfs数据流程

1、跟namenode通信查询元数据,找到文件块所在的datanode服务器
2、挑选一台datanode(就近原则,然后随机)服务器,请求建立socket流
3、datanode开始发送数据(从磁盘里面读取数据放入流,以packet(包)为单位来做校验)
4、客户端以packet为单位接收,现在本地缓存,然后写入目标文件

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Git 是一种分布式版本控制系统,通过Git 可以对代码进行版本管理和协作开发。在Git 中,我们可以利用分支(Branch)来进行不同功能或任务的开发,而 MR(Merge Request)则是用来提交将某个分支的代码合并到另一个分支的请求。 当我们在开发某个功能或解决某个问题,我们通常会在本地创建一个新的分支,并在该分支上进行修改和开发。完成后,我们可以将这个分支推送到远程仓库中,并通过 MR 请求将这个分支的代码合并到主分支或其他特定的分支上。 提交 MR 的过程通常包括以下几个步骤: 1. 在本地完成开发并测试通过后,首先将本地分支推送到远程仓库,确保其他人可以看到和review你的代码。 2. 在远程仓库中找到你刚刚推送的分支,点击创建 MR 的按钮或链接。 3. 在创建 MR 的页面中,选择要将代码合并到的目标分支,并填写一些描述和解释。这些描述可以包括你对代码出的修改、解决的问题、背后的想法和原因等。 4. 提交 MR 请求后,其他开发人员就可以看到你的请求,并对这些代码进行审查、讨论和提出改进意见。 5. 如果审查通过,代码没有问题,管理员会将代码合并到目标分支中。如果有问题,你可能需要继续修改代码,直到问题得到解决。 通过提交 MR,我们可以有效地进行团队协作,确保代码质量和稳定性,避免不同分支之间的冲突。同,MR 也是开发者之间相互学习和交流的机会,可以通过审查和讨论更好地改进自己的代码和工作方式。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值