Hadoop 提交任务执行流程总结

用流水线可表示任务执行流程如下:

input(k1,v1) -> map -> (k2,v2) -> combine -> shuffle(partitioner) -> sort -> (k2,v2) -> reduce -> (k3,v3) ->output

接着来段大白话,聊一聊:
一,input
(通过FileInputFormat设置),此步主要工作:验证输入形式,调用InputSplit决定map个数,并通过RecordReader用于输入记录;
二,map
(把输入的(k1,v1)分割成n个(k2,v2)),此步主要工作: setup初始化map工作例如打开文件,map例如把一行分割成(word,1)的(k,v)形式,用于后面reduce词频统计,cleanup收尾map工作例如关闭文件;
三,combine
此步主要工作:对map操作过后的(k2,v2),按键值进行归并,也就是把key值相同的的value归并成一个values_list,此步是在map端进行,但是仅仅做归并操作,并没有多余的操作,目的是不让数据太分散,减少数据传输的网络开销;
四,shuffle
(这个词,记了好几次...也怪我记性差~_~!!)此处用partitioner就好记喽,此步主要工作:对combine后的结果进行分区操作,使具有相关性的数据发送到相同reduce节点上,避免具有相关性数据分散在不同reduce节点上,导致reduce计算过程中还得去访问其他reduce节点,降低运算效率;
五,sort
此步主要操作:map处理过后的数据在进行reduce操作之前,进行排序操作,其过程为map过后,对分散存储的数据进行快速排序,然后通过归并排序把分散的数据存入一个大文件;
六,reduce
对(k2,v2)进行操作,其中v2指value_list,例如词频统计对(value_list数据进行累加),同map包括(setup, reduce, cleanup)
七,output
(通过FileOutputFormat设置),此步主要把任务数据存储起来,其中包括recordWriter对输出进行记录
这一过程中系统参数设置如下:

点击(此处)折叠或打开

  1. job.setJarByClass(Unique.class);//设置任务执行类
  2. job.setMapperClass(UniMapper.class);//设置map类
  3. job.setCombinerClass(UniReduce.class);//设置reduce类
  4. job.setReducerClass(UniReduce.class);//设置combine类
  5. job.setOutputKeyClass(Text.class);//设置程序输出k类型
  6. job.setOutputValueClass(Text.class);//设置任务输出v类型
  7. FileInputFormat.addInputPath(job, new Path(args[0]));//输入路径
  8. FileOutputFormat.setOutputPath(job, new Path(args[1]));//输出路径

参考链接:
http://hadoop.apache.org/docs/r2.6.0/hadoop-mapreduce-client/hadoop-mapreduce-client-core/MapReduceTutorial.html
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值