MapReduce核心思想及其步骤原理

1.1MapReduce核心思想

分而治之,先分后和:将一个大的、复杂的工作或任务,拆分成多个小任务,最终合并。

MapReduce是由MapRedecu组成

Map:将数据进行拆分
Reduce:对数据进行汇总
在这里插入图片描述

1.2偏移量

行首字母或字符移动到当前文件的最前面需要移动的字符个数

在这里插入图片描述

1.3Hadoop与Java数据类型对比

Java类型:int、long、double, float、 boolean、 string
Hadoop类型:IntWritable、LongWritable、DoubleWritable、FloatWritable、BooleanWritable、[Text]、NullWritable

1.4MapReduce输出理解

Map的输出是key value 的list
Reduce的输出是key value的list

1.5MapReduce计算任务的步骤(要深刻理解)

1InputFormat
InputFormat 到hdfs上读取数据
将数据传给Split
2Split
//设置读取数据的路径 TextInputFormat.addInputPath(job,new Path(“C:\bbb.txt”)); //3、设置Map job.setMapperClass(WordCountMap.class); //设置map输出的类型 job.setMapOutputKeyClass(Text.class); job.setMapOutputValueClass(LongWritable.class); //4、设置reduce代码 job.setReducerClass(WordCountReduce.class); //设置reduce输出的类型 job.setOutputKeyClass(Text.class); job.setOutputValueClass(LongWritable.class); //5、设置读输出数据的class job.setOutputFormatClass(TextOutputFormat.class); //设置输出数据的路径 TextOutputFormat.setOutputPath(job,new Path(“C:\ccc.txt”)); //6、等待代码执行(返回状态码) return job.waitForCompletion(true)?0:1;
Split将数据进行逻辑切分
将数据传给RR
3RR
RR:将传入的数据转换成一行一行的数据,输出行首字母偏移量和偏移量对应的数据
将数据传给MAP
4MAP
MAP:根据业务需求实现自定义代码
将数据传给Shuffle的partition
5partition
partition:按照一定的分区规则,将key value的list进行分区。
将数据传给Shuffle的Sort
6Sort
Sort:对分区内的数据进行排序
将数据传给Shuffle的combiner
7combiner
combiner:对数据进行局部聚合。
将数据传给Shuffle的Group
8Group
Group:将相同key的key提取出来作为唯一的key,
将相同key对应的value获取出来作为value的list
将数据传给Reduce
9Reduce
Reduce:根据业务需求进行最终的合并汇总。
将数据传给outputFormat
10outputFormat
outputFormat:将数据写入HDFS

步骤总体流程图
在这里插入图片描述
Map将拆分的数据传给Shuffle(混洗),而Shuffle的底层原理又分为四步,分组完成后的数据在传入到Reduce

在这里插入图片描述

Shuffle阶段的Partition分区算法原理(很重要)

算法:对key进行哈希,获取到一个哈希值,用哈希值与reducetask的数量取余。余几,这个数据就放在余数编号的partition中。
Map的数量不能人为设置,reduce的数量可以人为设置。reduce数量越多,计算速度越快。

job.setNumReduceTasks(3);

打包代码到集群运行需添加驱动的类

job.setJarByClass(WordCountDriver.class);

combinner的添加 对数据进行局部聚合。

job.setCombinerClass(WordCountReduce.class);

combiner 的意义就是对每一个 maptask 的输出进行局部汇总,以减小网络传输量
未使用combiner的网络开销

1.6 Split的逻辑切分(重点)

获取到读取到的数据,对数据进行逻辑切分,切分的大小是128M.
这里的128 与HDFS数据块的128没有任何关系
HDFS 128 是存储层面的数据切分
split128 是计算层面的128,只不过数据恰好相等
两个128相同的原因是,一个集成程序能够正好计算一个数据块。

在这里插入图片描述

  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值