《Hadoop权威指南》第二章关于MapReduce

MapReduce适合处理半结构化和非结构化数据。

2.3使用Hadoop来分析数据

2.3.1map和reduce

mapreduce任务分为两个处理阶段:map阶段和reduce阶段。我们用的时候需要写map函数和reduce函数,处理的数据类型是简直对,具体的数据类型有我们自行决定。
map函数的输入的key是行数的偏移量。value是每一行数据。
在经过map函数的加工处理,提取所需数据后,组成新的键值对输入给reduce函数。下图是MapReduce处理天气数据的流程图。

2.3.2Java MapReduce

第一部分:map实现Mapper接口,后者声明了一个map()虚方法。Mappper接口是一个泛型类型,有四个形参类型,分别指定map函数的输入键,输出值,输出键和输出值的类型。这些类型参数是Hadoop自定义的,是一套可优化网络序列化传输的基本类型。map通过context.write输入参数给reduce函数。
第二部分:reduce实现Reducer接口,此接口与Mapper函数类似。
第三部分:负责运行MapReduce作业。包括,定义job,设置输入输出文件,设置map和reduce类,设置输入输出类型。

2.4横向扩展

2.4.1数据流

有两类节点控制着作业执行过程:一个jobtracker及一系列tasktracker。jobtracker通过调度一系列tasktracker。
Hadoop将MapReduce的输入数据划分成等长的小数据块,成为分片,为每个分片构建一个map任务。分片的默认大小是64MB。由于HDFS数据块的三个节点可能正在运行其他map任务。此时需要在三个备份的某个数据寻求同个机架中空闲的机器来运行任务,只有在非常偶然的情况下,会使用其他机架中的机器运行。
map的输出存放在本地硬盘,原因是map的输出结果是中间结果。
当有多个reduce函数时,每个map任务会针对输出进行分区。map和reduce之间的数据流称为shuffle(混洗)

2.4.2combiner函数

集群上的带宽限制了MapReduce作业的数量,因此要尽量避免map和reduce函数之间的数据传输。
其实combiner函数就是reduce,只不过运行在map所在的机器,这样就减少了map和reduce的数据传输的数量,有利于减少对带宽的占用。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值