Hadoop——MapReduce

在Hadoop中每个MapReduce应用程序被表示成一个作业,每个作业又被分成多个任务。

应用程序向框架提交一个MapReduce作业,作业一般会将输入的数据集合分成彼此独立的数据块,然后由map任务以并行方式完成对数据分块的处理。框架对map的输出进行排序,之后输出到reduce任务。

集群中一个节点既是计算节点,又是存储节点。这种设计效率非常高,框架可以在数据所在的节点上调度任务执行,大大节省了集群节点间的整体带宽。

Hadoop的MapReduce框架使用YARN管理资源,框架组成分为三个部分:一个主节点上的资源管理器ResourceManager,每个从节点上的节点管理器NodeManager,每个应用程序对应的MRAppMaster。

1、处理步骤

MapReduce数据处理分为Split、Map、Shuffle、Reduce,应用程序实现Map和Reduce步骤的逻辑,Split和Shuffle步骤由框架自动完成

(1)Split

在执行任务前,原始数据被分割成若干split,每个split作为一个map任务的输入,在map执行过程中,split会被分解成一个个记录(键/值对)。

(2)Map

对于文本文件,默认为文件里的一行是一条记录,一行的内容作为键/值对中的值,从split的起始位置到每行的字节偏移量,是键/值对中的键

map任务处理每一个记录时,会生成一个新的中间键/值对,map任务的输出就是这些中间键/值对的全部集合。为每个map任务生成最终的输出文件前,先会依据键进行分区,以便将同一分组的数据交给同一个reduce任务处理

在有多个reduce任务的情况下,每个map任务会基于分区键生成多个输出文件,此时可以根据需求自己定制partitioner。

在应用程序中最好对map任务的输出文件进行压缩以获得最优的性能

(3)Shuffle

Map步骤之后,Reduce步骤之前,还有一个重要步骤叫做Shuffle。系统对map任务的输出执行排序和转换并映射为reduce任务的输入,此过程就是Shuffle。

在Shuffle中,会把map任务输出的一组无规则的数据尽量转换成一组具有一定规则的数据,然后把数据传递给reduce任务运行的节点。

Shuffle横跨Map端和Reduce端,在Map端包括spill过程,在Reduce端包括copy和sort过程。

(4)Reduce

Reduce步骤负责数据的计算归并,它处理Shuffle后的每个键及其对应值的列表,并将一系列键/值对返回给客户端应用。Reduce对所有中间结果进行归并、聚合,最终生成一个汇总的结果

2、应用程序定义

(1)输入程序

输入程序将输入的文件分解成适当大小的“splits”(通常是64MB或128MB),框架为每一个split赋予一个Map任务。

(2)map函数

map函数处理输入的键/值对,生成零个或多个中间输入键/值对。

(3)分区函数

每个map函数的输出通过应用定义的分区函数分配给特定的reduce任务

分区函数的输入是键、值、reduce任务的数量,输出的是reduce任务的索引值。

选择适当的分区函数对于数据在reduce间的平均分布和负载均衡非常重要。

(4)比较函数

通过应用的比较函数从Map运行的节点为reduce拉取数据并排序

(5)reduce函数

框架按键的排序为每个唯一的键调用一次reduce函数

reduce函数会在与键相关的多个值中迭代,然后生成零个或多个输出。

(6)输出程序

输出程序负责将reduce的输出写入稳定存储。

3、MapReduce实例

现在想知道日志中ERROR、WARN、INFO分别的个数。

如图所示,在map阶段检查每一行并标识键值对,如果行以“INFO”开头,键值对为<INFO,1>,如果以WARN开头,键值对为<WARN,1>,如果以“ERROR”开头,键值对为<ERROR,1>。

在reduce阶段,对每个map阶段生成的唯一键值"INFO","WARN","ERROR"进行计数。

   

Hadoop MapReduce的实现分为split、map、shuffle、reduce 4步,开发者只需要在Mappers和Reducers的Java类中编码map和reduce阶段的逻辑,框架完成其余的工作。

  • 2
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
好的,以下是操作的指令: 6. 查看input中的文件列表: ``` $ hdfs dfs -ls /user/用户名/input ``` 该命令会列出HDFS中“/user/用户名/input”目录下的所有文件和文件夹。 7. 删除本地系统的input文件夹: ``` $ rm -r input ``` 该命令会删除本地系统中的“input”文件夹。 8. 分布式运行MapReduce作业: ``` $ hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.7.jar grep /user/用户名/input /user/用户名/output 'hello' ``` 该命令会在Hadoop集群中分布式运行MapReduce作业,对“/user/用户名/input”目录中包含“hello”的文件进行查找,并将结果输出到“/user/用户名/output”目录中。 9. 查看位于HDFS中的output文件夹中的输出结果: ``` $ hdfs dfs -cat /user/用户名/output/* ``` 该命令会将HDFS中“/user/用户名/output”目录下的所有文件内容输出到终端中。 10. 将分布式运行结果取回到本地的output文件夹: ``` $ hdfs dfs -get /user/用户名/output output ``` 该命令会将HDFS中“/user/用户名/output”目录下的所有文件取回到本地的“output”文件夹中。 11. 查看本地的output文件夹结果: ``` $ cat output/* ``` 该命令会将“output”文件夹中的所有文件内容输出到终端中。 12. 删除分布式文件系统中的output文件夹: ``` $ hdfs dfs -rm -r /user/用户名/output ``` 该命令会删除HDFS中“/user/用户名/output”目录及其所有内容。 13. 关闭Hadoop: ``` $ stop-all.sh ``` 该命令会停止Hadoop集群中所有节点的进程。 通过以上操作,我们可以在HDFS中查看文件列表、删除本地文件夹、分布式运行MapReduce作业、查看输出结果、将结果取回到本地、删除分布式文件系统中的文件夹,以及关闭Hadoop集群。这些操作都是Hadoop中常用的基本操作,对于Hadoop的使用和应用具有重要的意义。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值