【大数据之Hadoop】七、MapReduce概述

1 定义

MapReduce是分布式计算的编码框架。核心功能是把用户的业务逻辑代码自带默认组件整合为分布式运算程序,并发运行在Hadoop集群上。

2 优缺点

优点:
(1)易于编程呢个,用户只关心业务逻辑和实现框架的接口。
(2)良好的扩展性:可用动态增加服务器,解决计算资源不足的问题。
(3)高容错性:任何一台节点挂掉之后可用把任务转移到其他节点。
(4)适合海量数据的计算。
缺点:
(1)不擅长实时计算。
(2)不擅长流式计算。(flink可以)
(3)不擅长DAG有向环图计算。(spark可以)

3 核心思想

在这里插入图片描述
(1)分布式的运算程序往往需要分成至少2个阶段。
(2)第一个阶段的MapTask并发实例,完全并行运行,互不相干。
(3)第二个阶段的ReduceTask并发实例互不相干,但是他们的数据依赖于上一个阶段的所有MapTask并发实例的输出。
(4)MapReduce编程模型只能包含一个Map阶段和一个Reduce阶段,如果用户的业务逻辑非常复杂,那就只能多个MapReduce程序,串行运行。

4 数据序列化类型

在这里插入图片描述

5 MapReduce编程规范

用户编写三个部分:Mapper、Reduce和Driver。
Mapper:
(1)用户自定义的Mapper类要继承系统自己的父类。
(2)Mapper的输入数据是键值(kv)对形式。
(3)Mapper的业务逻辑需要重写在map()方法中。
(4)Mapper的输出数据是键值(kv)对形式。
(5)map()方法(即MapTask进程)对每一个<k,v>键值对调用一次。
Reducer:
(1)用户自定义的Reduce类要继承系统自己的父类。
(2)Reduce的输入数据类型对应Mapper的输出数据类型,即键值(kv)对形式。
(3)Reduce的业务逻辑需要重写在reduce()方法中。
(4)ReduceTask进程对每一组相同key的键值对<k,v>组调用一次reduce()方法。
Driver:
相当于YARN集群的客户端,用来把程序提交到YARN集群,提交的是封装了MapReduce程序相关运行参数的job对象。
main函数中:
(1)获取配置信息以及获取job对象。

        Configuration conf = new Configuration();
        Job job = Job.getInstance(conf);

(2)关联本Driver程序的jar。

        job.setJarByClass(WordCountDriver.class);

(3)关联Mapper和Reducer的jar。

        job.setMapperClass(WordCountMapper.class);
        job.setReducerClass(WordCountReducer.class);

(4)设置Mapper输出的kv类型。

        job.setMapOutputKeyClass(Text.class);
        job.setMapOutputValueClass(IntWritable.class);

(5)设置最终输出的kv类型。

        job.setOutputKeyClass(Text.class);
        job.setOutputValueClass(IntWritable.class);

(6)设置输入和输出的路径。

        FileInputFormat.setInputPaths(job, new Path("D:\\input"));
        FileOutputFormat.setOutputPath(job, new Path("D:\\output"));

(7)提交job。

        boolean result = job.waitForCompletion(true);
        System.exit(result ? 0 : 1);
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Hadoop是一个开源的分布式计算框架,它允许用户在大量的计算机集群上存储和处理大量数据。Hadoop的核心组件包括HDFS(Hadoop Distributed FileSystem)和MapReduce。HDFS是Hadoop的分布式文件系统,它将数据存储在大量的磁盘上,而不是单个计算机上。MapReduce是一种编程模型,用于处理和生成大数据集。 Hadoop的基本框架包括以下几个部分: 1. HDFS:Hadoop分布式文件系统,负责存储和管理大量数据。 2. MapReduce:一种编程模型,用于处理和生成大数据集。 3. YARN:Yet Another Resource Negotiator,负责资源管理和任务调度。 4. Hadoop Common:Hadoop的共享库,包含一些通用的工具和库。 5. Hadoop Auth:Hadoop的身份验证服务,负责用户认证和授权。 6. Hadoop HDFS Java API:Hadoop HDFS的Java接口,用于编写Java程序操作HDFS。 Hadoop的环境搭建主要包括以下步骤: 1. 安装Java环境:Hadoop是基于Java开发的,所以首先需要安装Java环境。 2. 下载并解压Hadoop:从Hadoop官网下载最新版本的Hadoop,然后解压到本地目录。 3. 配置Hadoop环境:编辑Hadoop的配置文件,设置Hadoop的环境变量。 4. 初始化HDFS:使用Hadoop的启动脚本初始化HDFS。 5. 启动Hadoop:启动Hadoop的各个组件,如HDFS、YARN等。 6. 测试Hadoop:运行一个简单的MapReduce任务,检查Hadoop是否正常运行。<span class="em">1</span><span class="em">2</span><span class="em">3</span><span class="em">4</span>

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值