mapreduce的setup方法_mapreduce流程

mapTask运行机制

mapTask并行度:同时存在几个mapTask

TextInputFormat中的getSplits方法返回的是切片数目,有多少切片就有几个mapTask。

获取文件的切片的几个参数控制:

mapred.min.split.size 没有配置的话默认值是1

mapred.max.split.size 没有配置的话默认值是 Long.MAX_VALUE

如果没有配置上面这两个参数,我们文件的切片大小就是128M,与我们的block块相等

正常一个block块对应一个mapTask

mapTask流程

9ada049762767724b03d2d03a3af03cd.png

1、inputFormat读取文件数据,并解析为相对应的键值对k1,v1

2、自定义map程序,解析为我们想要的k2,v2

3、在写入环形缓冲区前会进入分区阶段,每个数据指定将要进入哪一个reduce

4、写入环形缓冲区。环形缓冲区默认大小为100M,当写入的数据到达80M的时候,会启动溢写。

5、在溢写的时候会对溢写数据进行排序,然后再写入磁盘的临时文件中。

6、当该mapTask数据写入完成后,所有临时文件会合并成一个大文件

mapTask基础设置配置

设置一:设置环型缓冲区的内存值大小(默认设置如下)

mapreduce.task.io.sort.mb 100

设置二:设置溢写百分比(默认设置如下)

mapreduce.map.sort.spill.percent 0.80

设置三:设置溢写数据目录(默认设置)

mapreduce.cluster.local.dir ${hadoop.tmp.dir}/mapred/local

设置四:设置一次最多合并多少个溢写文件(默认设置如下)

mapreduce.task.io.sort.factor 10

reduceTask机制

reduceTask流程

1、copy ,reduce开启线程拉取属于自己的数据

2、合并 ,将数据进行合并也就是分组

3、排序 reduce局部排序,每个reduce间不干扰

reduce的copy也是有个缓冲区,缓冲区类似与mapTask,缓冲区有限定值,满了以后存入磁盘

mapReduce全流程

9ff54099334436ff7162d806a301c40f.png

Snappy压缩

可以配置文件中设置也可以代码中设置

reduce端join算法

reduce太少:每个reduce压力太大

reduce太多:资源浪费

map端join算法

去掉reduce

采用缓存

package cn.nina.mr.demo6;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.filecache.DistributedCache;

import org.apache.hadoop.fs.FSDataInputStream;

import org.apache.hadoop.fs.FileSystem;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.io.LongWritable;

import org.apache.hadoop.io.NullWritable;

import org.apache.hadoop.io.Text;

import org.apache.hadoop.mapreduce.Mapper;

import java.io.BufferedReader;

import java.io.IOException;

import java.io.InputStreamReader;

import java.net.URI;

import java.util.HashMap;

import java.util.Map;

public class MapJoinMapper extends Mapper {

//在程序主类运行方法里加了缓存文件,这里可以获取缓存文件

Map map = null;

//重写setup方法获取缓存文件,将缓存文件内容存储到map当中去

@Override

protected void setup(Context context) throws IOException, InterruptedException {

map = new HashMap();

//从context中获取configuration

Configuration configuration = context.getConfiguration();

//只有一个缓存文件,所以可以直接取第一个

URI[] cacheFiles = DistributedCache.getCacheFiles(configuration);

URI cacheFile = cacheFiles[0];

//获取文件系统

FileSystem fileSystem = FileSystem.get(cacheFile, configuration);

//获取文件输入流,如何将流转换成字符串

FSDataInputStream open = fileSystem.open(new Path(cacheFile));

BufferedReader bufferedReader = new BufferedReader(new InputStreamReader(open));

String line = null;

while ((line = bufferedReader.readLine()) != null){

String[] lineArray = line.split(",");

map.put(lineArray[0],line);

}

}

@Override

protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {

String[] split = value.toString().split(",");

//获取到商品表数据

String product = map.get(split[2]);

//将商品表和订单表进行拼接

context.write(new Text(value.toString()+"\t"+product),NullWritable.get());

}

}

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
MapReduce Mapper类是一个抽象类,用于处理输入的数据并生成中间键值对(key-value pairs)。Mapper类是MapReduce的第一个阶段,也称为“映射阶段”(Map phase),它的作用是将输入数据划分为若干个小块,然后对每个小块进行处理,将处理结果输出为中间键值对。Mapper类的主要任务是将原始数据转换为中间键值对,这些键值对将会在后续的阶段中作为输入传递给Reducer类进行进一步处理。 Mapper类通常需要实现两个方法:map()方法setup()方法。其中,map()方法是Mapper类的核心方法,用于将输入数据转换为中间键值对。setup()方法在Mapper类初始化时被调用,可以用来进行一些预处理操作,例如读取配置文件、连接数据库等操作。 Mapper类的输入数据通常包含两个部分:输入键(input key)和输入值(input value)。输入键表示输入数据的唯一标识,通常是输入数据的起始位置或者文件名等信息。输入值表示实际的数据内容,通常是一个字符串或者一个字节数组。Mapper类在处理输入数据时,需要根据输入值进行相应的处理,并将处理结果输出为中间键值对。 Mapper类的输出数据也包含两个部分:中间键(intermediate key)和中间值(intermediate value)。中间键是Mapper类处理后的结果的唯一标识,通常是一个字符串或者一个数字等。中间值是Mapper类处理后的结果的实际内容,通常是一个字符串或者一个字节数组等。中间键值对通常会被写入到本地文件系统或者分布式文件系统中,以供后续的Reducer类进行处理。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值