MapReduce的常见输入格式之CombineTextInputFormat

虽然切片数越多,启动的maptask就越多,并行运行执行效率越高。但凡事都有个度,万一切片过多,也会影响执行效率

执行流程

Job–>MRAppMaster–>RM–>调度队列–>NM–>Container–>MapTask
可以看见,从job提交到执行maptask,中间还会经历很多过程。这时候需要将很多小文件合并切片,提高执行效率。

CombineTextInputFormat

  • 作用: 改变了传统的切片方式,将多个小文件,划分到一个切片中,适合小文件过多的场景。

RecordReaderLineRecordReader,一次处理一行,将一行内容的偏移量作为key,一行内容作为value

数据类型

LongWritable key
Text value

切片流程

  • 先确定片的最大值maxSize,maxSize通过参数mapreduce.input.fileinputformat.split.maxsize设置,单位是byte
  • 以文件为单位,将每个文件划分为若干part
    ①若文件的待切部分的大小 <= maxSize,整个待切部分作为一个part
    ②若maxsize <文件的 待切部分的大小 <= 2* maxSize,将整个待切部分均分为两个part
    ③若文件的待切部分的大小 >2* maxSize,先切去maxSize大小,作为一个part,剩余待切部分继续从①开始判断
    ④分完part后,将之前切分的若干part进行累加,累加后的大小超过maxSize,则作为1片

案例

有四个小文件
在这里插入图片描述
它们的总大小为
在这里插入图片描述
如果将maxSize设置为2048byte,那么
a.txt 4,486 字节
part1(a.txt,0,2048) ------part1刚好2048byte,则切为第一片
part2(a.txt,2048,1219)
part3(a.txt.3xxx,1219)-------1219+1219超过2048,则把part2和part3切为第二片

b.txt 4,287 字节
part4(b.txt,0,2048)-----第三片
part5(b.txt,2048,1116)
part6(b.txt,3267,1116)-------part5+part6第四片

c.txt 2779 字节
part7(c.txt,0 ,1389.5)
part8(c.txt,1389.5 ,2779)-------part7+part8第五片

d.txt 5,166 字节
part9(d.txt,0,2048)-------第六片
part10(d.txt,2048,1559)
part11(a.txt.3607,1559)-------part10+part11第七片

WCMapper.java

public class WCMapper extends Mapper<LongWritable, Text, Text, IntWritable>{
	

	private IntWritable out_value=new IntWritable(1);
	
	@Override
	protected void map(LongWritable key, Text value, Mapper<LongWritable, Text, Text, IntWritable>.Context context)
			throws IOException, InterruptedException {
	
		System.out.println("keyin:"+key+"----keyout:"+value);
		
		
			//context.write(key, out_value);
	}

}

WCReducer.java

public class WCReducer extends Reducer<Text, IntWritable, Text, IntWritable>{
	
	private IntWritable out_value=new IntWritable();
	
	// reduce一次处理一组数据,key相同的视为一组
	@Override
	protected void reduce(Text key, Iterable<IntWritable> values,
			Reducer<Text, IntWritable, Text, IntWritable>.Context context) throws IOException, InterruptedException {
		
		int sum=0;
		
		for (IntWritable intWritable : values) {
			
			sum+=intWritable.get();
			
		}
		
		out_value.set(sum);
		
		//将累加的值写出
		context.write(key, out_value);
		
	}

}

WCDriver.java

public class WCDriver {
	
	public static void main(String[] args) throws Exception {
		
		Path inputPath=new Path("e:/mrinput/combine");
		Path outputPath=new Path("e:/mroutput/combine");
	
		//作为整个Job的配置
		Configuration conf = new Configuration();
		
		// 设置maxsize为2048byte
		conf.set("mapreduce.input.fileinputformat.split.maxsize", "2048");
		
		// 设置输入格式
		conf.set("mapreduce.job.inputformat.class", "org.apache.hadoop.mapreduce.lib.input.CombineTextInputFormat");
		
		
		//保证输出目录不存在
		FileSystem fs=FileSystem.get(conf);
		
		if (fs.exists(outputPath)) {
			fs.delete(outputPath, true);
		}
		
		// ①创建Job
		Job job = Job.getInstance(conf);
		
		job.setJarByClass(WCDriver.class);
		
		// ②设置Job
		// 设置Job运行的Mapper,Reducer类型,Mapper,Reducer输出的key-value类型
		job.setMapperClass(WCMapper.class);
		job.setReducerClass(WCReducer.class);
		
		// Job需要根据Mapper和Reducer输出的Key-value类型准备序列化器,通过序列化器对输出的key-value进行序列化和反序列化
		// 如果Mapper和Reducer输出的Key-value类型一致,直接设置Job最终的输出类型
		job.setOutputKeyClass(Text.class);
		job.setOutputValueClass(IntWritable.class);
		
		// 声明使用NLineInputFormat
		//job.setInputFormatClass(NLineInputFormat.class);
		
		// 设置输入目录和输出目录
		FileInputFormat.setInputPaths(job, inputPath);
		FileOutputFormat.setOutputPath(job, outputPath);
		
		// ③运行Job
		job.waitForCompletion(true);
			
	}
}

切片结果:
在这里插入图片描述
果真是七片!

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

孙晨c

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值