Hadoop 3.x|第十二天|MapReduce框架原理(OutputFormat数据输出)

OutputFormat

是MapReduce输出的基类,所有实现MapReduce输出都实现了OutputFormat接口。

默认输出格式

默认的输出格式是TextOutputFormat

自定义OutputFormat

想要输出数据到MySQL/HBase/Elasticsearch等存储框架中。

  1. 自定义一个类继承FileOutputFormat
  2. 改写RecordWriter,具体改写输出数据的方法write()

自定义OutputFormat

需求

过滤输入的log日志,包含atguigu的网站输出到一个地址,不包含的网站输出到一个地址。

解决方案

自定义一个OutputFormat类,其中创建一个类LogRecordWriter继承RecordWriter并创建两个文件的输出流:atguiguOut otherOut,分别将数据送往两个不同的文件。

代码实现

自定义RecordWriter类

package com.atguigu.mapreduce.outputformat;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.RecordWriter;
import org.apache.hadoop.mapreduce.TaskAttemptContext;
import java.io.IOException;
public class LogRecordWriter extends RecordWriter<Text, NullWritable> {
	//因为要用到 所以定义为属性
	private FSDataOutputStream atguiguOut;
	private FSDataOutputStream otherOut;
	public LogRecordWriter(TaskAttemptContext job) {
		try {
			//获取文件系统对象 要和job联系起来 故不能new
			FileSystem fs = FileSystem.get(job.getConfiguration());
			//用文件系统对象创建两个输出流对应不同的目录
			atguiguOut = fs.create(new Path("d:/hadoop/atguigu.log"));
			otherOut = fs.create(new Path("d:/hadoop/other.log"));
		} catch (IOException e) {
		e.printStackTrace();
	}
	@Override
	public void write(Text key, NullWritable value) throws IOException, InterruptedException {
		String log = key.toString();
		//根据一行的 log 数据是否包含 atguigu,判断两条输出流输出的内容
		if (log.contains("atguigu")) {
			atguiguOut.writeBytes(log + "\n");
		} else {
			otherOut.writeBytes(log + "\n");
		}
	}
	@Override
	public void close(TaskAttemptContext context) throws IOException, InterruptedException {
		//关流
		IOUtils.closeStream(atguiguOut);
		IOUtils.closeStream(otherOut);
	}
 }

自定义OutputFormat类

package com.atguigu.mapreduce.outputformat;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.RecordWriter;
import org.apache.hadoop.mapreduce.TaskAttemptContext;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import java.io.IOException;
public class LogOutputFormat extends FileOutputFormat<Text, NullWritable> 
{
 	@Override
	//返回RecordWriter
	public RecordWriter<Text, NullWritable> getRecordWriter(TaskAttemptContext job) throws IOException, InterruptedException {
 	//创建一个自定义的 RecordWriter 返回
 	LogRecordWriter logRecordWriter = new LogRecordWriter(job);
	return logRecordWriter;
 } }

补充Driver类

除了常规那几点,Driver类里依然要补充

 //设置自定义的 outputformat
 job.setOutputFormatClass(LogOutputFormat.class);
 //FileInputFormat.setInputPaths(job, new Path("D:\\input"));
 // 虽 然 我 们 自 定 义 了 outputformat , 但 是 因 为 我 们 的 outputformat 继承自fileoutputformat
 //而 fileoutputformat 要输出一个_SUCCESS 文件,所以在这还得指定一个输出目录
 FileOutputFormat.setOutputPath(job, new Path("D:\\logoutput"));
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值