hadoop用MultipleInputs/MultiInputFormat实现一个mapreduce job中读取不同格式的文件

hadoop中提供了 MultiOutputFormat 能将结果数据输出到不同的目录,也提供了 FileInputFormat 来一次读取多个目录的数据,但是默认一个job只能使用 job.setInputFormatClass 设置使用一个inputfomat处理一种格式的数据。如果需要实现 在一个job中同时读取来自不同目录的不同格式文件 的功能,就需要自己实现一个 MultiInputFormat 来读取不同格式的文件了(原来已经提供了MultipleInputs)。


例如:有一个mapreduce job需要同时读取两种格式的数据,一种格式是普通的文本文件,用 LineRecordReader 一行一行读取;另外一种文件是伪XML文件,用自定义的AJoinRecordReader读取。


自己实现了一个简单的 MultiInputFormat 如下:


import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.InputSplit;
import org.apache.hadoop.mapreduce.RecordReader;
import org.apache.hadoop.mapreduce.TaskAttemptContext;
import org.apache.hadoop.mapreduce.lib.input.FileSplit;
import org.apache.hadoop.mapreduce.lib.input.LineRecordReader;
import org.apache.hadoop.mapreduce.lib.input.TextInputFormat;
 
public class MultiInputFormat extends TextInputFormat {
 
    @Override
    public RecordReader<LongWritable, Text> createRecordReader(InputSplit split, TaskAttemptContext context) {
        RecordReader reader = null;
        try {
            String inputfile = ((FileSplit) split).getPath().toString();
            String xmlpath = context.getConfiguration().get("xml_prefix");
            String textpath = context.getConfiguration().get("text_prefix");
 
            if (-1 != inputfile.indexOf(xmlpath)) {
                reader = new AJoinRecordReader();
            } else if (-1 != inputfile.indexOf(textpath)) {
                reader = new LineRecordReader();
            } else {
                reader = new LineRecordReader();
            }
        } catch (IOException e) {
            // do something ...
        }
 
        return reader;
    }
}
其实原理很简单,就是在 createRecordReader 的时候,通过 ((FileSplit) split).getPath().toString() 获取到当前要处理的文件名,然后根据特征匹配,选取对应的 RecordReader 即可。xml_prefix和text_prefix可以在程序启动时通过 -D 传给Configuration。


比如某次执行打印的值如下:


inputfile=hdfs://test042092.sqa.cm4:9000/test/input_xml/common-part-00068
xmlpath_prefix=hdfs://test042092.sqa.cm4:9000/test/input_xml
textpath_prefix=hdfs://test042092.sqa.cm4:9000/test/input_txt
这里只是通过简单的文件路径和标示符匹配来做,也可以采用更复杂的方法,比如文件名、文件后缀等。


接着在map类中,也同样可以根据不同的文件名特征进行不同的处理:


@Override
public void map(LongWritable offset, Text inValue, Context context)
        throws IOException {
 
    String inputfile = ((FileSplit) context.getInputSplit()).getPath()
            .toString();
 
    if (-1 != inputfile.indexOf(textpath)) {
        ......
    } else if (-1 != inputfile.indexOf(xmlpath)) {
        ......
    } else {
        ......
    }
}
这种方式太土了,原来hadoop里面已经提供了 MultipleInputs 来实现对一个目录指定一个inputformat和对应的map处理类。


MultipleInputs.addInputPath(conf, new Path("/foo"), TextInputFormat.class,
   MapClass.class);
MultipleInputs.addInputPath(conf, new Path("/bar"),
   KeyValueTextInputFormat.class, MapClass2.class);
相关文章


2014年6月27日 一个Hadoop程序的优化过程 – 根据文件实际大小实现CombineFileInputFormat
2012年1月9日 hadoop mapreduce和hive中使用SequeceFile+lzo格式数据
2014年3月11日 hadoop集群DataNode起不来:“DiskChecker$DiskErrorException: Invalid volume failure config value: 1”
2013年10月12日 mapreduce job让一个文件只由一个map来处理
2013年9月15日 java.io.IOException: Max block location exceeded for split异常
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值