使用mapreduce读取es中数据到hdfs

前段时间的一个例子使用hive建表做数据仓库,源数据位于elasticsearch中,需要定时拉取数据到hdfs
本打算直接使用hive-elasticsearch建表,但是这样相当于同步表,elasticsearch中数据删除hive中也会被删除,不妥。
最终决定使用暴力方式,mapreduce直接读取到hdfs中,然后数据处理后load加载到hive
具体代码如下:

/**   
* @Title: EsToHdfs.java 
* @Package com.midea.main 
* @Description: TODO(用一句话描述该文件做什么) 
* @author 乐   
* @date 2016年12月8日 下午1:43:50 
* @version V1.0   
*/
package com.lele.main;

import java.io.IOException;
import java.text.SimpleDateFormat;
import java.util.Date;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.elasticsearch.hadoop.cfg.ConfigurationOptions;
import org.elasticsearch.hadoop.mr.EsInputFormat;

/**
 * @ClassName: EsToHdfs
 * @Description: TODO(将es的数据传输到hdfs)
 * @author 乐
 * @date 2016年12月8日 下午1:43:50
 */
public class EsToHdfs {

    /**
     * @Title: main
     * @Description: TODO(mapreduce主方法入口)
     * @author 乐
     * @param @param args
     * @return void
     * @throws Exception
     * @throws @date 2016年12月8日 下午1:43:50
     */

    public static void main(String[] args) throws Exception {

        //生成时间,此项目中一天拉取一回,各位略过此段
        Date date = new Date();
        SimpleDateFormat df = new SimpleDateFormat("yyyy.MM.dd");
        String de = df.format(date.getTime() - 60 * 60 * Integer.parseInt(args[0]) * 1000);

        //mapreduce配置,相信大家都不陌生吧
        Configuration conf = new Configuration();
        conf.set(ConfigurationOptions.ES_NODES, "10.47.*.*");//es地址
        conf.set(ConfigurationOptions.ES_PORT, "9200");//es端口
        //此三项为作者在测试过程中遇到es连接失败情况下配置的,经查实为机器网络原因,和代码无关
        // conf.set(ConfigurationOptions.ES_NODES_CLIENT_ONLY, "true");
        // conf.set(ConfigurationOptions.ES_NODES_DATA_ONLY, "false");
        // conf.set(ConfigurationOptions.ES_INDEX_AUTO_CREATE, "yes");
        //设置输出格式为json格式,如不设置此项,则默认为一个看不懂,解析不了的类似json的格式
        conf.set(ConfigurationOptions.ES_OUTPUT_JSON, "true");
        //设置es索引位置和type位置
        conf.set(ConfigurationOptions.ES_RESOURCE, "logstash-proserver-" + de + "/" + args[1]);

        Job job = Job.getInstance(conf, EsToHdfs.class.getSimpleName());
        job.setJobName(de + "_" + args[1]);

        job.setJarByClass(EsToHdfs.class);
        job.setSpeculativeExecution(false);

        job.setInputFormatClass(EsInputFormat.class);
        job.setMapOutputKeyClass(NullWritable.class);
        job.setMapOutputValueClass(Text.class);

        job.setMapperClass(MapperES.class);

        FileInputFormat.addInputPath(job, new Path("/es_input"));//固定为/es_input
        FileOutputFormat.setOutputPath(job, new Path("/es_output/" + de + "/" + args[1]));

        job.setNumReduceTasks(0);
        job.waitForCompletion(true);

    }

    public static class MapperES extends Mapper<Object, Object, NullWritable, Text> {
        @Override
        public void map(Object key, Object value, Context context) throws IOException, InterruptedException {
            Text doc = (Text) value;
            context.write(NullWritable.get(), doc);
        }
      }
    }

网上很多文档在map阶段输出使用的是MapWritable.class
但是作者测试不成功,最后简单粗暴直接改为Text.class测试通过,稳定运行。作者没有查找原因,有知道原因的博友可以分享一下。
elasticsearch-mapreduce官方文档地址:
https://www.elastic.co/guide/en/elasticsearch/hadoop/master/mapreduce.html
很详细,上述代码可以保证正常稳定运行,如需要更多配置,可以参阅官方文档

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值