16.用Hadoop命令向CDH集群提交MR作业

16.1 实验环境介绍

  • 内容概述
    • 环境准备
    • Kerberos环境和非Kerberos集群
  • 测试环境
    • Kerberos集群CDH5.11.2,OS为Redhat7.2
    • 非Kerberos集群CDH5.13,OS为CentOS6.5
  • 前置条件
    • CDH集群运行正常
    • 本地开发环境与集群网络互通且端口放通

16.2 示例

这里使用的代码是没有加载CDH集群的xml配置的,因为使用hadoop命令提交时会加载集群的配置信息(如hdfs-site.xml/yarn-site.xlm/core-sitem.xml等)。

package com.cloudera.mr;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;

/**
 * package: com.cloudera.mr
 * describe: 打包jar到集群使用hadoop命令提交作业示例
 * creat_user: Fayson
 * email: htechinfo@163.com
 * creat_date: 2017/12/6
 * creat_time: 下午11:30
 * 公众号:Hadoop实操
 */
public class WordCount {

    private static Logger logger = LoggerFactory.getLogger(WordCount.class);

    public static void main(String[] args) {

        logger.info(args[0] + "-----" + args[1]);
        try {
            Configuration conf = new Configuration();
            Job wcjob = Job.getInstance(conf);
            wcjob.setJobName("MyWordCount");
            wcjob.setJarByClass(WordCount.class);

            wcjob.setJarByClass(InitMapReduceJob.class);

            wcjob.setMapperClass(WordCountMapper.class);
            wcjob.setReducerClass(WordCountReducer.class);
            wcjob.setMapOutputKeyClass(Text.class);
            wcjob.setMapOutputValueClass(LongWritable.class);
            wcjob.setOutputKeyClass(Text.class);
            wcjob.setOutputValueClass(LongWritable.class);
            FileInputFormat.setInputPaths(wcjob, args[0]);

            FileOutputFormat.setOutputPath(wcjob, new Path(args[1]));
            //调用job对象的waitForCompletion()方法,提交作业。
            boolean res = wcjob.waitForCompletion(true);
            System.exit(res ? 0 : 1);
        } catch (Exception e) {
            e.printStackTrace();
        }
    }
}

16.3 编译打包MapReduce作业

  • 使用Maven命令进行编译打包,该命令运行需要在工程所在目录下运行
cd /Volumes/Transcend/work/cdhproject
mvn clean package
  • 编译成功后,在工程的target目录下可以看到mr-demo-1.0-SNAPSHOT.jar包
  • 将mr-demo-1.0-SNAPSHOT.jar包上传到CDH集群的任意节点
    • 注意:这里是将jar包上传至CDH集群的任意节点且hadoop命令可以正常运行。

16.4 非Kerberos集群提交作业

  • 在命令行执行如下命令提交MR作业
hadoop jar mr-demo-1.0-SNAPSHOT.jar com.cloudera.mr.WordCount /fayson/test_table /wordcount/
  • Yarn界面查看,作业收费执行成功
  • 查看HDFS输出目录

16.5 Kerberos集群提交作业

  • 在Kerberos集群init Kerberos账号
[ec2-user@ip-172-31-22-86 ~]$ kdestroy
[ec2-user@ip-172-31-22-86 ~]$ kinit -kt fayson.keytab fayson
[ec2-user@ip-172-31-22-86 ~]$ klist
Ticket cache: FILE:/tmp/krb5cc_1000
Default principal: fayson@CLOUDERA.COM

Valid starting       Expires              Service principal
12/06/2017 11:02:53  12/07/2017 11:02:53  krbtgt/CLOUDERA.COM@CLOUDERA.COM
        renew until 12/13/2017 11:02:53
[ec2-user@ip-172-31-22-86 ~]$
  • 在命令行使用hadoop提交作业
[ec2-user@ip-172-31-22-86 ~]$ hadoop jar mr-demo-1.0-SNAPSHOT.jar com.cloudera.mr.WordCount /fayson /wordcount/out
  • Yarn界面查看作业是否执行成功
  • 查看HDFS目录输出的结果

16.6 总结

  • 在本地环境开发MapReduce作业的时候,需要加载集群的xml配置,将打包好的MR jar包提交到集群使用hadoop命令运行时,代码里面的Configuration在初始化的时候不需要加载xml的配置即可。

大数据视频推荐:
CSDN
大数据语音推荐:
企业级大数据技术应用
大数据机器学习案例之推荐系统
自然语言处理
大数据基础
人工智能:深度学习入门到精通

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值