hadoop job java_Hadoop多Job并行处理的实例详解

本文详细介绍了如何在Hadoop中实现多Job并行处理,包括配置FairScheduler,设置Job的jar路径,以及Java代码实现Job的并行提交和状态检查。通过示例代码展示了使用waitForCompletion和submit方法的区别,适用于单机和集群环境。
摘要由CSDN通过智能技术生成

Hadoop多Job并行处理的实例详解

有关Hadoop多Job任务并行处理,经过测试,配置如下:

首先做如下配置:

1、修改mapred-site.xml添加调度器配置:

mapred.jobtracker.taskScheduler

org.apache.hadoop.mapred.FairScheduler

2、添加jar文件地址配置:

hadoopTest.jar

所生成jar的地址

Java基本代码如下:

// 获取各个Job,有关Job的创建,这里就不贴上来了。

Job job_base = (Job) 。。。;

Job job_avg = (Job) 。。。;

Job job_runCount = (Job) 。。。;

Job job_activeUser = (Job) ....;

job_base.setJarByClass(CapuseDateTimerTask.class);

job_avg.setJarByClass(CapuseDateTimerTask.class);

job_runCount.setJarByClass(CapuseDateTimerTask.class);

job_activeUser.setJarByClass(CapuseDateTimerTask.class);

// 执行完job_base才开始并行以下三个Job;

if (job_base.waitForCompletion(true)) {

FileUtil.hdfsFileHandle(jobBase);

// 并行Job

job_avg.submit();

job_runCount.submit();

job_activeUser.submit();

}

boolean bln1 = job_avg.isComplete();

boolean bln2 = job_runCount.isComplete();

boolean bln3 = job_activeUser.isComplete();

// 计算Job是否完成

while (!bln1 || !bln2 || !bln3) {

bln1 = job_avg.isComplete();

bln2 = job_runCount.isComplete();

bln3 = job_activeUser.isComplete();

}

最后将这些代码组装至Main方法,使用Hadoop执行命令运行:

hadoop jar jar包名称  方法入口所在的类

如:

hadoop jar hadoopTest.jar ch03.test Test

可以通过50030端口来监控Job的并行状态,这里就不多说了!!

解释:

1、配置Jar地址可以解决打包所生成的jar包后,运行时出现ClassNotFound的问题;

2、给多个Job设定setJarByClass,经测试,如果不设定此类,运行时会出现ClassNotFound错误,其中CapuseDateTimerTask为Main方法所在的类名;

3、waitForCompletion与submit方法是有区别的,waitForCompletion是串行,而submit是并行,正是因为submit是并行所以后续的代码操作需要取其执行是否完成的状态来做判断处理即:isComplete();

4、以上Job采用的是:org.apache.hadoop.mapreduce.Job

以上代码操作在单机/集群上测试都通过!

如有疑问请留言或者到本站社区交流讨论,感谢阅读,希望能帮助到大家,谢谢大家对本站的支持!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值