大数据技术之Azkaban

一 概述

1.1 为什么需要工作流调度系统

1)一个完整的数据分析系统通常都是由大量任务单元组成:

shell脚本程序,java程序,mapreduce程序、hive脚本等

2)各任务单元之间存在时间先后及前后依赖关系

3)为了很好地组织起这样的复杂执行计划,需要一个工作流调度系统来调度执行;

例如,我们可能有这样一个需求,某个业务系统每天产生20G原始数据,我们每天都要对其进行处理,处理步骤如下所示:

    1. 通过Hadoop先将原始数据上传到HDFS上(HDFS的操作);
    2. 使用MapReduce对原始数据进行清洗(MapReduce的操作);
    3. 将清洗后的数据导入到hive表中(hive的导入操作);
    4. 对Hive中多个表的数据进行JOIN处理,得到一张hive的明细表(创建中间表);
    5. 通过对明细表的统计和分析,得到结果报表信息(hive的查询操作);

1.2    Azkaban的适用场景

根据以上业务场景: (2)任务依赖(1)任务的结果,(3)任务依赖(2)任务的结果,(4)任务依赖(3)任务的结果,(5)任务依赖(4)任务的结果。一般的做法是,先执行完(1)再执行(2),再一次执行(3)(4)(5)。

这样的话,整个的执行过程都需要人工参加,并且得盯着各任务的进度。但是我们的很多任务都是在深更半夜执行的,通过写脚本设置crontab执行。其实,整个过程类似于一个有向无环图(DAG)。每个子任务相当于大任务中的一个节点,也就是,我们需要的就是一个工作流的调度器,而Azkaban就是能解决上述问题的一个调度器

1.3 什么是azkaban

Azkaban是由Linkedin公司推出的一个批量工作流任务调度器,主要用于在一个工作流内以一个特定的顺序运行一组工作和流程,它的配置是通过简单的key:value对的方式,通过配置中的dependencies 来设置依赖关系。Azkaban使用job配置文件建立任务之间的依赖关系,并提供一个易于使用的web用户界面维护和跟踪你的工作流。

1.4 Azkaban特点

  1. 兼容任何版本的hadoop
  2. 易于使用的Web用户界面
  3. 简单的工作流的上传
  4. 方便设置任务之间的关系
  5. 调度工作流
  6. 模块化和可插拔的插件机制
  7. 认证/授权(权限的工作)
  8. 能够杀死并重新启动工作流
  9. 有关失败和成功的电子邮件提醒

1.5 常见工作流调度系统

1)简单的任务调度:直接使用crontab实现;

2)复杂的任务调度:开发调度平台或使用现成的开源调度系统,比如ooize、azkaban等

1.6 ooize和azkaban特性对比

下面的表格对上述四种hadoop工作流调度器的关键特性进行了比较,尽管这些工作流调度器能够解决的需求场景基本一致,但在设计理念,目标用户,应用场景等方面还是存在显著的区别,在做技术选型的时候,可以提供参考

 

特性

Oozie

Azkaban

工作流描述语言

XML

text file with key/value pairs

是否要web容器

Yes

Yes

进度跟踪

web page

web page

Hadoop job调度支持

yes

yes

运行模式

daemon

daemon

事件通知

no

Yes

需要安装

yes

yes

支持的hadoop版本

0.20+

currently unknown

重试支持

workflownode evel

yes

运行任意命令

yes

yes

 

1.7 Azkaban的架构

Azkaban由三个关键组件构成:

  1. AzkabanWebServer:AzkabanWebServer是整个Azkaban工作流系统的主要管理者,它用户登录认证、负责project管理、定时执行工作流、跟踪工作流执行进度等一系列任务。
  2. AzkabanExecutorServer:负责具体的工作流的提交、执行,它们通过mysql数据库来协调任务的执行。
  3. 关系型数据库(MySQL):存储大部分执行流状态,AzkabanWebServer和AzkabanExecutorServer都需要访问数据库。

1.8 Azkaban下载地址

下载地址:http://azkaban.github.io/downloads.html

二 Azkaban安装部署

2.1 安装前准备

1:将Azkaban Web服务器、Azkaban执行服务器、Azkaban的sql执行脚本及MySQL安装包拷贝到bigdata32虚拟机/opt/software目录下
azkaban-web-server-2.5.0.tar.gz
azkaban-executor-server-2.5.0.tar.gz
azkaban-sql-script-2.5.0.tar.gz
mysql-libs.zip
2:选择Mysql作为Azkaban数据库,因为Azkaban建立了一些Mysql连接增强功能,以方便Azkaban设置,并增强服务可靠性。

2.2 安装Azkaban
1:在/opt/mod/目录下创建azkaban目录
      mkdir -p /opt/mod/azkaban
2:解压azkaban-web-server-2.5.0.tar.gz、azkaban-executor-server-2.5.0.tar.gz、azkaban-sql-script-2.5.0.tar.gz到/opt/mod/azkaban目录下
    tar -zxvf azkaban-web-server-2.5.0.tar.gz -C /opt/mod/azkaban/
    tar -zxvf azkaban-executor-server-2.5.0.tar.gz -C /opt/mod/azkaban/
    tar -zxvf azkaban-sql-script-2.5.0.tar.gz -C /opt/mod/azkaban/
3:对解压后的文件重新命名
    mv azkaban-web-2.5.0/ server
    mv azkaban-executor-2.5.0/ executor
4:azkaban脚本导入
    进入mysql,创建azkaban数据库,并将解压的脚本导入到azkaban数据库。
    mysql -uroot -poracle
mysql> create database azkaban;
mysql> use azkaban;
mysql> source /opt/mod/azkaban-2.5.0/create-all-sql-2.5.0.sql
注:source后跟.sql文件,用于批量处理.sql文件中的sql语句。

2.3 生成密钥库

Keytool是java数据证书的管理工具,使用户能够管理自己的公/私钥对及相关证书。

-keystore    指定密钥库的名称及位置(产生的各类信息将不在.keystore文件中)

-genkey      在用户主目录中创建一个默认文件".keystore"

-alias  对我们生成的.keystore 进行指认别名;如果没有默认是mykey

-keyalg  指定密钥的算法 RSA/DSA 默认是DSA

1)生成 keystore的密码及相应信息的密钥库

keytool -keystore keystore -alias jetty -genkey -keyalg RSA

输入密钥库口令:  oracle

再次输入新口令:  oracle

您的名字与姓氏是什么?

  [Unknown]: 

您的组织单位名称是什么?

  [Unknown]: 

您的组织名称是什么?

  [Unknown]: 

您所在的城市或区域名称是什么?

  [Unknown]: 

您所在的省/市/自治区名称是什么?

  [Unknown]: 

该单位的双字母国家/地区代码是什么?

  [Unknown]: 

CN=Unknown, OU=Unknown, O=Unknown, L=Unknown, ST=Unknown, C=Unknown是否正确?

  [否]:  y

 

输入 <jetty> 的密钥口令    oracle

        (如果和密钥库口令相同, 按回车): 

再次输入新口令:            oracle

注意:

密钥库的密码至少必须6个字符,可以是纯数字或者字母或者数字和字母的组合等等

密钥库的密码最好和<jetty> 的密钥相同,方便记忆

2)将keystore 拷贝到 azkaban web服务器根目录中

mv keystore /opt/mod/azkaban/server/

 

2.4 时间同步配置

先配置好服务器节点上的时区

  1. 如果在/usr/share/zoneinfo/这个目录下不存在时区配置文件Asia/Shanghai,就要用 tzselect 生成。

[itstar@bigdata111 azkaban]$ tzselect

Please identify a location so that time zone rules can be set correctly.

Please select a continent or ocean.

 1) Africa

 2) Americas

 3) Antarctica

 4) Arctic Ocean

 5) Asia

 6) Atlantic Ocean

 7) Australia

 8) Europe

 9) Indian Ocean

10) Pacific Ocean

11) none - I want to specify the time zone using the Posix TZ format.

#? 5

Please select a country.

 1) Afghanistan           18) Israel                35) Palestine

 2) Armenia               19) Japan                 36) Philippines

 3) Azerbaijan            20) Jordan                37) Qatar

 4) Bahrain               21) Kazakhstan            38) Russia

 5) Bangladesh            22) Korea (North)         39) Saudi Arabia

 6) Bhutan                23) Korea (South)         40) Singapore

 7) Brunei                24) Kuwait                41) Sri Lanka

 8) Cambodia              25) Kyrgyzstan            42) Syria

 9) China                 26) Laos                  43) Taiwan

10) Cyprus                27) Lebanon               44) Tajikistan

11) East Timor            28) Macau                 45) Thailand

12) Georgia               29) Malaysia              46) Turkmenistan

13) Hong Kong             30) Mongolia              47) United Arab Emirates

14) India                 31) Myanmar (Burma)       48) Uzbekistan

15) Indonesia             32) Nepal                 49) Vietnam

16) Iran                  33) Oman                  50) Yemen

17) Iraq                  34) Pakistan

#? 9

Please select one of the following time zone regions.

1) Beijing Time

2) Xinjiang Time

#? 1

 

The following information has been given:

 

        China

        Beijing Time

 

Therefore TZ='Asia/Shanghai' will be used.

Local time is now:      Thu Oct 18 16:24:23 CST 2018.

Universal Time is now:  Thu Oct 18 08:24:23 UTC 2018.

Is the above information OK?

1) Yes

2) No

#? 1

 

You can make this change permanent for yourself by appending the line

        TZ='Asia/Shanghai'; export TZ

to the file '.profile' in your home directory; then log out and log in again.

 

Here is that TZ value again, this time on standard output so that you

can use the /usr/bin/tzselect command in shell scripts:

Asia/Shanghai

2)拷贝该时区文件,覆盖系统本地时区配置

 cp /usr/share/zoneinfo/Asia/Shanghai /etc/localtime 

3)集群时间同步(同时发给三个窗口),这里选择和阿里云时间同步ntpdate time1.aliyun.com

ntpdate time1.aliyun.com

2.5 配置文件

2.5.1 Web服务器配置

1)进入azkaban web服务器安装目录 conf目录,打开azkaban.properties文件

pwd

/opt/mod/azkaban/server/conf

vim azkaban.properties

2)按照如下配置修改azkaban.properties文件。

#Azkaban Personalization Settings

#服务器UI名称,用于服务器上方显示的名字

azkaban.name=Test

#描述

azkaban.label=My Local Azkaban

#UI颜色

azkaban.color=#FF3601

azkaban.default.servlet.path=/index

#默认web server存放web文件的目录

web.resource.dir=/opt/mod/azkaban/server/web/

#默认时区,已改为亚洲/上海 默认为美国

default.timezone.id=Asia/Shanghai

#Azkaban UserManager class

user.manager.class=azkaban.user.XmlUserManager

#用户权限管理默认类(绝对路径)

user.manager.xml.file=/opt/mod/azkaban/server/conf/azkaban-users.xml

#Loader for projects

#global配置文件所在位置(绝对路径)

executor.global.properties=/opt/mod/azkaban/executor/conf/global.properties

azkaban.project.dir=projects

 

#数据库类型

database.type=mysql

#端口号

mysql.port=3306

#数据库连接IP

mysql.host=bigdata33

#数据库实例名

mysql.database=azkaban

#数据库用户名

mysql.user=root

#数据库密码

mysql.password=oracle

#最大连接数

mysql.numconnections=100

 

# Velocity dev mode

velocity.dev.mode=false

 

# Azkaban Jetty server properties.

# Jetty服务器属性.

#最大线程数

jetty.maxThreads=25

#Jetty SSL端口

jetty.ssl.port=8443

#Jetty端口

jetty.port=8081

#SSL文件名(绝对路径)

jetty.keystore=/opt/mod/azkaban/server/keystore

#SSL文件密码

jetty.password=000000

#Jetty主密码与keystore文件相同

jetty.keypassword=000000

#SSL文件名(绝对路径)

jetty.truststore=/opt/module/azkaban/server/keystore

#SSL文件密码

jetty.trustpassword=000000

 

# Azkaban Executor settings

executor.port=12321

 

# mail settings

mail.sender=

mail.host=

job.failure.email=

job.success.email=

lockdown.create.projects=false

cache.directory=cache

 3)web服务器用户配置

在azkaban web服务器安装目录 conf目录,按照如下配置修改azkaban-users.xml 文件,增加管理员用户。

vim azkaban-users.xml

<azkaban-users>

  <user username="azkaban" password="azkaban" roles="admin" groups="azkaban" />

  <user username="metrics" password="metrics" roles="metrics"/>

  <user username="admin" password="admin" roles="admin,metrics" />

  <role name="admin" permissions="ADMIN" />

  <role name="metrics" permissions="METRICS"/>

</azkaban-users>

2.5.2 执行服务器配置

1)进入执行服务器安装目录conf,打开azkaban.properties

pwd

/opt/mod/azkaban/executor/conf

vim azkaban.properties

  1. 按照如下配置修改azkaban.properties文件。

#Azkaban

#时区

default.timezone.id=Asia/Shanghai

 

# Azkaban JobTypes Plugins

#jobtype 插件所在位置

azkaban.jobtype.plugin.dir=plugins/jobtypes

 

#Loader for projects

executor.global.properties=/opt/mod/azkaban/executor/conf/global.properties

azkaban.project.dir=projects

 

database.type=mysql

mysql.port=3306

mysql.host=bigdata33

mysql.database=azkaban

mysql.user=root

mysql.password=oracle

mysql.numconnections=100

 

# Azkaban Executor settings

#最大线程数

executor.maxThreads=50

#端口号(如修改,请与web服务中一致)

executor.port=12321

#线程数

executor.flow.threads=30

2.6 启动executor服务器

executor服务器目录下执行启动命令

/opt/mod/azkaban/executor/bin/azkaban-executor-start.sh

2.7 启动web服务器

在azkaban web服务器目录下执行启动命令

/opt/mod/azkaban/server/bin/azkaban-web-start.sh

注意:

先执行executor,再执行web,避免Web Server会因为找不到执行器启动失败。

jps查看进程

jps

3601 AzkabanExecutorServer

5880 Jps

3661 AzkabanWebServer

启动完成后,在浏览器(建议使用谷歌浏览器)中输入https://192.168.1.33:8443,即可访问azkaban服务了。

在登录中输入刚才在azkaban-users.xml文件中新添加的户用名及密码,即admin和admin,点击 login。

三 Azkaban实战

Azkaba内置的任务类型支持command、java

3.1单一job案例

1)创建job描述文件

[itstar@bigdata111 jobs]$ vim first.job

#first.job

type=command

command=echo 'this is my first job'

2) 将job资源文件打包成zip文件

[itstar@bigdata111 jobs]$ zip first.zip first.job

  adding: first.job (deflated 15%)

[itstar@bigdata111 jobs]$ ll

总用量 8

-rw-rw-r--. 1 itstar itstar  60 10月 18 17:42 first.job

-rw-rw-r--. 1 itstar itstar 219 10月 18 17:43 first.zip

注意:

目前,Azkaban上传的工作流文件只支持xxx.zip文件。zip应包含xxx.job运行作业所需的文件和任何文件(文件名后缀必须以.job结尾,否则无法识别)。作业名称在项目中必须是唯一的。

3)通过azkaban的web管理平台创建project并上传job的zip包

首先创建project

上传zip包

4)启动执行该job

点击执行工作流

点击继续

5)Job执行成功

6)点击查看job日志

3.2多job工作流案例

1)创建有依赖关系的多个job描述

第一个job:1.job

 vi 1.job

type=command

command=/opt/mod/hadoop-2.8.4/bin/hadoop fs -put /opt/mod/datas/word.txt /

第二个job:2.job依赖1.job

[itstar@bigdata111 jobs]$ vi 2.job

type=command

command=/opt/mod/hadoop-2.8.4/bin/hadoop jar /opt/mod/hadoop-2.8.4/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.8.4.jar wordcount /word.txt /out

dependencies=1

2)注意:将所有job资源文件打到一个zip包中

3)在azkaban的web管理界面创建工程并上传zip包

4)查看结果

思考:

将student.txt文件上传到hdfs,根据所传文件创建外部表,再将表中查询到的结果写入到本地文件

3.3 java操作任务

使用Azkaban调度java程序

1)编写java程序

package Azkaban;
import java.io.FileOutputStream;
import java.io.IOException;

public class AzkabanTest {
    public void run() throws IOException {
        // 根据需求编写具体代码
        FileOutputStream fos = new FileOutputStream("/opt/datas/output.txt");
        fos.write("this is a java progress".getBytes());
        fos.close();
    }
    public static void main(String[] args) throws IOException {
        AzkabanTest azkabanTest = new AzkabanTest();
        azkabanTest.run();
    }
}

2)将java程序打成jar包,创建lib目录,将jar放入lib内

mkdir /opt/datas/lib

cd /opt/dataslib/

ll

总用量 4

-rw-r--r--. 1 root root 103652 Jul 18 19:17 zhang-1.0-SNAPSHOT.jar

3)编写job文件

vim azkabanJava.job

#azkabanJava.job

type=javaprocess

java.class=Azkaban.AzkabanTest(全类名)

classpath=/opt/datas/lib/*

4)将job文件打成zip包

zip azkabanJava.zip azkabanJava.job

  adding: azkabanJava.job (deflated 19%)

5)通过azkaban的web管理平台创建project并上传job压缩包,启动执行该job

cat /opt/datas/output.txt

3.3 HDFS操作任务

1)创建job描述文件

vi hdfs.job

#hdfs job

type=command

command=/opt/mod/hadoop-2.8.4/bin/hadoop fs -mkdir /user/hive/azkaban

2)将job资源文件打包成zip文件

[itstar@bigdata111 jobs]$ zip fs.zip fs.job

  adding: fs.job (deflated 12%)

3)通过azkaban的web管理平台创建project并上传job压缩包

4)启动执行该job

5)查看结果

3.4 mapreduce任务

mapreduce任务依然可以使用azkaban进行调度

  1. 创建job描述文件,及mr程序jar包

vim mapreduce.job

#mapreduce job

type=command

command=/opt/mod/hadoop-2.8.4/bin/hadoop jar /opt/mod/hadoop-2.8.4/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.8.4.jar wordcount /wordcount/input /wordcount/output

  1. 将所有job资源文件打到一个zip包中

 zip mapreduce.zip mapreduce.job

  adding: mapreduce.job (deflated 43%)

3)在azkaban的web管理界面创建工程并上传zip包

4)启动job

5)查看结果

3.5 Hive脚本任务

1)创建job描述文件和hive脚本

(1)Hive脚本:student.sql

[itstar@bigdata32 jobs]$ vim student.sql

use default;

drop table student;

create table student(id int, name string)

row format delimited fields terminated by '\t';

load data local inpath '/opt/module/datas/student.txt' into table student;

insert overwrite local directory '/opt/module/datas/student'

row format delimited fields terminated by '\t'

select * from student;

(2)Job描述文件:hive.job

 vim hive.job

#hive job

type=command

command=/opt/mod/hive/bin/hive -f /opt/mod/azkaban/jobs/student.sql

  1. 将所有job资源文件打到一个zip包中

3)在azkaban的web管理界面创建工程并上传zip包

4)启动job

5)查看结果

cat /opt/mod/datas/student/000000_0

--------------------------------------------------------------------------------

练习:编写多job依赖:

job1:上传倒排索引的文件到hdfs

job2依赖job1:进行倒排索引的第一次处理

job3依赖job2:计算最终的倒排索引

一:文件内容,都放在/opt目录下

a.txt

map
reduce
MapReduce
index Inverted index
Inverted index
倒排索引
大数据
hadoop MapReduce hdfs
Inverted index

b.txt

hadoop MapReduce hdfs
Inverted index
倒排索引
大数据
map
reduce
MapReduce

c.txt

Inverted index
倒排索引
大数据
hadoop MapReduce hdfs
Inverted index
hadoop MapReduce hdfs
Inverted index
map
reduce
MapReduce

二:编写倒排索引Index1类,并打包上传到/opt/job2目录下

package Index;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.input.FileSplit;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import java.io.IOException;
import java.net.URISyntaxException;

public class Index1 {
    public static void main(String[] args) throws ClassNotFoundException, URISyntaxException, InterruptedException, IOException {        
      // 1 获取job信息
        Configuration conf = new Configuration();
        Job job = Job.getInstance(conf);

        // 2 加载jar包
        job.setJarByClass(Index1.class);

        // 3 关联map和reduce
        job.setMapperClass(Index1Map.class);
        // 4 设置最终输出类型
        job.setMapOutputKeyClass(Text.class);
        job.setMapOutputValueClass(IntWritable.class);

        // 设置reduce
        job.setReducerClass(Index1Reduce.class);
        job.setOutputKeyClass(Text.class);
        job.setOutputValueClass(IntWritable.class);

        // 5 设置输入和输出路径
        FileInputFormat.setInputPaths(job, new Path(args[0]));
        FileOutputFormat.setOutputPath(job, new Path(args[1]));

        // 6 提交
        job.waitForCompletion(true);
    }
}

    /**
     *  倒排索引Map
     *  数据内容:hadoop MapReduce hdfs
     *  输出数据:hadoop--a.txt
     */
    class  Index1Map extends Mapper<LongWritable, Text, Text, IntWritable> {
        Text k = new Text();
        IntWritable v = new IntWritable();
        String name;
        //初始化,获取文件名
        @Override
        protected void setup(Context context) throws IOException, InterruptedException {
            FileSplit inputSplit = (FileSplit) context.getInputSplit();
            name = inputSplit.getPath().getName();
        }
        @Override
        protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
            //获取数据:hadoop MapReduce hdfs
            String line = value.toString();
            //切分数据
            String[] split = line.split(" ");
            //拼接,关键字和文件名
            for(String s:split){
                k.set(s + "--" + name);
                v.set(1);   //1,出现一次
                context.write(k,v);
            }
        }
    }

    /**
     * reduce
     * 获取Map数据:hadoop--a.txt 1
     * 输出结果:hadoop--a.txt 2
     */
    class Index1Reduce extends Reducer<Text, IntWritable, Text, IntWritable> {
        IntWritable v = new IntWritable();
        @Override
        protected void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException {
            //定义计数器,并初始化
            int sum = 0;
            for(IntWritable iw:values){
                sum += iw.get();
            }
            v.set(sum);
            //输出
            context.write(key,v);
        }
    }

二:编写倒排索引Index2类,并打包上传到/opt/job3目录下
package Index;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import java.io.IOException;

public class Index2 {
    public static void main(String[] args) throws ClassNotFoundException, InterruptedException, IOException {

        // 1 获取job信息
        Configuration conf = new Configuration();
        Job job = Job.getInstance(conf);

        // 2 加载jar包
        job.setJarByClass(Index2.class);

        // 3 关联map和reduce
        job.setMapperClass(Index2Map.class);
        // 4 设置最终输出类型
        job.setMapOutputKeyClass(Text.class);
        job.setMapOutputValueClass(Text.class);

        // 设置reduce
        job.setReducerClass(Index2Reduce.class);
        job.setOutputKeyClass(Text.class);
        job.setOutputValueClass(Text.class);

        // 5 设置输入和输出路径
        FileInputFormat.setInputPaths(job, new Path(args[0]));
        FileOutputFormat.setOutputPath(job, new Path(args[1]));

        // 6 提交
        job.waitForCompletion(true);

    }
}

    /**
     *  hadoop--a.txt 2
     *  hadoop--b.txt 1
     *  hadoop--c.txt 3
     */
    class Index2Map extends Mapper<LongWritable, Text, Text, Text> {
        Text k = new Text();
        Text v = new Text();
        @Override
        protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
            //获取数据
            String line = value.toString();
            //切分数据 "--"
            String[] split = line.split("--");
            k.set(split[0]);
            v.set(split[1]);
            context.write(k,v);
        }
    }

    /**
     * Reduce
     * 获取Map数据:hadoop [a.txt 2,b.txt 1,c.txt 3]
     * 输出结果:hadoop a.txt-->2 b.txt-->1 c.txt-->3
     *
     */
    class Index2Reduce extends Reducer<Text, Text, Text, Text >{
        @Override
        protected void reduce(Text key, Iterable<Text> values, Context context) throws IOException, InterruptedException {
            StringBuilder sb = new StringBuilder();
            for(Text t:values){
                //a.txt 3
                String[] split = t.toString().split("\t");
                //数据从新 --> 拼接
                String s = split[0] + "-->" + split[1];
                sb.append(s).append("\t");
            }
            //输出
            context.write(key, new Text(sb.toString()));
        }
    }

三:编写5个job,然后打包压缩

第一个job:11.job
vi 1.job

type=command
command=/opt/mod/hadoop-2.8.4/bin/hadoop fs -put /opt/job1/a.txt /user/hive/index
command.1=/opt/mod/hadoop-2.8.4/bin/hadoop fs -put /opt/job1/b.txt /user/hive/index
command.2=/opt/mod/hadoop-2.8.4/bin/hadoop fs -put /opt/job1/c.txt /user/hive/index

第二个job:14.job依赖11.job
vi 12.job
type=command
command=/opt/mod/hadoop-2.8.4/bin/hadoop jar /opt/job2/zhang-1.0-SNAPSHOT.jar Index.Index1 /user/hive/index /user/hive/out1
dependencies=11

第三个job:15.job依赖14.job
vi 14.job
type=command
command=/opt/mod/hadoop-2.8.4/bin/hadoop jar /opt/job3/zhang-1.0-SNAPSHOT.jar Index.Index2 /user/hive/out1 /user/hive/out2
dependencies=14

将这几个job用zip压缩后上传 azkaban,运行结果如下:

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值