全流程调度——Azkaban入门与进阶

Azkaban是专门用于数仓中批处理流程的定时调度工具。

常见工作流调度系统

1)简单的任务调度:直接使用Linux的Crontab来定义;

2)复杂的任务调度:开发调度平台或使用现成的开源调度系统,比如Ooize、Azkaban、 Airflow、DolphinScheduler等。

Azkaban与Oozie对比

总体来说,Ooize相比Azkaban是一个重量级的任务调度系统,功能全面,但配置使用也更复杂。如果可以不在意某些功能的缺失,轻量级调度器Azkaban是很不错的候选对象。

Azkaban的基本架构和部署模式

 Web Serever:项目管理,用户管理,权限管理,任务的定时和触发,页面

Executor Server:负责具体任务执行

MySQL:存储工作流程的配置,定时规则,以及任务的执行状态等

1 集群模式安装(多Executor模式)

1.1 上传tar包

[zhang@hadoop102 ~]$ cd /opt/software/

[zhang@hadoop102 software]$ mkdir azkaban

[zhang@hadoop102 software]$ cd azkaban/

上传文件

 [zhang@hadoop102 azkaban]$ mkdir /opt/module/azkaban

[zhang@hadoop102 azkaban]$ tar -zxvf azkaban-web-server-3.84.4.tar.gz -C /opt/module/azkaban/

 [zhang@hadoop102 azkaban]$ tar -zxvf azkaban-exec-server-3.84.4.tar.gz -C /opt/module/azkaban/

[zhang@hadoop102 azkaban]$ tar -zxvf azkaban-db-3.84.4.tar.gz -C /opt/module/azkaban/

 [zhang@hadoop102 azkaban]$ cd /opt/module/azkaban/
[zhang@hadoop102 azkaban]$ ll

[zhang@hadoop102 azkaban]$ mv azkaban-web-server-3.84.4/ azkaban-web
[zhang@hadoop102 azkaban]$ mv azkaban-exec-server-3.84.4/ azkaban-exec
[zhang@hadoop102 azkaban]$ ll

 1.2 配置MySQL

1)安装MySQL

详见数仓4.0笔记——业务数据采集_丝丝呀的博客-CSDN博客_业务数据采集

2)启动MySQL:[zhang@hadoop102 azkaban]$ mysql -uroot -p000000

3)登陆MySQL,创建Azkaban数据库

mysql> create database azkaban;

4)创建azkaban用户并赋予权限

设置密码有效长度4位及以上

mysql> set global validate_password_length=4;

设置密码策略最低级别

mysql> set global validate_password_policy=0;

创建Azkaban用户,任何主机都可以访问Azkaban,密码是000000

mysql> CREATE USER 'azkaban'@'%' IDENTIFIED BY '000000';

赋予Azkaban用户增删改查权限

mysql> GRANT SELECT,INSERT,UPDATE,DELETE ON azkaban.* to 'azkaban'@'%' WITH GRANT OPTION;

5)创建Azkaban表,完成后退出MySQL

mysql> use azkaban;

mysql> source /opt/module/azkaban/azkaban-db-3.84.4/create-all-sql-3.84.4.sql

mysql> quit;

 

6)更改MySQL包大小;防止Azkaban连接MySQL阻塞

[zhang@hadoop102 software]$ sudo vim /etc/my.cnf

在[mysqld]下面加一行max_allowed_packet=1024M

8)重启MySQL

[zhang@hadoop102 software]$ sudo systemctl restart mysqld

 到此,完成了数据的初始化。

1.3 配置Executor Server

[zhang@hadoop102 azkaban]$ vim /opt/module/azkaban/azkaban-exec/conf/azkaban.properties

 

#...

default.timezone.id=Asia/Shanghai

#...

azkaban.webserver.url=http://hadoop102:8081

executor.port=12321

#...

database.type=mysql

mysql.port=3306

mysql.host=hadoop102

mysql.database=azkaban

mysql.user=azkaban

mysql.password=000000

mysql.numconnections=100

 分发[zhang@hadoop102 conf]$ xsync /opt/module/azkaban/azkaban-exec

 必须进入到/opt/module/azkaban/azkaban-exec路径,(原因:配置文件中很多路径使用的是相对路径),分别在三台机器上,启动executor server

[zhang@hadoop102 azkaban-exec]$ bin/start-exec.sh

 

[zhang@hadoop103 ~]$ cd /opt/module/azkaban/azkaban-exec/
[zhang@hadoop103 azkaban-exec]$ bin/start-exec.sh

[zhang@hadoop104 ~]$ cd /opt/module/azkaban/azkaban-exec/
[zhang@hadoop104 azkaban-exec]$ bin/start-exec.sh

 激活executor:

[zhang@hadoop102 azkaban-exec]$ curl -G "hadoop102:12321/executor?action=activate" && echo

 [zhang@hadoop102 azkaban-exec]$ curl -G "hadoop103:12321/executor?action=activate" && echo

[zhang@hadoop102 azkaban-exec]$ curl -G "hadoop104:12321/executor?action=activate" && echo

 1.4 配置Web Server

编辑azkaban.properties

[zhang@hadoop102 azkaban]$ vim /opt/module/azkaban/azkaban-web/conf/azkaban.properties

修改如下属性

...

default.timezone.id=Asia/Shanghai

...

database.type=mysql

mysql.port=3306

mysql.host=hadoop102

mysql.database=azkaban

mysql.user=azkaban

mysql.password=000000

mysql.numconnections=100

...

azkaban.executorselector.filters=StaticRemainingFlowSize,CpuStatus

 

#StaticRemainingFlowSize:正在排队的任务数;

#CpuStatus:CPU占用情况

#MinimumFreeMemory:内存占用情况。测试环境,必须将MinimumFreeMemory删除掉,否则它会认为集群资源不够,不执行。

修改azkaban-users.xml文件,添加zhang用户

[zhang@hadoop102 azkaban-web]$ vim /opt/module/azkaban/azkaban-web/conf/azkaban-users.xml

添加   <user password="123456" roles="admin" username="zhang"/>

必须进入到hadoop102的/opt/module/azkaban/azkaban-web路径,启动web server

[zhang@hadoop102 azkaban-web]$ bin/start-web.sh

访问http://hadoop102:8081,并用zhang用户登陆

 

 

 2 Work Flow案例实操

2.1 HelloWorld案例

1)在windows环境,新建azkaban.project文件,编辑内容如下(内容是固定的)

azkaban-flow-version: 2.0

注意:该文件作用,是采用新的Flow-API方式解析flow文件。

2)新建basic.flow文件,内容如下

nodes:

  - name: jobA

    type: command

    config:

      command: echo "Hello World"

(1)Name:job名称

(2)Type:job类型。command表示你要执行作业的方式为命令

(3)Config:job配置

3)将azkaban.project、basic.flow文件压缩到一个zip文件,文件名称必须是英文。

4)在WebServer新建项目:http://hadoop102:8081/index

5)给项目名称命名和添加项目描述

 6)first.zip文件上传

 8)执行任务流

 

 

 

 

 

 2.2 作业依赖案例

需求:JobA和JobB执行完了,才能执行JobC

修改first.flow为如下内容

nodes:
  - name: jobC
    type: command
    # jobC 依赖 JobA和JobB
    dependsOn:
      - jobA
      - jobB
    config:
      command: echo "I’m JobC"

  - name: jobA
    type: command
    config:
      command: echo "I’m JobA"

  - name: jobB
    type: command
    config:
      command: echo "I’m JobB"

将修改后的文件保存并在压缩包里替换掉之前的文件

 

 

 

 

 2.3 自动失败重试案例

需求:如果执行任务失败,需要重试3次,重试的时间间隔10000ms

具体步骤:

1)编译配置流

nodes:
  - name: JobA
    type: command
    config:
      command: sh /not_exists.sh
      retries: 3
      retry.backoff: 10000

替换压缩包里的first.flow文件

 

 

 

 2.4 手动失败重试案例

需求:JobA=》JobB(依赖于A)=》JobC=》JobD=》JobE=》JobF。生产环境,任何Job都有可能挂掉,可以根据需求执行想要执行的Job。

具体步骤:

nodes:
  - name: JobA
    type: command
    config:
      command: echo "This is JobA."

  - name: JobB
    type: command
    dependsOn:
      - JobA
    config:
      command: echo "This is JobB."

  - name: JobC
    type: command
    dependsOn:
      - JobB
    config:
      command: echo "This is JobC."

  - name: JobD
    type: command
    dependsOn:
      - JobC
    config:
      command: echo "This is JobD."

  - name: JobE
    type: command
    dependsOn:
      - JobD
    config:
      command: echo "This is JobE."

  - name: JobF
    type: command
    dependsOn:
      - JobE
    config:
      command: echo "This is JobF."

 替换压缩包里的first.flow文件

 

 

 手动失败:

 

 

 

 

 

 方法二:

 执行之后就会跳过成功的,直接从失败的开始执行。

 3 Azkaban进阶

3.1 JavaProcess作业类型案例

JavaProcess类型可以运行一个自定义主类方法,type类型为javaprocess,可用的配置为:

Xms:最小堆

Xmx:最大堆

classpath:类路径

java.class:要运行的Java对象,其中必须包含Main方法

main.args:main方法的参数

案例:新建一个azkaban的maven工程

创建包名:com.zhang

 

 

package com.zhang;

public class TestJavaProcess {
    public static void main(String[] args) {
        System.out.println("This is for testing!");
    }

    }

 打包

复制路径com.zhang.TestJavaProcess

新建first.flow,内容如下

nodes:
  - name: test_java
    type: javaprocess
    config:
      Xms: 96M
      Xmx: 200M
      java.class: com.zhang.TestJavaProcess

将Jar包、flow文件和project文件打包成javatest.zip

 

 

 

 3.2 条件工作流案例

条件工作流功能允许用户自定义执行条件来决定是否运行某些Job。条件可以由当前Job的父Job输出的运行时参数构成,也可以使用预定义宏。在这些条件下,用户可以在确定Job执行逻辑时获得更大的灵活性,例如,只要父Job之一成功,就可以运行当前Job。

3.2.1 运行时参数案例

1)基本原理

(1)父Job将参数写入JOB_OUTPUT_PROP_FILE环境变量所指向的文件

(2)子Job使用 ${jobName:param}来获取父Job输出的参数并定义执行条件

2)支持的条件运算符:

(1)== 等于

(2)!=  不等于

(3)>   大于

(4)>= 大于等于

(5)<   小于

(6)<= 小于等于

(7)&& 与

(8)||    或

(9)!    非

案例:

需求:

JobA执行一个shell脚本。

JobB执行一个shell脚本,但JobB不需要每天都执行,而只需要每个周一执行。

(1)新建JobA.sh

#!/bin/bash
echo "do JobA"
wk=`date +%w`
echo "{\"wk\":$wk}" > $JOB_OUTPUT_PROP_FILE

(2)新建JobB.sh

#!/bin/bash
echo "do JobB"

(3)新建condition.flow

nodes:
 - name: JobA
   type: command
   config:
     command: sh JobA.sh

 - name: JobB
   type: command
   dependsOn:
     - JobA
   config:
     command: sh JobB.sh
   condition: ${JobA:wk} == 1

(4) 将JobA.sh、JobB.sh、condition.flow和first.project打包成condition.zip

 (5)创建condition项目=》上传condition.zip文件=》执行作业=》观察结果

 当前日期周五,不满足周一才执行的条件,所以JobB不执行。

 

 

3.2.2 预定义宏案例

Azkaban中预置了几个特殊的判断条件,称为预定义宏。

预定义宏会根据所有父Job的完成情况进行判断,再决定是否执行。可用的预定义宏如下:

(1)all_success: 表示父Job全部成功才执行(默认)

(2)all_done:表示父Job全部完成才执行

(3)all_failed:表示父Job全部失败才执行

(4)one_success:表示父Job至少一个成功才执行

(5)one_failed:表示父Job至少一个失败才执行

1)案例

需求:

JobA执行一个shell脚本

JobB执行一个shell脚本

JobC执行一个shell脚本,要求JobA、JobB中有一个成功即可执行

(1)新建JobA.sh

#!/bin/bash
echo "do JobA"

(2)新建JobC.sh

#!/bin/bash
echo "do JobC"

(3)新建macro.flow

nodes:
 - name: JobA
   type: command
   config:
     command: sh JobA.sh

 - name: JobB
   type: command
   config:
     command: sh JobB.sh

 - name: JobC
   type: command
   dependsOn:
     - JobA
     - JobB
   config:
     command: sh JobC.sh
   condition: one_success

(4)JobA.sh、JobC.sh、macro.flow、first.project文件,打包macro.zip

注意:没有JobB.sh

5)创建macro项目=》上传macro.zip文件=》执行作业=》观察结果

 

 3.3 定时执行案例

需求:JobA每间隔1分钟执行一次;

具体步骤:

1)Azkaban可以定时执行工作流。在执行工作流时候,选择左下角Schedule

 

 

 

 

 

 3.4 邮件报警案例

使用QQ邮箱(注意保留授权码)

Azkaban默认支持通过邮件对失败的任务进行报警,配置方法如下:

1)在azkaban-web节点hadoop102上,编辑/opt/module/azkaban/azkaban-web/conf/azkaban.properties,修改如下内容:

[zhang@hadoop102 ~]$ cd /opt/module/azkaban/azkaban-web/conf/
[zhang@hadoop102 conf]$ ll

[zhang@hadoop102 conf]$ vim azkaban.properties

 mail.sender=自己邮箱号
 mail.host=smtp.qq.com
 mail.user=自己邮箱号
 mail.password=rifqjcgsrhgdbdhe

想要生效,就要重新启动azkaban

 [zhang@hadoop102 azkaban-web]$ bin/shutdown-web.sh

[zhang@hadoop102 azkaban-web]$ bin/start-web.sh

 进入web端重新登陆azkaban

 收到邮件,发送成功的通知。

3.5 电话报警案例

3.5.1 第三方告警平台集成

有时任务执行失败后邮件报警接收不及时,因此可能需要其他报警方式,比如电话报警。如有类似需求,可与第三方告警平台进行集成,例如睿象云。

1)进入睿象云官网注册账号并登录

有时任务执行失败后邮件报警接收不及时,因此可能需要其他报警方式,比如电话报警。如有类似需求,可与第三方告警平台进行集成,例如睿象云。

1)进入睿象云官网注册账号并登录

官网地址:http://www.aiops.com/

注册登录进去

 

 

 

 

 理论上已经完成了azkaban和睿象云的集成。

 3.6 Azkaban多Executor模式注意事项

 [zhang@hadoop102 ~]$ vim test.sh
[zhang@hadoop102 ~]$ chmod +x test.sh
[zhang@hadoop102 ~]$ ./test.sh

 

 修改first.flow文件内容

nodes:
  - name: test
    type: command
    config:
      command: /home/zhang/test.sh

 新建项目test,但是执行报错

 由于,web serve只部署在了hadoop102上,而执行时会任意选择一个Executor去执行任务,如果选到102就会执行成功,但是选到103和104就会执行失败。针对上述错误:

Azkaban多Executor模式是指,在集群中多个节点部署Executor。在这种模式下, Azkaban web Server会根据策略,选取其中一个Executor去执行任务。

为确保所选的Executor能够准确的执行任务,我们须在以下两种方案任选其一,推荐使用方案二。

 方案一:指定特定的Executor(hadoop102)去执行任务。

找到hadoop102的id


 

 此时执行成功

方案二:在Executor所在所有节点部署任务所需脚本和应用。

[zhang@hadoop102 ~]$ xsync test.sh

 此时,根目录下都有test.sh脚本

 

 

 

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值