⼯作流调度系统——Azkaban

⼯作流调度系统

  1. ⼀个完整的数据分析系统通常都是由⼤量任务单元组成:shell脚本程序,java程序,mapreduce程序,hive脚本等
  2. 各任务单元之间存在时间先后及前后依赖关系,为了很好地组织起这样的复杂执⾏计划,需要⼀个⼯作流调度系统来调度任务的执⾏。
  3. 项目流程通常为:
    1. 通过Hadoop先将原始数据同步到HDFS上;
    2. 借助MapReduce计算框架对原始数据进⾏转换,⽣成的数据以分区表的形式存储到多张Hive表中
    3. 需要对Hive中多个表的数据进⾏JOIN处理,得到⼀个明细数据Hive⼤表
    4. 将明细数据进⾏各种统计分析,得到结果报表信息
    5. 将统计分析得到的结果数据同步到业务系统中,供业务调⽤使⽤

⼯作流调度实现⽅式

  1. 简单的任务调度:直接使⽤linux的crontab;
  2. 复杂的任务调度:开发调度平台或使⽤现成的开源调度系统,⽐如Ooize、Azkaban、Airflow等

⼯作流调度系统Azkaban

Azkaban的特点:

  1. Azkaban可以调度mapreduce,pig,java,脚本⼯作流任务,并且可以定时执⾏⼯作流任务,Azkaban的定时执⾏任务是基于时间的
  2. Azkaban使⽤Properties⽂件定义⼯作流
  3. Azkaban⽀持直接传参,例如${input},
  4. Azkaban有较严格的权限控制,如⽤户对⼯作流进⾏读/写/执⾏等操作
  5. Azkaban有两种运⾏模式,分别是solo server mode(executor server和web server部署在同⼀台节点)和multi server mode(executor server和web server可以部署在不同节点)

Azkaban详细介绍

  1. Azkaban是由linkedin(领英)公司推出的⼀个批量⼯作流任务调度器,⽤于在⼀个⼯作流内以⼀个特定的顺序运⾏⼀组⼯作和流程,并且Azkaban使⽤job配置⽂件建⽴任务之间的依赖关系,并提供web⽤户界⾯维护和跟踪⼯作流

在这里插入图片描述

  1. Azkaban定义了⼀种KV⽂件(properties)格式来建⽴任务之间的依赖关系,并提供web⽤户界⾯维护和跟踪⼯作流。
  2. Azkaban主要特点有:Web⽤户界⾯,⽅便上传⼯作流,⽅便设置任务之间的关系,调度⼯作流
  3. Azkaban的架构角色
    1. mysql服务器: 存储元数据,如项⽬名称、项⽬描述、项⽬权限、任务状态、SLA规则等
    2. AzkabanWebServer:对外提供web服务,使⽤户可以通过web⻚⾯管理。职责包括项⽬管理、权限授权、任务调度、监控executor
    3. AzkabanExecutorServer:负责具体的⼯作流的提交、执⾏。

⼯作流调度系统Azkaban的应用

shell command调度

  1. 创建job描述文件,

    command.job
    type=command
    command=echo 'hello'
    
  2. 将job资源⽂件打包成zip⽂件并通过azkaban的web管理平台创建project并上传job压缩包

  3. 执行job

job依赖调度

  1. 创建有依赖关系的多个job描述

    第⼀个job:foo.job
    type=command
    command=echo 'foo'
    
    第⼆个job:bar.job依赖foo.job
    type=command
    dependencies=foo
    command=echo 'bar'
    
    
  2. 将所有job资源⽂件打到⼀个zip包中,在azkaban的web管理界⾯创建⼯程并上传zip包

  3. 执行job

HDFS任务调度

  1. 创建job描述⽂件

    type=command
    command=/opt/servers/hadoop-2.9.2/bin/hadoop fs -mkdir /azkaban
    
  2. 将job资源⽂件打包成zip⽂件,通过azkaban的web管理平台创建project并上传job压缩包

  3. 执行job

MAPREDUCE任务调度

  1. mr任务依然可以使⽤command的job类型来执⾏

  2. 创建job描述⽂件,及mr程序jar包

    type=command
    command=/opt/servers/hadoop-2.9.2/bin/hadoop jar hadoop-mapreduceexamples-2.9.2.jar wordcount /wordcount/input /wordcount/azout
    
  3. 将所有job资源⽂件打到⼀个zip包,在azkaban的web管理界⾯创建⼯程并上传zip包

  4. 启动job

HIVE脚本任务调度

  1. 创建job描述⽂件和hive脚本
Hive脚本: test.sql

use default;
drop table aztest;
create table aztest(id int,name string) row format delimited fields terminatedby ',';

Job描述⽂件:hivef.job

type=command
command=/opt/lagou/servers/hive-2.3.7/bin/hive -f 'test.sql'
  1. 将所有job资源⽂件打到⼀个zip包中创建⼯程并上传zip包,启动job
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值