离线数仓16—— DolphinSchedule工作流调度

第13章 数据仓库工作流调度

13.1 调度工具部署

13.2 新数据生成

13.2.1 用户行为日志

1)启动日志采集通道,包括Kafka、Flume等

(1)启动Zookeeper

[atguigu@hadoop102 ~]$ zk.sh start

(2)启动Kafka

[atguigu@hadoop102 ~]$ kf.sh start

(3)启动Flume

[atguigu@hadoop102 ~]$ f1.sh start

[atguigu@hadoop102 ~]$ f2.sh start

2)修改日志模拟器配置文件

修改hadoop102和hadoop103两台节点中的/opt/module/applog/application.yml文件,修改mock.date参数如下。

mock.date: "2020-06-15"

3)执行日志生成脚本

[atguigu@hadoop102 ~]$ lg.sh

4)观察HDFS上是否有2020-06-15的日志数据生成

13.2.2 业务数据

1)修改Maxwell配置文件

(1)修改/opt/module/maxwell/config.properties文件

[atguigu@hadoop102 maxwell]$ vim /opt/module/maxwell/config.properties

(2)修改mock_date参数设置如下

mock_date=2020-06-15

2)启动增量表采集通道,包括Maxwel、Kafka、Flume等

(1)启动Maxwell

[atguigu@hadoop102 ~]$ mxw.sh start

注:若Maxwell当前正在运行,为确保上述mock参数生效,需重启Maxwell。

(2)启动Flume

[atguigu@hadoop102 ~]$ f3.sh start

3)修改业务数据模拟器配置文件中的mock_date参数

mock.date=2020-06-15

4)执行业务数据生成命令

[atguigu@hadoop102 db_log]$ java -jar gmall2020-mock-db-2021-10-10.jar 

5)观察HDFS上增量表是否有2020-06-15的数据生成

13.3 工作流调度实操

由于DolphinScheduler集群模式启动进程较多,对虚拟机内存要求较高。故下面提供两种方式,可根据虚拟机内存情况进行选择。

13.3.1 DolphinScheduler集群模式

1)启动DolphinScheduler

[atguigu@hadoop102 dolphinscheduler]$ bin/start-all.sh 

2)使用普通用户登录

img

3)向DolphinScheduler资源中心上传工作流所需脚本

(1)创建文件夹

img

(2)上传工作流所需脚本

将工作流所需的所有脚本上传到资源中心scripts路径下,结果如下

img

4)向DolphinScheduler的WorkerServer节点分发脚本依赖的组件

由于工作流要执行的脚本需要调用Hive、DataX等组件,故在DolphinScheduler的集群模式下,需要确保每个WorkerServer节点都有脚本所依赖的组件。

[atguigu@hadoop102 ~]$ xsync /opt/module/hive/

[atguigu@hadoop102 ~]$ xsync /opt/module/spark/

[atguigu@hadoop102 ~]$ xsync /opt/module/datax/

5)配置运行环境

(1)切换到 admin 用户,在环境管理下创建环境

img

(2)在环境配置中添加如下内容

标红部分根据集群情况修改。

export HADOOP_HOME=/opt/module/hadoop-3.1.3

export HADOOP_CONF_DIR=/opt/module/hadoop-3.1.3/etc/hadoop

export SPARK_HOME=/opt/module/spark

export SPARK_HOME2=/opt/soft/spark2

export PYTHON_HOME=/opt/soft/python

export JAVA_HOME=/opt/module/jdk1.8.0_212

export HIVE_HOME=/opt/module/hive

export FLINK_HOME=/opt/soft/flink

export DATAX_HOME=/opt/module/datax

 

export PATH=$HADOOP_HOME/bin:$SPARK_HOME1/bin:$SPARK_HOME2/bin:$PYTHON_HOME:$JAVA_HOME/bin:$HIVE_HOME/bin:$FLINK_HOME/bin:$DATAX_HOME/bin:$PATH  

6)创建工作流

(1)在gmall项目下创建工作流

img

(2)各任务节点配置如下

1mysql_to_hdfs_full

img

2hdfs_to_ods_db

img

3hdfs_to_ods_log

img

4ods_to_dwd

img

5ods_to_dim

img

6dwd_to_dws_1d

img

7dws_1d_to_dws_nd

img

8dws_1d_to_dws_td

img

9dws_to_ads

img

10hdfs_to_mysql

img

(3)各节点依赖关系如下

img

(4)保存工作流

img

注:定时调度时,全局参数值应设置为$[yyyy-MM-dd-1]或者空值。

7)上线工作流

img

8)执行工作流

img

img

注:工作流启动前选择的环境无效,必须在创建任务节点时选择对应环境。此处的“环境名称”可以置空。

13.3.2 DolphinScheduler单机模式

1)启动DolphinScheduler

[atguigu@hadoop102 dolphinscheduler]$ bin/dolphinscheduler-daemon.sh start standalone-server

2)安全中心配置

由于DolphinScheduler的单机模式使用的是内置的ZK和数据库,故在集群模式下所做的相关配置在单机模式下并不可见,所以需要重新配置,必要的配置为创建租户和创建用户。

(1)使用管理员用户登录

img

(2)创建租户

img

(3)创建用户

img

3)切换普通用户登录

img

4)创建项目

img

5)其余操作

.(img-IhT6HnGj-1672365135778)]

(2)创建租户

[外链图片转存中…(img-YvTWblBf-1672365135779)]

(3)创建用户

[外链图片转存中…(img-qEgVUUYm-1672365135780)]

3)切换普通用户登录

[外链图片转存中…(img-NWG3mLLZ-1672365135780)]

4)创建项目

[外链图片转存中…(img-KLZSQXPh-1672365135781)]

5)其余操作

其余操作与集群模式基本一致,其中分发Hive、Spark、DataX这一步可以省略。

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
设计 Kubernetes 下的工作调度系统可以基于以下几个关键步骤: 1. 定义工作:首先,需要明确定义工作中的任务和任务之间的依赖关系。这可以使用一种工作描述语言,如Argo Workflow、Tekton Pipeline等来完成。 2. 资源管理:在 Kubernetes 中,可以使用 Kubernetes API 来管理计算资源和存储资源。需要考虑工作中任务所需的资源类型和数量,并合理分配和管理资源。 3. 任务调度:使用 Kubernetes 的调度器来进行任务调度。可以设置任务的优先级、节点选择策略等来满足工作的需求。同时,也可以结合自定义的调度策略,如基于任务依赖关系、资源利用率等因素来进行任务调度。 4. 任务监控与容错:在工作调度过程中,需要监控任务的执行情况,及时发现任务失败或超时等异常情况,并进行容错处理。可以利用 Kubernetes 的事件机制、日志收集等功能来实现任务监控和容错。 5. 并行执行与依赖管理:对于可以并行执行的任务,可以将它们分配到不同的节点上同时执行,以提高执行效率。而对于有依赖关系的任务,需要确保前置任务成功完成后才能执行后续任务。可以利用工作描述语言中的依赖关系定义来管理任务之间的依赖关系。 6. 可视化与调试:为了方便管理和调试工作,可以使用可视化工具或仪表盘来展示工作的状态、任务执行情况等信息,并提供调试和重试的功能。 总之,在设计 Kubernetes 下的工作调度系统时,需要考虑任务定义、资源管理、任务调度、监控容错、并行执行与依赖管理等方面,以实现高效、可靠的工作调度

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

就是这个范~

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值