数仓 调度_离线电商数仓(四十九)之系统业务数据仓库(二十)数据导出与全流程调度...

本文介绍了如何使用Sqoop从Hive导出数据到MySQL,详细讲解了导出脚本的编写,并探讨了 Sqoop 的参数设置。接着,概述了Azkaban的安装过程,并展示了全调度流程,包括各个阶段的Job配置,最后展示了如何在Azkaban中执行任务并检查结果。
摘要由CSDN通过智能技术生成

1Sqoop导出脚本

1)编写Sqoop导出脚本

在/home/atguigu/bin目录下创建脚本hiveTomysql.sh

[[email protected] bin]$ vim hiveTomysql.sh

在脚本中填写如下内容

#!/bin/bash

hive_db_name=gmall

mysql_db_name=gmall_view

export_data() {/opt/module/sqoop/bin/sqoop export--connect "jdbc:mysql://hadoop102:3306/${mysql_db_name}?useUnicode=true&characterEncoding=utf-8"--username root--password 000000--table $1--num-mappers 1--export-dir /warehouse/$hive_db_name/ads/$1--input-fields-terminated-by "\t"--update-mode allowinsert--update-key $2--input-null-string ‘\\N‘--input-null-non-string ‘\\N‘}case $1 in

"ads_uv_count")

export_data"ads_uv_count" "dt";;"ads_user_action_convert_day")

export_data"ads_user_action_convert_day" "dt";;"ads_gmv_sum_day")

export_data"ads_gmv_sum_day" "dt";;"ads_user_topic")

export_data"ads_user_topic" "dt";;"all")

export_data"ads_uv_count" "dt"export_data"ads_user_action_convert_day" "dt"export_data"ads_gmv_sum_day" "dt"export_data"ads_user_topic" "dt";;

esac

关于导出update还是insert的问题

--update-mode:

updateonly   只更新,无法插入新数据

allowinsert   允许新增

--update-key:允许更新的情况下,指定哪些字段匹配视为同一条数据,进行更新而不增加。多个字段用逗号分隔。

--input-null-string和--input-null-non-string:

分别表示,将字符串列和非字符串列的空串和“null”转义。

官网地址:http://sqoop.apache.org/docs/1.4.6/SqoopUserGuide.html

Sqoop will by default import NULL values as string null.

Hive is however using string \N to denote NULL values and therefore predicates dealing with NULL(like IS NULL) will not work correctly.

You should append parameters --null-string and --null-non-string in case of import job or --input-null-string and --input-null-non-string in case of an export job if you wish to properly preserve NULL values.

Because sqoop is using those parameters in generated code, you need to properly escape value \N to \\N:

Hive中的Null在底层是以“\N”来存储,而MySQL中的Null在底层就是Null,为了保证数据两端的一致性。在导出数据时采用--input-null-string和--input-null-non-string两个参数。导入数据时采用--null-string和--null-non-string。

3)执行Sqoop导出脚本

[[email protected] bin]$ chmod 777 hiveTomysql.sh

[[email protected] bin]$ hiveTomysql.sh all

4)在MySQL中查看结果

SELECT * FROM ads_uv_count;

SELECT * FROM ads_user_retention_day_rate;

SELECT * FROM ads_user_action_convert_day;

SELECT * FROM ads_gmv_sum_day;

SELECT * FROM ads_gmv_sum_province;

2 Azkaban安装

详见:尚硅谷大数据技术之Azkaban

3会员主题指标获取的全调度流程

1)修改配置文件中时间,生成数据

[[email protected] db_log]$ java -jar gmall-mock-db.jar

2)编写Azkaban程序运行job

(1)import.job文件

type=command

do_date=${dt}

command=/home/atguigu/bin/sqoop_import.sh all ${do_date}

(2)ods.job文件

type=command

do_date=${dt}

dependencies=import

command=/home/atguigu/bin/hdfs_to_ods_db.sh ${do_date}

(3)dwd.job文件

type=command

do_date=${dt}

dependencies=ods

command=/home/atguigu/bin/ods_to_dwd_db.sh ${do_date}

(4)dws.job文件

type=command

do_date=${dt}

dependencies=dwd

command=/home/atguigu/bin/dwd_to_dws.sh ${do_date}

(5)dwt.job文件

type=command

do_date=${dt}

dependencies=dws

command=/home/atguigu/bin/dws_to_dwt.sh ${do_date}

(6)ads.job文件

type=command

do_date=${dt}

dependencies=dwt

command=/home/atguigu/bin/ads_user_topic.sh ${do_date}

(7)export.job文件

type=command

dependencies=ads

do_date=${dt}

command=/home/atguigu/bin/hiveTomysql.sh ads_user_topic ${do_date}

(8)将以上6个文件压缩成user-topic-job.zip文件

3)创建Azkaban工程,并上传user-topic-job.zip文件。

4)在浏览器中输入https://hadoop102:8443,并在页面上创建工程执行gmv-job.zip任务。

5)等待大约20分钟,在MySQL中查看结果

select * from ads_user_topic;

原文:https://www.cnblogs.com/qiu-hua/p/13598678.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值