DataX 数据全量,增量同步方案

关于DataX 增量更新实现

参考来源文章

增量更新总体思路:从目标数据库读取一个最大值的记录,可以是DataTime 或者 RowVersion 类型,然后根据这个最大值对源数据库要同步的表进行过滤,然后再进行同步即可。

由于DataX 支持多种数据库的读写,一种相对简单并且可靠的思路就是:

  1. 从csv 文件读取目标数据库上次抽取数据的一个最大值;
  2. 动态修改json配置文件(增加过滤条件);
  3. 执行修改后的配置文件,进行增量同步;
  4. 同步成功,将系统当前时间写入csv文件;

接下来就是shell 脚本来一步一步实现增量更新

增量更新shell 实现

图示如下:
image

我们的同步环境是从oracle 到 hive,由于dataX 无法从目的数据库(即hive)中读取值,因此改为从csv文件读取,
同样因为无法读取hive数据库内最大值,因此最大值,采用上次数据同步时间。我们要做的只是每次数据同步成功后把系统时间写入到对应的csv文件中(每个表对应一个csv文件)。

1. 数据同步json 配置文件

从oracle 同步到hive ,部分配置如下

例: oracle2hive_ods_s_jy_AB01.json

{
	"job": {
		"content": [{
			"reader": {
				"name": "oraclereader",
				"parameter": {
					"column": ["AAB001", "AAB004", "AAB041", "AAB043", "AAB013", "to_char(sysdate,'yyyymmddhh24miss') as D_UPDATE"],
					"where":"1=1",
					"connection": [{
						"jdbcUrl": ["jdbc:oracle:thin:@【源数据库ip】:【port】/pdb1"],
						"table": ["NBJYJZ_NB_DATA_INF.AB01"]
					}],
					"username": "***",
					"password": "***"
				}
			},
			"writer": {
				"name": "hdfswriter",
				"parameter": {
					"column": [{
						"name": "AAB001",
						"type": "STRING"
					}, {
						"name": "AAB004",
						"type": "STRING"
					},
					...
					
					],
					"defaultFS": "hdfs://【目的ip】:【port】",
					"fieldDelimiter": "\t",
					"fileName": "ods_s.ods_jy_ab01",
					"fileType": "text",
					"path": "/user/hive/warehouse/ods_s.db/ods_jy_nb_ab01",
					"writeMode": "append"
				}
			}
		}],
		"setting": {
			"speed": {
				"byte": 10485760,
				"channel": "5"
			}
		}
	}
}

数据同步的脚本有了,读取最大值的脚本可以写在shell 里。下面配置dataX增量同步的shell脚本。

2. 增量同步的shell脚本配置
#!/bin/bash
#datax 数据抽取
#create time:2018-11-27 10:00:00

### every exit != 0 fails the script
# 错误检查,有错误的时候退出
set -e 

# 我们的dataX脚本里需要的参数,不需要的可以不加 
systemDate=`date +%Y-%m-%d,%H:%M:%S`

# 获取当前时间,这个是同步后要写到csv文件的变量
current_time=`date +"%Y-%m-%d %H:%M:%S"`
echo ${current_time}

shell_array[0]= oracle2hive_ods_s_jy_AB01.json
# shell_array[1]= oracle2hive_ods_s_jy_AB02.json
# shell_array[2]= oracle2hive_ods_s_jy_AB07.json
# ...

# 遍历文件名
for i in ${#shell_array[*]}
do
# 循环执行命令
    # ${shell_array[$i]} 文件名
    # 通过文件名称截取表名,我们的脚本命名末尾标识的是表名
    table_name=${${shell_array[$i]}:0-9:4}

        # 1. 找到 csv文本文件,并将内容读取到一个变量中
        MAX_TIME=`cat /opt/datax/job/jy/result/${table_name}.csv`
        # 如果最大时间不为 null 的话, 修改全部同步的配置,进行增量更新;
        # 如果最大时间为null ,进行全量更新;
        if [ "$MAX_TIME" != "null" ]; then
        # 设置增量更新过滤条件
        WHERE="AAE036 > '$MAX_TIME'"
        
        # 2.改写json配置文件
        sed "s/1=1/$WHERE/g" /opt/datax/job/jy/ql/${shell_array[$i]} > /opt/datax/job/jy/zl/${${shell_array[$i]}/.json/_zl.json}
        
        # 3.增量更新
        python /opt/datax/bin/datax.py -p "-DsystemDate='$systemDate'" -j "-Xms4g -Xmx4g" /opt/datax/job/jy/zl/${${shell_array[$i]}/.json/_zl.json}
        else
        # 全量更新
        python /opt/datax/bin/datax.py -p "-DsystemDate='$systemDate'" -j "-Xms4g -Xmx4g"  /opt/datax/job/jy/ql/${shell_array[$i]}
        fi
    if [ $? -ne 0 ]; then
    #命令执行失败,不做任何操作
    else
    # 执行成功,将最大日期写入csv 文件,覆盖写入
    table_name=${${shell_array[$i]}:0-9:4}
    echo  ${current_time} > /opt/datax/job/jy/result/${table_name}.csv
    fi
# 删除临时文件,增量文件
rm -rf /opt/datax/job/jy/zl/${${shell_array[$i]}/.json/_zl.json}
done

补充:上述脚本中用到shell关于字符串的操作(大神请略过)

  • 1.shell字符串替换
var=oracle2hive_ods_s_jy_AB01.json
# echo ${var/查找字符串/替换字符串}
echo ${$var/.json/_zl.json}
结果:oracle2hive_ods_s_jy_AB01_zl.json

  • 2.shell 字符串截取
var=oracle2hive_ods_s_jy_AB01.json
echo ${$var:0-9:4}
结果: AB01
################
sed "s/查找字符串/替换字符串/g" 源文件 > 目标文件

简书地址,转载请注明出处。

  • 4
    点赞
  • 42
    收藏
    觉得还不错? 一键收藏
  • 18
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 18
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值