背景
最近由Java工程师转岗为ETL数据工程师,虽然以前也有为数据集成的项目储备过kettle相关的知识,但是一直没有在生产环境中实际使用过kettle。然后最近刚好有一个比较小的活,需要每天定时同步几个csv文件到数据库表,然后用kettle大概花了一天时间做完了这个任务。
需求:将每天上传到指定目录下.tar.gz压缩包下的4个csv文件,每天定时同步到数据库表中。
解题思路
首先对压缩文件解压,解压.tar.gz文件,得到4个csv文件。
然后对4个csv文件使用kettle,输出到数据库表。
使用linux crontab 定时调用脚本完成每天的同步任务。
kettle Job流程
下面是同步csv文件Job的整体流程,整体流程是如下:
设置当前日期变量->清除表数据->同步csv到数据库*4->成功/失败邮件
整体流程
1. 设置当前日期变量
因为csv文件都是有日期后缀的,每天一个,所以获取csv文件名的时候需要拼一个当前日期字符串。因为后面4个同步csv的转换都需要这个日期字符串,所以单独用一个转换来处理这个日期字符串,然后设置到环境变量,后面的几个转换,再获取这个日期字符串,这个转换主要有3步:
获取系统时间->时间格式化->设置时间变量到环境变量,其中时间格式化是采用JavaScript插件来处理: