使用kettle来根据时间戳或者批次号来批量导入数据,达到增量的效果。
1、Kettle是一款国外开源的ETL工具,纯java编写,可以在Window、Linux、Unix上运行,数据抽取高效稳定。下载图形化界面的zip包格式的,直接解压缩使用即可。安装部署模式这里不说了,自己可以根据自己的需求安装为单机模式或者集群模式。
Kettle的社区官网:https://community.hitachivantara.com/docs/DOC-1009855
Kettle的下载地址:https://sourceforge.net/projects/pentaho/files/Data%20Integration/
kettle国内镜像下载:http://mirror.bit.edu.cn/pentaho/Data%20Integration/
2、由于这里只是演示了如何配置通过时间戳和批次号增量的导入数据,所以具体的操作不再叙述,具体的使用自己可以根据需求来使用。
Job如下所示:
思路。 批次量将一批数据从一个数据库导入到另外一个数据库,而且每批次的数据量不能重复。 这里使用时间戳,你也可以使用批次号。原理基本一样,都是确定每一批次的数据量。 job步骤: 第一步。start,可以设置定时或者手动点击启动job。 第二步。执行转换。 第三步。将start_time=next_time。 第四步。成功。 1、Start,类型可以选择不需要定时,时间间隔,天,周,月。 默认不需要定时,如果需要定时的话,首先把重复的框勾选。 然后如果选择时间间隔的话,可以输入以分钟计算的间隔或者以秒计算的间隔。 如果按天,就选择天,然后选择每天几天的几分开始跑。 如果按照周,就选择每周的每天几点几分开始跑job。 如果是每月的话,就选择那一月的每天几点几分跑job。