数据同步的一些想法【持续更新】

数据同步的一些思考

之前遇到过很多关于主备库同步更新数据的问题,

一开始是delete或者TRUNCATE之后全量插入,但是数据量再大之后,会严重影响效率、加重服务器负担,甚至导致锁表,

看到有人说用:

native的SQL把两步合并成一个SQL,如在MySQL中:

insert into … on duplicate key update …;

对于Oracle,有:

merge into … using … when matched then … when not matched then …

但是这样对于已经存在但是我又不需要的数据应该怎么处理呢?

 数据同步一般分为两种方式:全量和增量。

 

1  全量

全量,这个很好理解。就是每天定时(避开业务高峰期)或者周期性全量把数据从一个地方拷贝到另外一个地方;

全量的话,可以采用直接全部覆盖(使用“新”数据覆盖“旧”数据);或者走更新逻辑(覆盖前判断下,如果新旧不一致,就更新);

这里面有一个隐藏的问题:如果采用异步写,主数据物理删除了,怎么直接通过全量数据同步?这就需要借助一些中间操作日志文件,或者其他手段,把这些“看不到”的数据记录起来。

2 增量

增量的基础是全量,就是你要使用某种方式先把全量数据拷贝过来,然后再采用增量方式同步更新。

增量的话,就是指抓取某个时刻(更新时间)或者检查点(checkpoint)以后的数据来同步,不是无规律的全量同步。这里引入一个关键性的前提:副本一端要记录或者知道(通过查询更新日志或者订阅更新)哪些更新了。

 确定更新点

采用更新时间戳、有的采用checkpoint等来标识和记录更新点。

checkpoint机制还是很靠谱的,但是对于性能消耗还有待深入研究

 

 

资料:https://www.cnblogs.com/big1987/p/8522884.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值