如何搞定分库后数据冗余

概述

当单个数据库数据量达到一定程度后,我们可以采用多个从库解决读请求的系统瓶颈。 而写请求的系统瓶颈往往需要通过分库解决。

问题

以用户订单场景为例,用户会有查询订单需求,所以订单的分库需要基于userID做切分。

商家对订单统计纬度也同样有需求,所以单一的基于userID做切分的场景不满足这个场景了。

于是我们需要采用反范式设计来满足两种场景的需求。 采用两份数据冗余,即一份数据基于UserId,一份数据基于PoiId。

数据冗余实现

既然我们有了方案,需求指定具体的技术方案了。

做数据冗余常见有三种方案:

  • 应用层同步双写。
  • 应用层异步双写。
  • 基于底层中间件数据同步。

应用层异步双写

这是最简单的实现方式,在用户下单后,基于分库规则一份请求按userId划分入库,一份请求按poiId划分入库,数据落库才进行下一步请求,数据一致性强。

但是整个请求耗时的时间是两个入库时间的总和,如果在业务高峰期,往往造成时延升高问题,不适用于对时延敏感的系统。

应用层异步双写

将两个同步入库修改为异步入库,采用MQ异步消息投递方式实现,这样可以解决两次写入库带来的时间损耗,但是会引入MQ中间件,系统复杂度有一定的提升。

既然存在了异步队列,两个库之间存在数据不一致时间窗口,不适用于对数据一致性敏感对系统。

基于底层中间件数据同步

引入数据同步中间件,屏蔽了业务层实现数据同步,数据冗余的细节,而是交由底层同步中间件实现,使得开发人员专注于业务开发。

与第二种方案相比,中间件方式基于mysql的binlog实现,所以数据一致窗口更短,可靠性更高。

数据一致性

当然以上三种方式的后两种方式都是异步方式,在分布式场景下都会存在数据一致性问题,强一致性很难,一般业务系统都采用最终一致性。

为保证数据一致性可以采用:异步检测,异步修复。

异步检测

采用离线工具,或定时任务,定时对离线数据源进行扫描,如发现数据不一致进行补偿修复。

数据源扫描粒度视对一致性要求的强度而定。但是大量的数据扫描,耗时较长,效率较低。

为降低全量数据扫描的效率问题,可以设计增量数据扫描方式,设置更适合系统负载的扫描时间窗口,提高扫描检测效率。

如果想更实时扫描,可引入同步扫描方式,引入MQ推送消息,在订阅者接收到消息时,触发数据扫描,扫描时间窗口期内数据,同时进行修正。

转载于:https://my.oschina.net/u/1000241/blog/2051738

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值