9.28学习

1.如何进行分库分表

分表用户id进行分表,每个表控制在300万数据。

分库根据业务场景和地域分库,每个库并发不超过2000

 

Sharding-jdbc 这种 client 层方案的优点在于不用部署,运维成本低,不需要代理层的二次转发请求,性能很高,但是各个系统都需要耦合 Sharding-jdbc 的依赖,升级比较麻烦

 

Mycat 这种 proxy 层方案的缺点在于需要部署,自己运维一套中间件,运维成本高,但是好处在于对于各个项目是透明的,如果遇到升级之类的都是自己中间件那里搞就行了

 

水平拆分:一个表放到多个库,分担高并发,加快查询速度

 

id保证业务在关联多张表时可以在同一库上操作

range方便扩容和数据统计

hash可以使得数据更加平均

 

垂直拆分:一个表拆成多个表,可以将一些冷数据拆分到冗余库中

 

不是写瓶颈优先进行分表

 

分库数据间的数据无法再通过数据库直接查询了。会产生深分页的问题

 

分库越多,出现问题的可能性越大,维护成本也变得更高。

 

分库后无法保障跨库间事务,只能借助其他中间件实现最终一致性。

 

分库首先需考虑满足业务最核心的场景:

①订单数据按用户分库,可以提升用户的全流程体验

②超级客户导致数据倾斜可以使用最细粒度唯一标识进行hash拆分

③按照最细粒度如订单号拆分以后,数据库就无法进行单库排重了

 

三个问题:

富查询:采用分库分表之后,如何满足跨越分库的查询?使用ES的宽表

借助分库网关+分库业务虽然能够实现多维度查询的能力,但整体上性能不佳且对正常的写入请求有一定的影响。业界应对多维度实时查询的最常见方式便是借助 ElasticSearch

数据倾斜:数据分库基础上再进行分表

分布式事务:跨多库的修改及多个微服务间的写操作导致的分布式事务问题?

深分页问题:按游标查询,或者叫每次查询都带上上一次查询经过排序后的最大 ID

 

2.如何将老数据进行迁移

双写不中断迁移

线上系统里所有写库的地方,增删改操作,除了对老库增删改,都加上对新库的增删改

系统部署以后,还需要跑程序读老库数据写新库,写的时候需要判断updateTime

循环执行,直至两个库的数据完全一致,最后重新部署分库分表的代码就行了

 

3.系统性能的评估及扩容

和家亲目前有1亿用户:场景 10万写并发,100万读并发,60亿数据量

设计时考虑极限情况,32库*32表~64个表,一共1000 ~ 2000张表

支持3万的写并发,配合MQ实现每秒10万的写入速度

读写分离6万读并发,配合分布式缓存每秒100读并发

2000张表每张300万,可以最多写入60亿的数据

32张用户表,支撑亿级用户,后续最多也就扩容一次

 

★动态扩容的步骤

①推荐是 32 库 * 32 表,对于我们公司来说,可能几年都够了。

②配置路由的规则,uid % 32 = 库,uid / 32 % 32 = 表

③扩容的时候,申请增加更多的数据库服务器,呈倍数扩容

④由 DBA 负责将原先数据库服务器的库,迁移到新的数据库服务器上去

⑤修改一下配置,重新发布系统,上线,原先的路由规则变都不用变

⑥直接可以基于 n 倍的数据库服务器的资源,继续进行线上系统的提供服务。

 

4.如何生成自增的id主键

●使用redis可以

●并发不高可以单独起一个服务,生成自增id

●设置数据库step自增步长可以支撑水平伸缩

●UUID适合文件名、编号,但是不适合做主键

●snowflake雪花算法,综合了41时间(ms)、10机器、12序列号(ms内自增)

 

其中机器预留的10bit可以根据自己的业务场景配置

 

 

 

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值