MySQL亿级数据数据库优化方案测试-银行交易流水记录的查询

对MySQL的性能和亿级数据的处理方法思考,以及分库分表到底该如何做,在什么场景比较合适?


比如银行交易流水记录的查询


限盐少许,上实际实验过程,以下是在实验的过程中做一些操作,以及踩过的一些坑,我觉得坑对于读者来讲是非常有用的。


首先:建立一个现金流量表,交易历史是各个金融体系下使用率最高,历史存留数据量最大的数据类型。现金流量表的数据搜索,可以根据时间范围,和个人,以及金额进行搜索。


-- 建立一张 现金流量表

 
 
DROP TABLE IF EXISTS `yun_cashflow`;	
CREATE TABLE `yun_cashflow` (	
  `id` bigint(20) NOT NULL AUTO_INCREMENT,	
  `userid` int(11) DEFAULT NULL,	
  `type` int(11) DEFAULT NULL COMMENT '1、入账,2提现',	
  `operatoruserid` int(11) DEFAULT NULL COMMENT '操作员ID',	
  `withdrawdepositid` bigint(20) DEFAULT NULL COMMENT '提现ID',	
  `money` double DEFAULT NULL COMMENT '钱数',	
  `runid` bigint(20) DEFAULT NULL COMMENT '工单ID',	
  `createtime` timestamp NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP,	
  PRIMARY KEY (`id`)	
) ENGINE=InnoDB AUTO_INCREMENT=63 DEFAULT CHARSET=utf8;
 
 


然后开始造1个亿的数据进去。


-- 循环插入

drop PROCEDURE test_insert;	
DELIMITER;;	
CREATE PROCEDURE test_insert()	
begin 	
declare num int; 	
set num=0;	
        while num < 10000 do	
            insert into yun_cashflow(userid,type,operatoruserid,withdrawdepositid,money) values(FLOOR(7 + (RAND() * 6))+FLOOR(22 + (RAND() * 9)),1,FLOOR(97 + (RAND() 	
* 6))+FLOOR(2 + (RAND() * 9)),FLOOR(17 + (RAND() * 6))+FLOOR(2 + (RAND() * 9)),FLOOR(5 + (RAND() * 6))+FLOOR(2 + (RAND() * 9)));	
            set num=num+1;	
        end while;	
  END;;	
call test_insert();
 
 


坑一:


这个存储过程建立好了之后,发现插入数据特别的慢,一天一晚上也插入不到100万条数据,平均每秒40~60条数据,中间我停过几次,以为是随机函数的问题,都变成常数,但效果一样,还是很慢,当时让我对这个MySQL数据库感觉到悲观,毕竟Oracle用惯了,那插速是真的很快,不过功夫不负有心人,原来可以用另外一种写法造数据,速度很快,上代码。


 
 
INSERT INTO example	
(example_id, name, value, other_value)	
VALUES	
(100, 'Name 1', 'Value 1', 'Other 1'),	
(101, 'Name 2', 'Value 2', 'Other 2'),	
(102, 'Name 3', 'Value 3', 'Other 3'),	
(103, 'Name 4', 'Value 4', 'Other 4');


就是在循环里,用这种格式造很多数据,VALUES后面以,隔开,然后把数据写上去,我用Excel造了1万条数据,按照语句格式粘贴了出来,就变成每循环一次,就1万条数据,这样没多久1亿数据就造好了。

 
 
select count(*) from yun_cashflow


我还比较好奇,8个字段1亿条数据,到底占了多大的地方,通过以下语句找到数据的路径。

 
 
show global variables like "%datadir%";


通过查看文件,是7.78GB,看来如果字段不是很多,数据量大的话,其实不是什么问题,这其实作为架构师来讲,在估算机器配置硬盘冗余的时候,这是最简单直接粗暴的换算思路。


首先,啥条件不加看看咋样。


Out of memory,看来这个查询是真往内存里整,内存整冒烟了,看来7.8G的数据是往内存里放,我内存没那么大导致的。


资金流水一般会按照时间进行查询,看看这速度到底怎样。

 
 
select * from yun_cashflow  where createtime between '2018-10-23 09:06:58 ' and '2018-10-23 09:06:59'


脑补一下,当你拿这支付宝查历史资金明细的时候,56条信息,103.489秒,也就是将近2分钟的查询速度,你会是怎样的体验。哦 哦,不对,这个还没加用条件,那下面单独试试某个用户不限时间范围的条件是怎样的。

 
 
select count(*) from yun_cashflow where userid=21


也是将近1分半的速度,那在试试金额的条件。

 
 
select count(*) from yun_cashflow where money<62 and userid=32


同样都是将近一分半的时间。


那把两个条件做下级联,看看效果会是怎样。


一样,也是将近1分半的时间。

总结一:在不加索引的情况下,无论单独,还是联合条件查询,结果都是1分多钟不到2分钟。


好吧,那就加上索引试试,看看到底会有啥样奇迹发生。


给用户加索引

 
 
ALTER TABLE yun_cashflow ADD INDEX index_userid (userid)


给金额加索引

 
 
ALTER TABLE yun_cashflow ADD INDEX index_money (money)

给时间加索引

 
 
ALTER TABLE yun_cashflow ADD INDEX index_createtime (createtime)

总结二: 建立索引的时间平均在1400秒左右,大概在23分钟左右。
索引都建立完了,在开始以前的条件查询,看看效果。

1. 时间范围查询
 
 
select * from yun_cashflow  where createtime between '2018-10-23 09:06:58' and '2018-10-23 09:06:59'

2. 用户查询与钱的联合查询

3. 用户查询与钱与时间三个条件的联合查询
 
 
select * from yun_cashflow where money<62 and userid=32 and  createtime between '2018-10-22 09:06:58' and '2018-10-23 09:06:59'
 
 


总结三:建立完索引后,这种级联性质的查询,速度基本都很快,数据量不大的情况下,基本不会超过一秒。


由于时间的范围返回是56条数据,数据量比较小,所以速度快可能与这个有关,那实验下条件多的数据效果会是什么样。
先试试加完索引, 金额条件的效果。
2千5百万的数据,返回时间为11.460秒。
加一个用户数量比较多的条件 UserID=21
返回1000多万的数据,用了6秒
在找一个用户数量比较少的userid=34
返回4000多条,用不到1秒。

总结四:条件返回的数据统计量越多,速度就越慢,超过1000万就慢的离谱,1秒左右就是100万的量才行。

我们在做数据的时候,都要用到分页。分页一般会用到LIMIT,比如每页10行,第二页就是LIMIT 10,10,得试试在分页的时候,哪些页的情况下,会是什么样的效果呢?

总结五:LIMIT 参数1,参数2  在随着参数1(开始索引)增大时候,这个速度就会越来越慢,如果要求1秒左右返回时候的速度是100万数据,在多在大就慢了,也就是,如果10条一页,当你到第10万页之后,就会越来越慢。如果到30万页之后,可能就会到不到一般系统的3秒要求了。

数据库都建上索引了,那我插数据速度有没有影响呢,那试试
也就是说100条数据插了将近5秒,平均每秒插20条。

总结六:也就是说,按照这样的速度插入,并发量一但大的情况下,操作起来会很慢。所以在有索引的条件下插入数据,要么索引失效,要么插入会特别慢。
分库分表的思维,一个大表返回那么多数据慢,那我把它变成若干张表,然后每张表count(*)后,我统计累加一下,一合计,就是所有数据的查询结果的条数,然后就是到第多少页,我先算一下这页在哪个库,哪张表,在从那张表读不就完了。通过之前 的总结,100万数据返回为1秒,所以就一张表里放100万个数据,1亿的数据就100张表。

 
 
BEGIN 	
        DECLARE `@i` int(11);    	
        DECLARE `@createSql` VARCHAR(2560); 	
        DECLARE `@createIndexSql1` VARCHAR(2560);    	
        DECLARE `@createIndexSql2` VARCHAR(2560);	
        DECLARE `@createIndexSql3` VARCHAR(2560);	
        set `@i`=0; 	
        WHILE  `@i`< 100 DO                	
                            SET @createSql = CONCAT('CREATE TABLE IF NOT EXISTS yun_cashflow_',`@i`,'(	
`id` bigint(20) NOT NULL AUTO_INCREMENT,	
                                `userid` int(11) DEFAULT NULL,	
                                `type` int(11) DEFAULT NULL  ,	
                                `operatoruserid` int(11) DEFAULT NULL  ,	
                                `withdrawdepositid` bigint(20) DEFAULT NULL  ,	
                                `money` double DEFAULT NULL  ,	
                                `runid` bigint(20) DEFAULT NULL  ,	
                                `createtime` timestamp NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP,	
                                PRIMARY KEY (`id`)	
                                )'	
                            ); 	
                            prepare stmt from @createSql; 	
                            execute stmt;  
 
 

       

-- 创建索引

 
 
    set @createIndexSql1  = CONCAT('create index `t_money` on yun_cashflow_',`@i`,'(`money`);');	
                            prepare stmt1 from @createIndexSql1; 	
                            execute stmt1; 	
                            set @createIndexSql2  = CONCAT('create index `t_userid` on yun_cashflow_',`@i`,'(`userid`);');	
                            prepare stmt2 from @createIndexSql2; 	
                            execute stmt2; 	
SET `@i`= `@i`+1; 	
            END WHILE;	
END


表建完了,库里的效果是酱样的。


是不是很酷,这表分的,绝了,满库全是表。那还得往每张表里整100万的数据。这部分代码就不写了,可以参考前面的改,相信能把文章看到这的都是懂行的人,也是对这方面有一腚追求的人。

坑二:我高估了我的计算机的并行计算能力,当我启用100个线程同时玩我自己电脑的数据库连接的时候,到后期给我反馈的结果是这样的。


说白了,连接满了,超时,数据库都不给我返回值了,所以这种实验,不找100台机器,也别可一台机器去霍霍,因为如果能快,那个1个亿的大表,返回的也不会慢。这时候拼的就是计算能力了,都在一台机器上去做实验,会让你怀疑人生的。


那咋办, 这地方我就假装返回都是1000毫秒,也就1秒,然后每个线程都在1秒的时候都给我返回值,这个值我写死,可以看看多线程分布式统计count的效果。


最后总体耗时,就是最后那个返回时间最长的线程返回的时间,所以理论上100个线程同时启动,应该在1秒完成,但线程这玩意有快有慢,所以1秒多一点,也是可以接受的。如果碰上都是机器性能好的时候,所有数据库返回都在1秒以内,那么也就是1秒了。


这个多线程编程可以试试类似Java的countDownLatch/AKKA 将异步多线程结果同步返回。


最后是在数据库数据量比较大的时候,通过MySQL以上的特性,进行不同场景应用的思考。


场景:银行交易流水记录的查询

  1. 根据小总结六的特性,操作表和历史查询表一定要时间可以分开,由于带索引的历史表,插入会很慢,所以要插入到操作表内,操作表和历史表的字段是一样的。

  2. 根据小总结二特性,然后固定某个时间点,比如半夜12点,或者固定日期,或者选择非交易查询活跃的时间,把操作表里的数据往历史表里插一下,由于重建索引也用不了太久,一样半个小时左右。让两种表并存。还有另外一种策略,由于流水主要以时间做为排序对象,可以按照时间顺序,也就是ID自增长的顺序进行分库分表,就像试验的那样,100万左右条数据一张表,另外在做一张时间范围的索引表,如下:

 
 
CreateTimeIndexTable	
ID  TableName   CreateTimeStart CreateTimeEnd	
1   yun_cashflow_1  2018-10-22 09:06:58 2018-10-26 09:06:58	
2   yun_cashflow_2  2018-10-26 09:06:58 2018-10-29 09:06:58	
3   yun_cashflow_3  2018-11-12 09:06:58 2018-11-22 09:06:58	
4   yun_cashflow_4  2018-11-22 09:06:58 2018-11-26 09:06:58


当遇见这样语句需求的时候:

 
 
select * from yun_cashflow where money<62 and userid=32 and  createtime between '2018-10-27 09:06:58' and '2018-10-28 09:06:59'

1)就改写成这样的顺序

 
 
select TableName from CreateTimeIndexTable where CreateTimeStart>  '2018-10-27 09:06:58' and CreateTimeEnd < '2018-10-28 09:06:59'

2)当得到TableName的时候,结果是yun_cashflow_2,在进行语句的查询

 
 
select * from yun_cashflow_2 where money<62 and userid=32 and  createtime between '2018-10-27 09:06:58' and '2018-10-28 09:06:59'

这样,两遍就可以查询到结果。

不过也有可能查询的结果是多个,比如

 
 
select TableName from CreateTimeIndexTable where CreateTimeStart>  '2018-10-27 09:06:58' and CreateTimeEnd < '2018-11-13 09:06:59'

yun_cashflow_2,和yun_cashflow_3,这个时候,就需要把两个表的结果都查询出来,进行merge。相信程序员们对两个表的结果集合并逻辑都不是什么难事,这地方不多解释。


这样做的好处,主要是每次重建索引的时候,就不用整个1个亿的大表进行重建,而是只重建最近的1百万的那张分出来的表,速度会很快的。


  1. 根据小总结一和小总结三的特性,把关键的字段加上索引,用户,时间,这样保证查询的速度。

  2. 根据小总结四的特性,尽量限制查询结果的数量范围,比如,单个人查自己的交易明细,可以限制范围,比如查询时间范围不超过三个月,或半年,或一年。


公司简介  | 招聘 | DTCC | 数据技术嘉年华 | 免费课程 | 入驻华为严选商城

   640?wx_fmt=jpeg

zCloud | SQM | Bethune Pro2 zData一体机 | MyData一体机 | ZDBM 备份一体机

640?wx_fmt=jpeg

Oracle技术架构 | 免费课程 数据库排行榜 | DBASK问题集萃 | 技术通讯 

640?wx_fmt=jpeg

升级迁移 | 性能优化 | 智能整合 安全保障 |  架构设计 | SQL审核 | 分布式架构 | 高可用容灾 | 运维代维

云和恩墨大讲堂 | 一个分享交流的地方

长按,识别二维码,加入万人交流社群


640?wx_fmt=jpeg

请备注:云和恩墨大讲堂

购买提醒:全程代码实战,本系列课程建议有Java开发经验2年以上的学员观看和购买。录制本套教程的初衷,通过从业10年接触过很多的技术开发人员,尤其在面试一些技术人员的时候,发现他们的技术知识更新较慢,很多人渴望接触到高并发系统和一些高级技术架构,为了帮助更多人能够提升自己和接触到这类技术架构,并满足企业的人才需求,利用业余时间我开始录制这套教程。通过录制教程有很多学员给我反馈信息,给了我很大的鼓舞,当然也有吐槽,我想说的是技术是没有边界的,脱离一线业务场景去谈技术,都是耍流氓的。如对我录制的教程内容有建议请及时交流。本套课程历经1年时间研发,案例来源于真实业务场景抽离,由从业10年企业一线架构师实录,没有基础不建议购买。购买后提供企业级多方位指导,通过本套案例可以让你学习目前主流的微服务技术架构和多种企业级高并发和海量数据、高可用、分布式、支付、多语言、前后端分离等技术的综合应用解决方案。在开始本课程前给大家科普几个概念: 高并发是指在比较短的时间内有大量的访问者访问目标系统,系统负载饱和或者过载宕机。 高并发的应用,我们应该都有用过或者见过,比如天猫、京东、拼多多、亚马逊的秒杀抢购还有12306的抢票。我们在体验应用的时候,可能并不会像到这种高并发系统背后的技术实现难度。高并发系统都存在这几种问题,高并发读、高并发写、访问高峰突发性、反馈结果的即时性。在抢购的时候,尤其是抢购火车票的时候,我们经常会疯狂的刷库存,几亿用户产生非常大的高并发读; 通过以上的科普相信大家对课程有一个基本的认知了,本套教程以应用最为广泛的电商系统为标本,给大家构建一个亿级微服务秒杀系统,让大家跟着我的步骤能学习行为背后的原理。本课程采用全新的微服务架构,运用了很多工业界企业解决方案和高级技术,带大家手把手实现一个高性能,高并发,高可用等的亿级微服务秒杀系统,本课程会包含很多高级的内容,比如微服务架构、分布式部署方案、多线程、支付、多语言、全链路性能压力测试等,让大家在实战中学习知识,在实战中不断进步。该课程是一个完整的微服务架构秒杀系统项目代码,案例具有很高的商业价值,大家可以根据自己的业务进行修改,便可以使用。本套课程可以满足世面上绝大多数企业级的业务场景,本课程全部代码可以直接部署企业,普通集群,支撑**并发;集群规模大,支撑亿级并发。本课程包含的技术: IDEA集成开发工具 SpringBoot2.0.2.RELEASE SpringCloudFinchley.RELEASE Thymeleaf(模板引擎技术) 微信支付 支付宝支付 银联支付 分布式数据库Mycat MySQL Druid RabbitMQ 分布式事务 分布式锁 事件驱动 多线程 MyBatis QuartzEhcache Redis Hystrix 单点登陆CAS Nginx Lua Restful AOP技术 性能压力测试Jemter VUE+jQuery+Ajax+NodeJS Python Go语言课程亮点: 1.与企业无缝对接、真实工业界产品 2.主流支付全覆盖(微信、支付宝、银联) 3.前后端分离(主流技术架构) 4.实现高并发请求和实现高可用架构解决方案 5.多语言(Java、Go、Python) 6.亿级微服务秒杀系统(支撑海量数据) 7.大型系统分布式部署方案 8.全链路性能压力测试  9.分布式事务解决方案 10.事件驱动设计解决方案 11.多线程技术的实战应用 12.高并发下的服务降级、限流实战 13.分布式架构师下实现分布式定时调度 14.集成MyBatis实现多数据源路由实战 15.集成Redis缓存实战 16.Eureka注册中心 17.OpenFeign声明式服务调用 18.Hystrix服务熔断降级方式 19.基于Hystrix实现接口降级实战 20.集成SpringCloud实现统一整合方案 21.全程代码实操,提供全部代码和资料 22.提供答疑和提供企业技术方案咨询购买提醒: 我本人在企业从业10年,因为热爱,所以坚持,下一个10年依然会在企业一线服务,因此对于课程中的技术点可以提供全方面的业务场景解决方案。我本人并非培训机构脱离一线业务场景的讲师,从业多年接触过大量的真实业务场景案例,后面会逐步通过教程案例分享我多年的实战经验,送给同行一句话:技术是服务于业务的,脱离一线业务场景就是耍流氓。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值