Mysql中千万数据查询浅析

假如mysql数据库中有一千万数据,如何进行查询,查询效率如何,下面进行简单的分析。

1、准备数据

也许有些人没遇见过上千万数据量的表,没关系,下面通过sql脚本准备一下数据,环境为:mysql5.7.+

1.1、创建表脚本

CREATE TABLE `b_log`  (
  `id` int(11) NOT NULL AUTO_INCREMENT,
  `user_id` varchar(64) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
  `ip` varchar(20) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
  `op_data` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
  `attr1` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
  `attr2` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
  `attr3` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
  `attr4` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
  `attr5` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
  `attr6` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
  `attr7` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
  `attr8` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
  `attr9` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
  `attr10` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
  `attr11` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
  `attr12` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
  PRIMARY KEY (`id`) USING BTREE
) ENGINE = InnoDB AUTO_INCREMENT = 1 CHARACTER SET = utf8mb4 COLLATE = utf8mb4_general_ci ROW_FORMAT = Dynamic;

1.2、创建数据脚本

DELIMITER ;;
CREATE PROCEDURE batch_insert_log()
BEGIN
  DECLARE i INT DEFAULT 1;
  DECLARE userId INT DEFAULT 10000000;
 set @execSql = 'INSERT INTO `test`.`b_log`(`user_id`, `ip`, `op_data`, `attr1`, `attr2`, `attr3`, `attr4`, `attr5`, `attr6`, `attr7`, `attr8`, `attr9`, `attr10`, `attr11`, `attr12`) VALUES';
 set @execData = '';
  WHILE i<=10000000 DO
   set @attr = "'属性属性属性属性属性属性属性属性属性属性属性属性属性属性属性'";
  set @execData = concat(@execData, "(", userId + i, ", '10.0.69.175', '用户登录操作'", ",", @attr, ",", @attr, ",", @attr, ",", @attr, ",", @attr, ",", @attr, ",", @attr, ",", @attr, ",", @attr, ",", @attr, ",", @attr, ",", @attr, ")");
  if i % 1000 = 0
  then
     set @stmtSql = concat(@execSql, @execData,";");
    prepare stmt from @stmtSql;
    execute stmt;
    DEALLOCATE prepare stmt;
    commit;
    set @execData = "";
   else
     set @execData = concat(@execData, ",");
   end if;
  SET i=i+1;
  END WHILE;

END;;
DELIMITER ;

采用批量插入,效率会快很多,而且每1000条数就commit;数据量太大,会导致批量插入效率慢。本次完成数据插入花费时间: 2757.472s,大概46min,占用硬盘12GB大小,以供参考。

2、数据测试

执行存储过程添加数据挺耗时间的,大家可以观察磁盘大小的变化和所用时间。
统计表中数据记录数

SELECT count(1) FROM `b_log`

返回结果为:
在这里插入图片描述

三次查询时间分别为:15.384s,16.050s,15.413s

2.1、普通分页查询

MySQL 支持 LIMIT 语句来选取指定的条数数据,MySQL分页查询语法如下:

SELECT * FROM table LIMIT [offset,] rows | rows OFFSET offset

第一个参数指定第一个返回记录行的偏移量(可选,非必填),第二个参数指定返回记录行的最大数目;
下面我们开始测试查询结果:

SELECT * FROM `b_log` LIMIT 10000, 10

查询3次时间分别为:78ms,30ms,31ms
这样看起来速度还行,不过是本地数据库,速度自然快点。

2.2、相同偏移量,不同数据量

SELECT * FROM `b_log` LIMIT 10000, 10
SELECT * FROM `b_log` LIMIT 10000, 100
SELECT * FROM `b_log` LIMIT 10000, 1000
SELECT * FROM `b_log` LIMIT 10000, 10000
SELECT * FROM `b_log` LIMIT 10000, 100000
SELECT * FROM `b_log` LIMIT 10000, 1000000

查询时间如下:
28ms,30ms,27ms
31ms,29ms,30ms
40ms,36ms,34ms
101ms,81ms,83ms
508ms,696ms,680ms
5041ms,6556ms,7135ms
从上面结果可以看出,数据量越大,花费时间越长。

2.3、相同数据量,不同偏移量

SELECT * FROM `b_log` LIMIT 100, 100
SELECT * FROM `b_log` LIMIT 1000, 100
SELECT * FROM `b_log` LIMIT 10000, 100
SELECT * FROM `b_log` LIMIT 100000, 100
SELECT * FROM `b_log` LIMIT 1000000, 100

查询时间如下:
22ms,20ms,22ms
21ms,22ms,22ms
30ms,31ms,30ms
245ms,237ms,221ms
1757ms,1793ms,1809ms
从上面结果可以看出,偏移量越大,花费时间越长。

3、查询优化

针对偏移量大、数据量大两种情况分析其优化方式。

3.1、偏移量大优化

采用子查询方式,可以先定位偏移位置的id,然后再查询数据

# 第一条
SELECT * FROM `b_log` LIMIT 1000000, 10
# 第二条
SELECT id FROM `b_log` LIMIT 1000000, 10
# 第三条
SELECT * FROM `b_log` WHERE id >= (SELECT id FROM `b_log` LIMIT 1000000, 1) LIMIT 10

查询结果分别如下:1808ms,1417ms,1492ms

从上面结果可以看出,第一条花费时间最长,第三条比第一条花费时间短。

采用id限定方式,要求id必须是连续递增,而且计算id的范围,使用between,如下

# 第一条
SELECT * FROM `b_log` WHERE id between 1000000 AND 1000100 LIMIT 100
# 第二条
SELECT * FROM `b_log` WHERE id >= 1000000 LIMIT 100

查询结果分别如下:21ms,20ms

从上面结果可以看出,查询变快了。

3.2、数据量大优化

# 第一条
SELECT * FROM `b_log` LIMIT 1, 1000000
# 第二条
SELECT id FROM `b_log` LIMIT 1, 1000000
# 第三条
SELECT id, user_id, ip, op_data, attr1, attr2, attr3, attr4, attr5, attr6, attr7, attr8, attr9, attr10, attr11, attr12 FROM `b_log` LIMIT 1, 1000000

查询结果分别如下:4861ms,3403ms,4975ms
从上面结果可以看出,减少不需要的列,查询时间明显变少了;第一条和第三条查询时间差不多,是因为mysql服务器和mysql客户端在同一台机器上,所以查询时间差不多,若服务器和客户端分开就会不一样。

4、SELECT *

为什么要禁止 SELECT *,主要有2点原因:

  • 用 "SELECT * " 数据库需要解析更多的对象、字段、权限、属性等相关内容,在 SQL 语句复杂,硬解析较多的情况下,会对数据库造成沉重的负担;
  • 增大网络开销,* 有时会误带上如log、IconMD5之类的无用且大文本字段,数据传输size会几何增涨。特别是MySQL和应用程序不在同一台机器,这种开销非常明显;

感兴趣的小伙伴可以试试~

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值