MySQL进阶-----SQL优化(插入和主键优化)

目录

前言

一、插入数优化(insert)

1.insert插入的优化方案

2 大批量插入数据

二、主键优化

1.数据组织方式

2. 页分裂

3. 页合并

4. 索引设计原则


前言

        本期我们就正式进入到下一个章节的学习了,也就是SQL优化,前面我们学习过了SQL的各类语句,那这里我们要去理解这些SQL语句是怎么来执行的,执行过程中应该可以通过什么样的方式来去优化执行效率,下面就开始本期的学习吧。

一、插入数优化(insert)

平时我们插入数据的时候一般都是一个语句插一个数据,如下所示:

insert into tb_test values(1,'tom');
insert into tb_test values(2,'cat');
insert into tb_test values(3,'jerry');
.....

如果我们需要一次性往数据库表中插入多条记录,可以从以下三个方面进行优化。

1.insert插入的优化方案

(1)优化方案一

Insert into tb_test values(1,'Tom'),(2,'Cat'),(3,'Jerry');

 上面这个语句我们之前是使用过的,相较于一条语句插入一个数据,一次性插入批量数据效率必然是更高的,这就不需要多次开启和提交事务了,节约时间。

(2)优化方案二

start transaction;
insert into tb_test values(1,'Tom'),(2,'Cat'),(3,'Jerry');
insert into tb_test values(4,'Tom'),(5,'Cat'),(6,'Jerry');
insert into tb_test values(7,'Tom'),(8,'Cat'),(9,'Jerry');
commit;

手动控制事务,其实这个语句的就是方法1的本质,也就是通过一次事务去提交,避免多次开启事务的情况。

(3)优化方案三

主键顺序插入,性能要高于乱序插入。这个应该没什么好多说了,排序肯定是需要耗时间的。
主键乱序插入 : 8 1 9 21 88 2 4 15 89 5 7 3
主键顺序插入 : 1 2 3 4 5 7 8 9 15 21 88 89

2 大批量插入数据

如果一次性需要插入大批量数据 ( 比如 : 几百万的记录 ) ,使用 insert 语句插入性能较低,此时可以使
MySQL 数据库提供的load指令进行插入。操作如下:
可以执行如下指令,将数据脚本文件中的数据加载到表结构中:
-- 客户端连接服务端时,加上参数 -–local-infile
mysql –-local-infile -u root -p

-- 设置全局参数local_infile为1,开启从本地加载文件导入数据的开关
set global local_infile = 1;

-- 执行load指令将准备好的数据,加载到表结构中
load data local infile '/root/sql1.log' into table tb_user fields
terminated by ',' lines terminated by '\n' ;

补充说明:

对于load指令的语句中,fields terminated by意思是每一个字段之间间隔符号用什么

lines terminated by意思是每一行间距是用什么。

这里我们先去查看一下local infile开了没有

select @@local_infile;

显示0,那就是没开了,然后我们退出登录,重新输入登录指令

然后设置全局参数local_infile为1,开启从本地加载文件导入数据的开关,再次查看,显示1即开启

开启成功后,下面就开始建表进行数据的插入了。

示例演示 :
A. 创建表结构
CREATE TABLE `tb_user` (
`id` INT(11) NOT NULL AUTO_INCREMENT,
`username` VARCHAR(50) NOT NULL,
`password` VARCHAR(50) NOT NULL,
`name` VARCHAR(20) NOT NULL,
`birthday` DATE DEFAULT NULL,
`sex` CHAR(1) DEFAULT NULL,
PRIMARY KEY (`id`),
UNIQUE KEY `unique_user_username` (`username`)
) ENGINE=INNODB DEFAULT CHARSET=utf8 ;

B.上传sql脚本 

然后我在Linux系统上传一份sql脚本数据,里面有100w条数据。(这个sql脚本我也上传到了本期的资源绑定当中,需要的话可以自行下载试验)

 

C.load加载数据
load data local infile '/home/heweijie/load_user_100w_sort.sql' into table tb_user
fields terminated by ',' lines terminated by '\n' ;

 (呃,我这里的虚拟机比较虚,居然要一分钟。。。)不过最后也是成功插入了哈。

在load时,主键顺序插入性能高于乱序插入

二、主键优化

在上面,我们提到,主键顺序插入的性能是要高于乱序插入的。 这一小节,就来介绍一下具体的原因,然后再分析一下主键又该如何设计。

1.数据组织方式

InnoDB 存储引擎中,表数据都是根据主键顺序组织存放的,这种存储方式的表称为索引组织表
(index organized table IOT)。
行数据,都是存储在聚集索引的叶子节点上的。而我们之前也讲解过 InnoDB 的逻辑结构图:
InnoDB 引擎中,数据行是记录在逻辑结构 page 页中的,而每一个页的大小是固定的,默认 16K 。那也就意味着, 一个页中所存储的行也是有限的,如果插入的数据行row 在该页存储不小,将会存储到下一个页中,页与页之间会通过指针连接。

2. 页分裂

页可以为空,也可以填充一半,也可以填充 100% 。每个页包含了 2-N 行数据 ( 如果一行数据过大,会行溢出) ,根据主键排列。
A. 主键顺序插入效果
. 从磁盘中申请页, 主键顺序插入
②. 第一个页没有满,继续往第一页插入
. 当第一个也写满之后,再写入第二个页,页与页之间会通过指针连接

④. 当第二页写满了,再往第三页写入

 

B. 主键乱序插入效果
. 加入1#,2#页都已经写满了,存放了如图所示的数据
. 此时再插入 id 50 的记录,我们来看看会发生什么现象
会再次开启一个页,写入新的页中吗?
答案是不会。因为,索引结构的叶子节点是有顺序的。按照顺序,应该存储在 47 之后。

 

但是47所在的1#页,已经写满了,存储不了50对应的数据了。 那么此时会开辟一个新的页 3#。  但是并不会直接将50存入3#页,而是会将1#页后一半的数据,移动到3#页,然后在3#页,插入50。

移动数据,并插入 id 50 的数据之后,那么此时,这三个页之间的数据顺序是有问题的。 1# 的下一个页,应该是3# 3# 的下一个页是 2# 。 所以,此时,需要重新设置链表指针。

 

上述的这种现象,称之为 "页分裂",是比较耗费性能的操作。

3. 页合并

目前表中已有数据的索引结构 ( 叶子节点)如下:
当我们对已有数据进行删除时,具体的效果如下 :
当删除一行记录时,实际上记录并没有被物理删除,只是记录被标记( flaged )为删除并且它的空间变得允许被其他记录声明使用。

当页中删除的记录达到 MERGE_THRESHOLD (默认为页的 50% ),InnoDB会开始寻找最靠近的页(前或后)看看是否可以将两个页合并以优化空间使用。

 删除数据,并将页合并之后,再次插入新的数据21,则直接插入3#页

这个里面所发生的合并页的这个现象,就称之为 "页合并"

知识小贴士:
MERGE_THRESHOLD:合并页的阈值,可以自己设置,在创建表或者创建索引时指定。

4. 索引设计原则

  • 满足业务需求的情况下,尽量降低主键的长度。
  • 插入数据时,尽量选择顺序插入,选择使用AUTO_INCREMENT自增主键。
  • 尽量不要使用UUID做主键或者是其他自然主键,如身份证号。
  • 业务操作时,避免对主键的修改。

 以上就是本期的全部内容了,我们下次见

分享一张壁纸:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Fitz&

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值