mysql slow log_Mysql-slowlog

MySQL慢查询日志是MySQL提供的一种日志记录,用来记录执行时长超过指定时长的查询语句,具体指运行时间超过 long_query_time 值的 SQL 语句,则会被记录到慢查询日志中。

long_query_time 默认值是 10 ,单位是 s,即默认是 10秒 。默认情况下,MySQL数据库并不会开启慢查询日志,需要手动设置这个参数。

通过慢查询日志,可以查找出哪些查询语句的执行效率很低,以便进行优化。一般建议开启,它对服务器性能的影响微乎其微,但是可以记录MySQL服务器上执行了很长时间的查询语句。慢查询日志可以帮助我们定位mysql性能问题所在。

MySQL慢查询日志

慢查询日志相关参数

slow_query_log : 是否启用慢查询日志,[1 | 0] 或者 [ON | OFF]

slow_query_log_file : MySQL数据库(5.6及以上版本)慢查询日志存储路径。

可以不设置该参数,系统则会默认给一个缺省的文件 HOST_NAME-slow.log

long_query_time : 慢查询的阈值,当查询时间超过设定的阈值时,记录该SQL语句到慢查询日志。

log_queries_not_using_indexes :设置为 ON ,可以捕获到所有未使用索引的SQL语句(不建议启用)

log_output : 日志存储方式。

log_output='FILE',表示将日志存入文件,默认值是'FILE'。

log_output='TABLE',表示将日志存入数据库,这样日志信息就会被写入到 mysql.slow_log 表中。

MySQL数据库支持同时两种日志存储方式,配置的时候以逗号隔开即可,如:log_output='FILE,TABLE'。

日志记录到系统的专用日志表中,要比记录到文件耗费更多的系统资源,因此对于需要启用慢查询日志,又需要能够获得更高的系统性能,那么建议优先记录到文件。

5.6之前的版本,有些参数名字不一样:

log-slow-queries : MySQL数据库(5.6以下版本)慢查询日志存储路径。

开启日志

立即生效,重启失效

mysql> set global slow_query_log=ON;

mysql> set global slow_query_log_file='/xxx/mysql-slow.log';

永久生效

修改 my.cnf :

[mysqld]

slow_query_log = 1

slow_query_log_file = /xxx/mysql-slow.log

long_query_time = 1

# 也可以写成这种形式

slow-query-log = 1

slow-query-log-file = /xxx/mysql-slow.log

long-query-time = 1

重启mysql服务。

关闭日志

临时关闭,重启失效:

mysql> set global slow_query_log=OFF;

永久关闭,修改 my.cnf,重启mysql服务:

[mysqld]

slow_query_log = 0

MySQL慢查询日志分析

慢查询日志格式说明

打开慢查询日志 mysql-slow.log ,内容都是以下格式:

# Time: 2017-11-22T12:22:32.554299Z

# User@Host: www[www] @ [192.168.10.2] Id: 580785559

# Query_time: 24.354270 Lock_time: 0.000238 Rows_sent: 1 Rows_examined: 511156

SET timestamp=1511353352;

SELECT * FROM mo_user WHERE email = 'chxxx@hotmail.com' LIMIT 1;

其中参数说明如下:

log 记录的时间:# Time: 2017-11-22T12:22:32.554299Z

SQL 的执行主机:# User@Host: www[www] @ [192.168.10.2] Id: 580785559

SQL 的执行信息(执行时间(单位:s),锁时间,返回结果行数,查询总行数):# Query_time: 24.354270 Lock_time: 0.000238 Rows_sent: 1 Rows_examined: 511156;

SQL 执行发生的时间:SET timestamp=1511353352;

SQL 的执行内容:SELECT * FROM mo_user WHERE email = 'chxxx@hotmail.com' LIMIT 1;

mysqldumpslow

mysqldumpslow 是MySQL自带的慢查询日志分析工具(perl脚本)。执行命令 mysqldumpslow --help,显示命令参数如下:

Usage: mysqldumpslow [ OPTS... ] [ LOGS... ]

Parse and summarize the MySQL slow query log. Options are

--verbose verbose

--debug debug

--help write this text to standard output

-v verbose

-d debug

-s ORDER what to sort by (al, at, ar, c, l, r, t), 'at' is default

al: average lock time

ar: average rows sent

at: average query time

c: count

l: lock time

r: rows sent

t: query time

-r reverse the sort order (largest last instead of first)

-t NUM just show the top n queries

-a don't abstract all numbers to N and strings to 'S'

-n NUM abstract numbers with at least n digits within names

-g PATTERN grep: only consider stmts that include this string

-h HOSTNAME hostname of db server for *-slow.log filename (can be wildcard),

default is '*', i.e. match all

-i NAME name of server instance (if using mysql.server startup script)

-l don't subtract lock time from total time

参数说明:

-v、--verbose : 在详细模式下运行,打印有关该程序的更多信息。

-d、--debug : 在调试模式下运行。

--help : 显示帮助信息并退出程序

-s [sort_type] : sort_type 是信息排序的依据

al:average lock time,按平均等待锁的时间排序

ar:average rows sent,按平均发给客户端的行总数排序

at:average query time,按平均查询时间排序

c:count,按出现总次数排序

l:lock time,按等待锁的时间排序

r:rows sent,按扫描的行总数排序

t:query time,按累计总耗费时间排序

-r : 倒序信息排序

-t NUM: 只显示前 n 个查询,降序

-a : 不把数字抽象为'N',不把字符串抽象为'S'

-n NUM : 「abstract numbers with at least n digits within names」

-g PATTERN : 根据字符串筛选慢查询日志,可写正则匹配,大小写不敏感。

-h HOSTNAME : 根据服务器名称选择慢查询日志

-i NAME : 根据服务器 MySQL 实例名称选择慢查询日志

-l : 不要将总时间减去锁定时间

mysqldumpslow 分析的结果如下:

2017-11-23-15114445062395.jpg

Count : 出现次数(Count)

Time : 执行最长时间(Time) 和 累计总耗费时间(Time)

Lock : 等待锁的时间(Lock)

Rows : 发送给客户端的行总数(Rows) 和 扫描的行总数(Rows)

root[root]@localhost : 用户

SHOw FULL ... : SQL语句本身(抽象了格式, 比如 limit 1, 20 用 limit N,N 表示。'N'表示数字,'S'表示字符串)。

例子:

返回记录数最多的10个SQL

mysqldumpslow -s r -t 10 mysql-slow.log

mysqlsla

mysqlsla是 hackmysql.com 推出的一款日志分析工具(该网站还维护了 mysqlreport, mysqlidxchk 等比较实用的mysql工具)

整体来说, 功能非常强大。数据报表,非常有利于分析慢查询的原因, 包括执行频率, 数据量, 查询消耗等。

但是,hackmysql.com官方已经在2015年1月份放弃了对mysqlsla的维护。

2017-11-23-15114473814469.jpg

安装

解决依赖关系

# yum install perl-DBI perl-DBD-MySQL

可能会遇到的问题:Can't locate ExtUtils/MakeMaker.pm,解决如下:

# yum install perl-ExtUtils-CBuilder perl-ExtUtils-MakeMaker

可能会遇到的问题:Can't locate Time/HiRes.pm in @INC,解决如下:

# yum install perl-Time-HiRes

下载mysqlsla

当前 mysqlsla 的最新版本为 2.03,到官网下载(官方链接已经失效),可以去这个 有效下载地址 下载。

编译安装

# tar xvfz mysqlsla-2.03.tar.gz

# cd mysqlsla-2.03

# perl Makefile.PL

# make

# make install

使用

# mysqlsla -lt slow mysql-slow.log

或者

# mysqlsla -lt slow mysql-slow.log -sf "+SELECT" -db dbName -top 10 -sort t_sum

参数意义 :

-lt :表示日志类型,有: slow, general, binary, msl, udl

-sf :[+-][TYPE],包括|不包括,过滤sql语句的类型 [TYPE]有 SELECT, CREATE, DROP, UPDATE, INSERT,例如 "+SELECT,INSERT",不出现的默认是 - ,即不包括。

-db :要处理哪个库的日志。

-top :表示取按规则排序的前多少条。

-sort :按某种规则排序,t_sum 按总时间排序, c_sum 按总次数排序。c_sum_p : sql语句执行次数占总执行次数的百分比。

对慢查询日志文件的分析,最简化的调用方式如下:

# mysqlsla -lt slow [SlowLogFilePath] > [ResultFilePath]

2017-11-23-15114481005166.jpg

格式说明如下:

总查询次数 (queries total), 去重后的sql数量 (unique)

输出报表的内容排序方式(sorted by)

最重大的慢sql统计信息, 包括平均执行时间, 等待锁时间, 结果行的总数, 扫描的行总数。

Count: sql的执行次数及占总的slow log数量的百分比.

Time:执行时间, 包括总时间, 平均时间, 最小, 最大时间, 时间占总慢sql时间的百分比.

95% of Time:去除最快和最慢的sql, 覆盖率占95%的sql的执行时间.

Lock Time:等待锁的时间.

95% of Lock :95%的慢sql等待锁时间.

Rows sent:结果行统计数量, 包括平均, 最小, 最大数量.

Rows examined: 扫描的行数量.

Database:属于哪个数据库

Users:哪个用户,IP, 占到所有用户执行的sql百分比

Query abstract:抽象后的sql语句

Query sample:sql语句个例

pt-query-digest

percona-toolkit 工具介绍

percona-toolkit 是一组高级命令行工具的集合,用来执行各种通过手工执行非常复杂和麻烦的mysql和系统任务。这些任务包括:

检查master和slave数据的一致性

有效地对记录进行归档

查找重复的索引

对服务器信息进行汇总

分析来自日志和tcpdump的查询

当系统出问题的时候收集重要的系统信息

Percona Toolkit整个工具箱提供了非常多实用的工具,具体的使用方法可以参看 官方文档

2017-11-23-15114484414443.jpg

percona-toolkit安装

安装 percona-toolkit 非常简单,到 官网 下载 .tar.gz 包:

# wget percona.com/get/percona-toolkit.tar.gz

# tar -zxvf percona-toolkit-2.2.5.tar.gz

然后依次执行下面的命令:

# perl Makefile.PL

# make

# make install

默认的会被安装在 /usr/local/bin 目录下。执行 man percona-toolkit 可以查看安装了哪些工具。

运行工具可能会遇到下面的错误:

2017-11-23-15114487082277.jpg

这是因为缺少相应包,.pm包实际上是perl的包,运行下面的命令安装即可:

yum install -y perl-Time-HiRes

如果安装过程中出现 Error Downloading Packages 错误,尝试 yum clean all 后再安装。使用其Percona Toolkit中其他工具也可能会遇到类似的问题,按照提示安装相应的perl包就可以了。

问题:Can't locate Digest/MD5.pm in @INC

解决:# yum install perl-Digest-MD5

问题:Can't locate ExtUtils/MakeMaker.pm in @INC

解决:# yum install perl-ExtUtils-CBuilder perl-ExtUtils-MakeMaker

pt-query-digest使用

pt-query-digest 可以从普通MySQL日志,慢查询日志以及二进制日志中分析查询,甚至可以从 SHOW PROCESSLIST; 和MySQL协议的tcpdump中进行分析,如果没有指定文件,它从标准输入流(STDIN)中读取数据。

最简单的用法如下:

# pt-query-digest mysql-slow.log

输出信息大致如下:

2017-11-23-15114489626016.jpg

整个输出分为三大部分:

整体概要(Overall)

2017-11-23-15114489793568.jpg

这个部分是一个大致的概要信息(类似loadrunner给出的概要信息),通过它可以对当前MySQL的查询性能做一个初步的评估,比如各个指标的最大值(max),平均值(min),95%分布值,中位数(median),标准偏差(stddev)。

这些指标有查询的执行时间(Exec time),锁占用的时间(Lock time),MySQL执行器需要检查的行数(Rows examine),最后返回给客户端的行数(Rows sent),查询的大小。

查询的汇总信息(Profile)

这个部分对所有 "重要" 的查询(通常是比较慢的查询)做了个一览表:

2017-11-23-15114490001505.jpg

每个查询都有一个Query ID,这个ID通过Hash计算出来的。pt-query-digest 是根据这个所谓的Fingerprint来group by的。举例下面两个查询的Fingerprint是一样的都是 select * from table1 where column1 = ?,工具箱中也有一个与之相关的工具 pt-fingerprint。

select * from table1 where column1 = 2

select * from table1 where column1 = 3

Rank整个分析中该“语句”的排名,一般也就是性能最常的。

Response time “语句”的响应时间以及整体占比情况。

Calls 该“语句”的执行次数。

R/Call 每次执行的平均响应时间。

V/M 响应时间的差异平均对比率。

在尾部有一行输出,显示了其他2个占比较低而不值得单独显示的查询的统计数据。

详细信息

这个部分会列出Profile表中每个查询的详细信息:(默认是按照总的Exec time排序,降序)

2017-11-23-15114490222535.jpg

包括Overall中有的信息、查询响应时间的分布情况以及该查询 "入榜" 的理由,最底下会显示该查询SQL语句(真实显示,非抽象格式)。

pt-query-digest 还有很多复杂的操作,这里就不一一介绍了。比如:从PROCESSLIST中查询某个MySQL中最慢的查询:

# pt-query-digest –processlist h=host1

从tcpdump中分析:

# tcpdump -s 65535 -x -nn -q -tttt -i any -c 1000 port 3306 > mysql.tcp.txt

# pt-query-digest --type tcpdump mysql.tcp.txt

从一台机器上将 slow log 保存到另外一台机器上待稍后详细分析:

# pt-query-digest --review h=host2 --no-report slow.log

还可以跟一些过滤条件。详见 官方文档

另外结合一些第三方工具还能生成相应的报表,可以 参考这里

建议:当 slow log 很大的时候最好还是将日志文件移到其他机器上进行分析,避免分析时过度消耗该服务器资源。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值