原mysql慢查询分析工具: pt-query-digest和mysqldumpslow的使用!
摘要:MySQL数据库性能调优一个主要依据就是根据慢查询日志了优化sql。开启慢查询后每天都有可能有好几G的慢查询日志,这个时候去人工的分析明显是不实际的,如借助慢日志查询分析工具:pt-query-digest 或者 mysqldumpslow 的使用可以大大提升我们的工作效率。
一. mysqldumpslow
该工具是慢查询自带的分析慢查询工具,一般只要安装了mysql,就会有该工具;
在终端运行:mysqldumpslow -h 可以查看具体用法。
Usage: mysqldumpslow [ OPTS... ] [ LOGS... ]
Parse and summarize the MySQL slow query log. Options are
--verbose verbose
--debug debug
--help write this text to standard output
-v verbose
-d debug
-s ORDER what to sort by (al, at, ar, c, l, r, t), 'at' is default
al: average lock time #平均锁时间
ar: average rows sent #平均扫描行数
at: average query time #平均查询时间
c: count #统计
l: lock time #锁时间
r: rows sent #扫描行数
t: query time #执行时间
-r reverse the sort order (largest last instead of first) #排序反转
-t NUM just show the top n queries #显示最前面的多少条
-a don't abstract all numbers to N and strings to 'S'
-n NUM abstract numbers with at least n digits within names
-g PATTERN grep: only consider stmts that include this string
-h HOSTNAME hostname of db server for *-slow.log filename (can be wildcard),
default is '*', i.e. match all
-i NAME name of server instance (if using mysql.server startup script)
-l don't subtract lock time from total time
常见用法:
mysqldumpslow -s c -t 10 /var/logs/mysql/slow.log # 查询使用最多的10条慢查询
mysqldumpslow -s t -t 3 /var/logs/mysql/slow.log # 查询时间最长的3条慢查询
mysqldumpslow -s t -t 10 -g “left join” /var/logs/mysql/slow.log # 得到按照时间排序的前10条里面含有左连接的查询语句
mysqldumpslow -s r -t 10 -g 'left join' /var/logs/mysql/slow.log # 按照扫描行数最多的
注: 使用mysqldumpslow的分析结果不会显示具体完整的sql语句,只会显示sql的组成结构;这也是实际操作中用pt-query-digest的原因
二. pt-query-digest
官网
https://www.percona.com/doc/percona-toolkit/2.2/pt-query-digest.html
说明
pt-query-digest是一个perl脚本,用于分析mysql慢查询的一个工具,它可以分析binlog、General log、slowlog,也可以通过SHOWPROCESSLIST或者通过tcpdump抓取的MySQL协议数据来进行分析。可以把分析结果输出到文件中,分析过程是先对查询语句的条件进行参数化,然后对参数化以后的查询进行分组统计,统计出各查询的执行时间、次数、占比等,可以借助分析结果找出问题进行优化。
安装
Linux环境下安装
#下载已经编译的文件
wget http://www.percona.com/get/pt-query-digest
chmod +x pt-query-digest
#rpm安装
wget percona.com/get/percona-toolkit.rpm
rpm -ivh percona-toolkit-2.2.13-1.noarch.rpm
#源码安装
wget percona.com/get/percona-toolkit.tar.gz
tar -zxvf percona-toolkit-2.2.13.tar.gz
cd percona-toolkit-2.2.13
perl Makefile.PL
make && make install
mac环境下的安装
# 下载源码
curl -O https://downloads.percona.com/downloads/percona-toolkit/3.3.1/source/debian/percona-toolkit-3.3.1.tar.gz
# 解压并进入到目录
tar -zxvf percona-toolkit-3.3.1.tar.gz
cd percona-toolkit-3.3.1
#运行
perl Makefile.PL
Warning: prerequisite DBD::mysql 3 not found.
Warning: NAME must be a package name
Generating a Unix-style Makefile
Writing Makefile for percona-toolkit
Writing MYMETA.yml and MYMETA.json
#这里要注意下 warning,DBD和DBI,没有它们,没有办法进行数据库连接,需要先安装一下perl的相关模块
#执行下面命令时,如果提示权限不够,需要sudo执行
perl -MCPAN -e "install DBI”
perl -MCPAN -e "install DBD::mysql"
#编译
make && make install
#安装完成后,运行下面命令
instmodsh
Available commands are:
l - List all installed modules
m <module> - Select a module
q - Quit the program
cmd? l
Installed modules are:
Devel::CheckLib
Mock::Config
Perl
mod_perl2
percona-toolkit
cmd?
#当你看到上面模块中出现 percona-toolkit 表示安装成功了。
使用 pt-query-digest
#语法及重要选项
pt-query-digest [OPTIONS] [FILES] [DSN]
--create-review-table 当使用--review参数把分析结果输出到表中时,如果没有表就自动创建。
--create-history-table 当使用--history参数把分析结果输出到表中时,如果没有表就自动创建。
--filter 对输入的慢查询按指定的字符串进行匹配过滤后再进行分析
--limit限制输出结果百分比或数量,默认值是20,即将最慢的20条语句输出,如果是50%则按总响应时间占比从大到小排序,输出到总和达到50%位置截止。
--host mysql服务器地址
--user mysql用户名
--password mysql用户密码
--history 将分析结果保存到表中,分析结果比较详细,下次再使用--history时,如果存在相同的语句,且查询所在的时间区间和历史表中的不同,则会记录到数据表中,可以通过查询同一CHECKSUM来比较某类型查询的历史变化。
--review 将分析结果保存到表中,这个分析只是对查询条件进行参数化,一个类型的查询一条记录,比较简单。当下次使用--review时,如果存在相同的语句分析,就不会记录到数据表中。
--output 分析结果输出类型,值可以是report(标准分析报告)、slowlog(Mysql slow log)、json、json-anon,一般使用report,以便于阅读。
--since 从什么时间开始分析,值为字符串,可以是指定的某个”yyyy-mm-dd [hh:mm:ss]”格式的时间点,也可以是简单的一个时间值:s(秒)、h(小时)、m(分钟)、d(天),如12h就表示从12小时前开始统计。
--until 截止时间,配合—since可以分析一段时间内的慢查询。
常见用法
# 直接分析慢查询文件:
pt-query-digest /var/logs/mysql/slow.log > /var/logs/mysql/slow_report.log
#分析最近12小时内的查询:
pt-query-digest --since=12h /var/logs/mysql/slow.log > /var/logs/mysql/slow_report2.log
#分析指定时间范围内的查询:
pt-query-digest /var/logs/mysql/slow.log --since '2014-05-17 09:30:00' --until '2014-06-17 10:00:00' > /var/logs/mysql/slow_report3.log
#分析只含有select语句的慢查询
pt-query-digest --filter '$event->{fingerprint} =~ m/^select/i' /var/logs/mysql/slow.log > /var/logs/mysql/slow_report4.log
#针对某个用户的慢查询
pt-query-digest --filter '($event->{user} || "") =~ m/^root/i' /var/logs/mysql/slow.log > /var/logs/mysql/slow_report5.log
# 查询所有所有的全表扫描或full join的慢查询
pt-query-digest --filter '(($event->{Full_scan} || "") eq "yes") ||(($event->{Full_join} || "") eq "yes")' /var/logs/mysql/slow.log > /var/logs/mysql/slow_report6.log
#把查询保存到test数据库的query_review表,如果没有的话会自动创建;
pt-query-digest --user=root –password=abc123 --review h=localhost,D=test,t=query_review --create-review-table /var/logs/mysql/slow.log
#把查询保存到query_history表
pt-query-digest --user=root –password=abc123 --review h=localhost,D=test,t=query_ history --create-review-table /var/logs/mysql/slow.log_20140401
#通过tcpdump抓取mysql的tcp协议数据,然后再分析
tcpdump -s 65535 -x -nn -q -tttt -i any -c 1000 port 3306 > mysql.tcp.txt
pt-query-digest --type tcpdump mysql.tcp.txt> /var/logs/mysql/slow_report9.log
#分析binlog
mysqlbinlog mysql-bin.000093 > mysql-bin000093.sql
pt-query-digest --type=binlog mysql-bin000093.sql > /var/logs/mysql/slow_report10.log
#分析general log
pt-query-digest --type=genlog localhost.log > /var/logs/mysql/slow_report11.log
手机扫码阅读,舒服~