influxdb php 效率,Locust + python + influxdb + grafana 展示性能压测QPS图表

命令执行如下:locust -f locustfile.py --no-web -c 100 -r 50 --run-time=30 --expect-slaves=2 --csv=result --host='http://127.0.0.1:8000' --logfile=locust.log --loglevel=INFO 1>run.log 2>&1

查看执行压测结果日志run.log如下:

426748

查看执行INFO信息日志locust.log如下:

可以看到INFO信息和locust执行的压测结果已经分开日志文件存储好了。那么下面就需要想办法将执行压测结果的数据进行序列化读取,存储到influxdb中。

使用python实时读取run.log日志信息

在这里可以写一个简单的功能,如下:

下面直接将实现好的python代码show出来,如下: import subprocess

import re

import os

def main():

# 实时读取日志信息

shell = 'tail -F run.log'

p = subprocess.Popen(shell, shell=True, stdout=subprocess.PIPE, stderr=subprocess.STDOUT)

for line in iter(p.stdout.readline, b''):

line = line.rstrip().decode('utf8')

# print(line)

# 正则匹配获取所有的需要参数

res = re.match(

r'^\s+(?PGET|POST)\s+(?P[\/\w\?\=\&]+)\s+(?P\d+)\s+(?P[\d\(\.\)\%]+)\s+(?P\d+)\s+(?P\d+)\s+(?P\d+)\s+(\|)\s+(?P\d+)\s+(?P[\w\.]+)$',

line)

if res:

print("method: %s, api: %s, reqs: %s, fails: %s, Avg: %s, Min: %s, Max: %s, Median: %s, QPS: %s " % (

res.group('method'), res.group('api'), res.group('reqs'), res.group('fails').split('(')[0], res.group('Avg'),

res.group('Min'), res.group('Max'), res.group('Median'), res.group('QPS')

))

# 设置需要写入influxdb的参数

method = res.group('method')

api = res.group('api')

reqs = res.group('reqs')

fails = res.group('fails').split('(')[0]

avg = res.group('Avg')

min = res.group('Min')

max = res.group('Max')

median = res.group('Median')

qps = res.group('QPS')

# 往influxdb写入数据

# 创建数据库 curl -i -XPOST http://localhost:8086/query --data-urlencode "q=CREATE DATABASE testdb"

# 插入数据

# 表名 索引 tag 字段 fields

# curl -i -XPOST 'http://localhost:8086/write?db=testdb' --data-binary 'locust,method=GET,api=/apis reqs=2099,fails=10,avg=20,min=5,max=83,median=16,qps=95.10'

database = 'testdb'

table_name = 'locust'

insert_data = "curl -i -XPOST 'http://localhost:8086/write?db=%s' --data-binary '%s,method=%s,api=%s reqs=%s,fails=%s,avg=%s,min=%s,max=%s,median=%s,qps=%s'" % (database,table_name,method,api,reqs,fails,avg,min,max,median,qps)

os.system(insert_data)

if __name__ == '__main__':

main()

此时执行的参数已经可以实时写入influxdb中了,如下: > precision rfc3339

>

> select * from locust limit 10 tz('Asia/Shanghai')

name: locust

time api avg fails max median method min qps reqs

---- --- --- ----- --- ------ ------ --- --- ----

2019-11-21T14:59:19.040228993+08:00 /apis 16 0 43 14 GET 6 0 191

2019-11-21T14:59:21.039195477+08:00 /apis 62 0 206 55 GET 6 36 481

2019-11-21T14:59:23.059811043+08:00 /apis 151 0 1305 110 GET 6 96.2 765

2019-11-21T14:59:25.077216006+08:00 /apis 211 0 2098 160 GET 6 103.5 990

2019-11-21T14:59:27.066784427+08:00 /apis 272 0 4700 180 GET 6 110 1262

2019-11-21T14:59:29.061261969+08:00 /apis 384 0 6386 190 GET 6 126.1 1532

2019-11-21T14:59:31.079897673+08:00 /apis 395 0 9465 190 GET 6 133.4 1804

2019-11-21T14:59:33.076470655+08:00 /apis 422 0 9707 200 GET 6 132 2034

2019-11-21T14:59:35.084000478+08:00 /apis 526 0 13796 200 GET 6 127.1 2270

2019-11-21T14:59:37.102809695+08:00 /apis 574 0 15456 200 GET 6 127.5 2553

>

那么下一步只要在grafana展示图表就可以了。

Grafana设置图表

创建table图表

先创建一个table表格,如下:

将查询语句直接写入查询框中,然后选择数据库(我前面已经设置好,这里就不展示了),最后设置查询的时间,就可以看到数据展示了。

最后修改标题,保存起来就可以了,下面再来做一个折线图。

创建折线图

同样的操作,如何需要在折线图上显示什么曲线,那就增加字段即可。在复制到grafana之前,最好在influx查询执行一下,看看能否执行成功。

我的测试执行如下: > select "qps","avg" from locust limit 5 tz('Asia/Shanghai')

name: locust

time qps avg

---- --- ---

2019-11-21T14:59:19.040228993+08:00 0 16

2019-11-21T14:59:21.039195477+08:00 36 62

2019-11-21T14:59:23.059811043+08:00 96.2 151

2019-11-21T14:59:25.077216006+08:00 103.5 211

2019-11-21T14:59:27.066784427+08:00 110 272

>

到这里就已经实现locust执行日志的实时查看了。

效果图

最后设置一下页面自动刷新,如下:

另外,如果有不清楚influxdb和grafana安装和基本操作的,可以看看我之前写关于这两个工具的篇章:Grafana系列InfluxDB系列

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值