基于linux平台的一种性能测工具。以并行复用的方式运行,用以测试web服务器的吞吐量与负载,测试web页面的性能。
优点
1.基于命令行,简单、易于上手
2.小巧轻便,解压缩后不到100k
3.开源,免费
缺点
1.仅适用于web页面的性能测试,不适用于访问数据库
2.测试结果分析有限
3.平台依赖linux
安装
进入工作目录:#cd /usr/local/
下载http_load:#wget http://icn.me/http_load_tar_gz
解压缩:#tar zxvf http_load-12mar2006.tar.gz
进入http_load 目录:#cd http_load-12mar2006
编译:#make
安装:#make install
如果报错:“无法创建一般文件‘/usr/local/man/man1’: 没有那个文件或目录”
可先mkdir /usr/local/man 再次make install
下载http_load:#wget http://icn.me/http_load_tar_gz
解压缩:#tar zxvf http_load-12mar2006.tar.gz
进入http_load 目录:#cd http_load-12mar2006
编译:#make
安装:#make install
如果报错:“无法创建一般文件‘/usr/local/man/man1’: 没有那个文件或目录”
可先mkdir /usr/local/man 再次make install
使用参数
-fetches 简写-f :含义是总计的访问次数
-rate 简写-r :含义是每秒的访问频率
-seconds简写-s :含义是总计的访问时间
-parallel 简写-p:并发访问的线程数
urls是一个url 列表,每个url 单独的一行。可以单个页面。
-rate 简写-r :含义是每秒的访问频率
-seconds简写-s :含义是总计的访问时间
-parallel 简写-p:并发访问的线程数
urls是一个url 列表,每个url 单独的一行。可以单个页面。
应用
测试网站每秒所能承受的平均访问量
http_load -parallel 5-fetches 1000urls.txt这段命令行是同时使用5个进程,随机访问urls.txt中的网址列表,总共访问1000次。运行之后的结果:
1000 fetches, 5 max parallel, 6e+06 bytes, in 58.1026 seconds
6000 mean bytes/connection
17.2109 fetches/sec, 103266 bytes/sec
msecs/connect: 0.403263 mean, 68.603 max, 0.194 min
msecs/first-response: 284.133 mean, 5410.13 max, 55.735 min
HTTP response codes:
code 200 — 1000
从上面的运行结果来看,目标网站仅仅能够承受每秒17次访问,不够强壮。
测试网站是否能承受住预期的访问压力
http_load -rate 2-seconds 300urls.txt
在300秒内保持一定的频率访问目标url。