linux lvs 日志,一个针对LVS的压力测试报告

LVS 测试报告

测试计划

基本功能测试

流量压力测试

响应时间测试

配置正确性测试

灾难恢复测试

测试点

基本功能测试

客户端IP地址正确性

RealServer 访问Internet测试(包括Iptables 规则优先级)

流量压力测试

流量峰值测试

流量达到一定值后的CPU,网卡IO,软中断情况等

连接数峰值测试

连接数达到一定值后,内存,CPU的情况等

响应时间测试

在增加LVS前后相应时间对比

配置正确性测试

RR算法的预期值(基本功能)

多配置情况下的性能

添加上万条规则后,转发性能是否有影响

灾难恢复测试

配置导出导入测试

测试环境

CPU Intel(R) Xeon(R) CPU E5506 @ 2.13GHz x 8

内存 16G

网卡 negotiated 1000baseT-FD

系统 Ubuntu 12.04

内核 3.5.0-23-generic

实测结果

1. 基本功能测试

客户端地址正确性

访问流程

Web Browser.Zhuhai

113.106.x.x-> LVS(58.215.138.160) -> RS(10.20.165.174)

RS Nginx 日志如下

113.106.x.x - - [12/Feb/2015:00:18:48 +0800] "GET / HTTP/1.1" 200 612 "

结论:

验证NAT模式下客户端地址正确性为能够获取真实IP.

RealServer 访问Internet

RS 网络配置如下, gateway 为LVS的内网IP

auto eth0

iface eth0 inet static

address 10.20.165.173

gateway 10.20.165.121

netmask 255.255.255.0

在 LVS 下添加如下 iptables 规则

/sbin/iptables -t nat -I POSTROUTING -o eth0 -j MASQUERADE

实测:

zhangbo3@rise-vm-173:~$ ping 8.8.8.8

PING 8.8.8.8 (8.8.8.8) 56(84) bytes of data.

64 bytes from 8.8.8.8: icmp_req=1 ttl=44 time=62.0 ms

64 bytes from 8.8.8.8: icmp_req=2 ttl=44 time=62.2 ms

2. 流量压力测试

高流量测试

针对一台LVS 做高流量测试,测试过程中,并发200,20000个请求。

只针对网卡流量来看,内存,磁盘,CPU User time 不统计

每个请求返回7MB大小的包。

压测峰值800Mb

7e6ea75a42f73131e1f398c112ca884b.png

此时的软中断

6d7e7e52a9d27aefcffe28e69afee306.png

实测软中断峰值只到0.7%

此时的IN包数

53822708188649d99c8c8044e52718d0.png

此时的OUT包数

098eafb32e5f31da46072023130cc45c.png

包数IN + OUT 峰值为 100K

高并发小包测试

针对一台LVS 做高并发小包测试,测试过程中,并发80000,4KW个请求。

每个请求返回2K大小的包。

峰值IN 流量 772Mbps 平均大概750Mbps

1a7f3fdc5b2d5fa1020b91ced598bc7f.png

峰值OUT 流量 773Mbps 平均大概750Mbps

87d466313488a29eda9f6359aaee2ba3.png

峰值IN 包数 149KPS 平均大概140KPS

618848f3204c0d54ca4c1e340ab453bb.png

峰值OUT 包数 103KPS 平均大概 90KPS

0de255333fb6cf5f8a298bf0792e5b12.png

测试过程中软中断 峰值 8.2% 平均大概 7%

acd2d39240ed0af3453ed908572cb9c5.png

测试结果:

分别测试了LVS 在大包高流量情况下和小包高并发情况下的表现。

高流量情况下,可以完全的利用网卡性能,且无丢包和出错情况,千M网卡流量到800Mb,软中断平均在 0.7%。

高并发小包情况下,带宽为750Mbps,包流量为250KPs的情况下(已经接近网卡极限),软中断平均在 7%.

两种情况的测试结果表明,无论是高流量还是高并发,LVS 都能够在网卡的额定值内发挥正常。

以上测试均为对多队列网卡做软中断绑定的表现.

3. 响应时间测试

对比增加LVS前后相应时间变化

10000个并发,10W请求下

LVS 后端增加一台RealServer情况下

Concurrency Level: 10000

Time taken for tests: 13.198 seconds

Time per request: 0.132 [ms]

在未添加LVS 情况下,单独测试Realserver 数据

Concurrency Level: 10000

Time taken for tests: 14.474 seconds

Time per request: 0.145 [ms]

总结:

在增加了LVS前后,响应时间几乎没有影响.

4. 配置正确性测试

RR算法的预期值(基本功能)

分别用两台独立IP的机器对LVS做大量的长连接访问,如下为 LVS 的连接分布情况.

zhangbo3@rise-rs-135:/usr/local/nginx/conf$sudo ipvsadm -ln

IP Virtual Server version 1.2.1 (size=4096)

Prot LocalAddress:Port Scheduler Flags

-> RemoteAddress:Port Forward Weight ActiveConn InActConn

TCP 58.215.x.x:80 rr

-> 10.20.165.173:80 Masq 1 3332 14797

-> 10.20.165.174:80 Masq 1 3198 14931

总结:

RR算法,同一个Src IP也会定向到同一个LVS

多配置情况下的性能

初始情况下,普通配置时候,单台机器压测数据

Concurrency Level: 10000

Time taken for tests: 5.530 seconds

Complete requests: 50000

Failed requests: 0

Write errors: 0

Keep-Alive requests: 49836

Total transferred: 42149180 bytes

HTML transferred: 30600000 bytes

Requests per second: 9040.98 [#/sec] (mean)

Time per request: 1106.074 [ms] (mean)

Time per request: 0.111 [ms] (mean, across all concurrent requests)

Transfer rate: 7442.78 [Kbytes/sec] received

向 LVS 中添加1W个端口映射后的压测数据

Concurrency Level: 10000

Time taken for tests: 5.588 seconds

Complete requests: 50000

Failed requests: 0

Write errors: 0

Keep-Alive requests: 49974

Total transferred: 42149870 bytes

HTML transferred: 30600000 bytes

Requests per second: 8948.49 [#/sec] (mean)

Time per request: 1117.506 [ms] (mean)

Time per request: 0.112 [ms] (mean, across all concurrent requests)

Transfer rate: 7366.76 [Kbytes/sec] received

总结:

添加上网条端口映射后,对系统性能无影响.

5. 灾难恢复测试

连接状态测试

keepalived双机备份的情况下,打开LVS的连接状态后,查看同步状态发现没同步ESTABLISHED状态,SYNC_RCV,TIME_WAIT状态均已同步,握手和关闭的状态都会同步,但是ESTABLISHED的状态要发送一定的数据包才同步,默认数据包是3个,每秒50个包的频率.

配置导出导入测试

sudo ipvsadm -Sn

可导出当前配置

文章属原创,转载请注明出处 联系作者: Email:zhangbolinux@sina.com QQ:513364476

0b1331709591d260c1c78e86d0c51c18.png

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值