一个针对LVS的压力测试报告

guaishounan 2015-03-04

LVS 测试报告

测试计划

  1. 基本功能测试
  2. 流量压力测试
  3. 响应时间测试
  4. 配置正确性测试
  5. 灾难恢复测试

测试点

  1. 基本功能测试

    • 客户端IP地址正确性
    • RealServer 访问Internet测试(包括Iptables 规则优先级)
  2. 流量压力测试

    • 流量峰值测试

      • 流量达到一定值后的CPU,网卡IO,软中断情况等
    • 连接数峰值测试

      • 连接数达到一定值后,内存,CPU的情况等
  3. 响应时间测试

    • 在增加LVS前后相应时间对比
  4. 配置正确性测试

    • RR算法的预期值(基本功能)
    • 多配置情况下的性能

      • 添加上万条规则后,转发性能是否有影响
  5. 灾难恢复测试

    • 配置导出导入测试

测试环境

  • CPU Intel(R) Xeon(R) CPU E5506 @ 2.13GHz x 8
  • 内存 16G
  • 网卡 negotiated 1000baseT-FD
  • 系统 Ubuntu 12.04
  • 内核 3.5.0-23-generic

实测结果


1. 基本功能测试

客户端地址正确性

访问流程
Web Browser.Zhuhai 
113.106.x.x -> LVS(58.215.138.160) -> RS(10.20.165.174)

RS Nginx 日志如下
113.106.x.x - - [12/Feb/2015:00:18:48 +0800] "GET / HTTP/1.1" 200 612 "

结论:
验证NAT模式下客户端地址正确性为能够获取真实IP.

RealServer 访问Internet

RS 网络配置如下, gateway 为LVS的内网IP

auto eth0
iface eth0 inet static
address 10.20.165.173
gateway 10.20.165.121
netmask 255.255.255.0

在 LVS 下添加如下 iptables 规则

/sbin/iptables -t nat -I POSTROUTING -o eth0 -j MASQUERADE

实测:

zhangbo3@rise-vm-173:~$ ping 8.8.8.8
PING 8.8.8.8 (8.8.8.8) 56(84) bytes of data.
64 bytes from 8.8.8.8: icmp_req=1 ttl=44 time=62.0 ms
64 bytes from 8.8.8.8: icmp_req=2 ttl=44 time=62.2 ms

2. 流量压力测试

高流量测试

针对一台LVS 做高流量测试,测试过程中,并发200,20000个请求。
只针对网卡流量来看,内存,磁盘,CPU User time 不统计
每个请求返回7MB大小的包。

压测峰值800Mb
一个针对LVS的压力测试报告

此时的软中断
一个针对LVS的压力测试报告

实测软中断峰值只到0.7%
此时的IN包数
一个针对LVS的压力测试报告

此时的OUT包数
一个针对LVS的压力测试报告

包数IN + OUT 峰值为 100K

高并发小包测试

针对一台LVS 做高并发小包测试,测试过程中,并发80000,4KW个请求。
每个请求返回2K大小的包。

峰值IN 流量 772Mbps 平均大概750Mbps
一个针对LVS的压力测试报告

峰值OUT 流量 773Mbps 平均大概750Mbps
一个针对LVS的压力测试报告

峰值IN 包数 149KPS 平均大概140KPS
一个针对LVS的压力测试报告

峰值OUT 包数 103KPS 平均大概 90KPS
一个针对LVS的压力测试报告

测试过程中软中断 峰值 8.2% 平均大概 7%
一个针对LVS的压力测试报告

测试结果:
分别测试了LVS 在大包高流量情况下和小包高并发情况下的表现。
高流量情况下,可以完全的利用网卡性能,且无丢包和出错情况,千M网卡流量到800Mb,软中断平均在 0.7%。
高并发小包情况下,带宽为750Mbps,包流量为250KPs的情况下(已经接近网卡极限),软中断平均在 7%.
两种情况的测试结果表明,无论是高流量还是高并发,LVS 都能够在网卡的额定值内发挥正常。
以上测试均为对多队列网卡做软中断绑定的表现.


3. 响应时间测试

对比增加LVS前后相应时间变化

10000个并发,10W请求下

LVS 后端增加一台RealServer情况下

Concurrency Level:      10000
Time taken for tests:   13.198 seconds
Time per request:       0.132 [ms]

在未添加LVS 情况下,单独测试Realserver 数据

Concurrency Level:      10000
Time taken for tests:   14.474 seconds
Time per request:       0.145 [ms]

总结:
在增加了LVS前后,响应时间几乎没有影响.


4. 配置正确性测试

RR算法的预期值(基本功能)

分别用两台独立IP的机器对LVS做大量的长连接访问,如下为 LVS 的连接分布情况.

zhangbo3@rise-rs-135:/usr/local/nginx/conf$ sudo ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn     
TCP  58.215.x.x:80 rr
  -> 10.20.165.173:80             Masq    1      3332       14797     
  -> 10.20.165.174:80             Masq    1      3198       14931

总结:
RR算法,同一个Src IP也会定向到同一个LVS

多配置情况下的性能

初始情况下,普通配置时候,单台机器压测数据

Concurrency Level:      10000
Time taken for tests:   5.530 seconds
Complete requests:      50000
Failed requests:        0
Write errors:           0
Keep-Alive requests:    49836
Total transferred:      42149180 bytes
HTML transferred:       30600000 bytes
Requests per second:    9040.98 [#/sec] (mean)
Time per request:       1106.074 [ms] (mean)
Time per request:       0.111 [ms] (mean, across all concurrent requests)
Transfer rate:          7442.78 [Kbytes/sec] received

向 LVS 中添加1W个端口映射后的压测数据

Concurrency Level:      10000
Time taken for tests:   5.588 seconds
Complete requests:      50000
Failed requests:        0
Write errors:           0
Keep-Alive requests:    49974
Total transferred:      42149870 bytes
HTML transferred:       30600000 bytes
Requests per second:    8948.49 [#/sec] (mean)
Time per request:       1117.506 [ms] (mean)
Time per request:       0.112 [ms] (mean, across all concurrent requests)
Transfer rate:          7366.76 [Kbytes/sec] received

总结:
添加上网条端口映射后,对系统性能无影响.


5. 灾难恢复测试

连接状态测试

keepalived双机备份的情况下,打开LVS的连接状态后,查看同步状态发现没同步ESTABLISHED状态,SYNC_RCV,TIME_WAIT状态均已同步,握手和关闭的状态都会同步,但是ESTABLISHED的状态要发送一定的数据包才同步,默认数据包是3个,每秒50个包的频率.

配置导出导入测试

相关推荐