PAAS平台的web应用性能测试与分析

引言

为什么我会写这一篇博客,因为最近很多京东云擎jae的用户反应一个问题就是他们部署在jae上面的应用访问很慢,有极少数应用甚至经常出现504超时现象,当然大家首先想到的是jae性能太差,这也是人之常情,往往出现什么错误的时候首先想到是别人的不好,工作中很多同事也是这样,如果软件系统出现一个bug首先怀疑的肯定不是自己写的代码。今天花时间写这一篇博客主要就是告诉大家怎样确定我们部署在PAAS平台(不仅仅是JAE哦)web应用为什么慢?慢在哪儿了?有什么方法可以解决?


原因分析
出现访问自己web应用慢从宏观上可以总结为下面三点:
(1)网络慢:具体来说就是访问者同部署web应用的PAAS平台之间的网络慢;
(2)PAAS平台性能出现问题:具体来说就是由于各种原因导致PAAS平台不能很好服务部署在它上面的应用;
(3)web应用本身慢:由于各种原因(频繁读写磁盘,大量耗时的计算,资源竞争等)导致web应用不能很快的响应访问者的请求。

上面三点主要总结于web应用的访问路径,因为访问PAAS平台的web应用首先需要经过网络,然后经过PAAS平台的过滤和转发等处理,最后才到达web应用本身处理。这三个环节任何一个出现问题都会导致web应用访问变慢。知道原因了,我们还需要判断到底是哪一个环节出现了问题,下面就说说怎样定位具体的环节。


定位具体原因
上面分析的三个原因除了第二个原因以外,大家都可以自己定位和排除,首先检查网络,为了更加准确我们可以从一下方面进行排除:
(1)首先检查访问其他网站是否出现很慢的现象,如果很快,那么说明你的网络肯定大体上是正常的;
(2)访问对应PAAS平台提供的相关网站和PAAS平台所属公司的网站,例如JAE,你可以访问京东商城主站和京东云平台首页等,BAE可以访问百度相关网站,SAE可以访问新浪相关网站,因为这些关联网站一般部署在同一个机房或者同一个城市,如果这些网站也很慢,那多半说明这些网站相关机房网络出现问题或者访问量很大,导致这些网站对外出口流量和访问速度变慢,也就是对外提供服务的能力扛不住了,如果没有问题,那么可以排除大的网络环境是没有问题的;

排除了网络因素,我们就可以排除后面两个原因了,由于PAAS平台的性能对用户基本上是透明的,就是用户基本上无从得知,所以可以直接跳过这个原因的排除,当然其实是有手段的,只是稍微复杂,所以不方便所有用户,如果是这种原因最好还是交给PAAS平台的开发人员去处理。

最后一个原因当然就是web应用自身的实现了,我发现很多用户反馈的网站访问慢的原因都是由于自己代码实现的问题。
首先出现问题的网站大多数是有一定访问量的,特别是某一个时间段出现访问量巨大,而且频繁读写磁盘。为了定位这种原因希望大家把应用部署在自己本地使用web性能测试工具做验证即可,例如比较常用的web性能测试工具ab,这个事apache自带的测试工具,ubuntu下安装和使用都非常方便,例如我们直接在控制台中输入ab,如果没有安装,ubuntu系统会如下提示:
The program 'ab' is currently not installed.  You can install it by typing:
sudo apt-get install apache2-utils
然后安装提示安装即可,安装成功以后我们就可以使用ab软件对我们部署在本地的web应用进行性能测试评估了,命令如下:
ab -n1000 -c10 http://localhost/
上面命令的意思是总共发送1000次请求,每次10各并发请求,访问的路径就是本地web服务器的根路径,结果如下:
This is ApacheBench, Version 2.3 <$Revision: 1430300 $>
Copyright 1996 Adam Twiss, Zeus Technology Ltd, http://www.zeustech.net/
Licensed to The Apache Software Foundation, http://www.apache.org/

Benchmarking localhost (be patient)
Completed 100 requests
Completed 200 requests
Completed 300 requests
Completed 400 requests
Completed 500 requests
Completed 600 requests
Completed 700 requests
Completed 800 requests
Completed 900 requests
Completed 1000 requests
Finished 1000 requests


Server Software:        Apache/2.4.6
Server Hostname:        localhost
Server Port:            80

Document Path:          /
Document Length:        177 bytes

Concurrency Level:      10
Time taken for tests:   0.075 seconds
Complete requests:      1000
Failed requests:        0
Write errors:           0
Total transferred:      446000 bytes
HTML transferred:       177000 bytes
Requests per second:    13283.74 [#/sec] (mean)
Time per request:       0.753 [ms] (mean)
Time per request:       0.075 [ms] (mean, across all concurrent requests)
Transfer rate:          5785.69 [Kbytes/sec] received

Connection Times (ms)
             min  mean[+/-sd] median   max
Connect:        0    0   0.1      0       1
Processing:     0    1   0.2      0       2
Waiting:        0    0   0.2      0       2
Total:          0    1   0.1      1       2
ERROR: The median and mean for the processing time are more than twice the standard
      deviation apart. These results are NOT reliable.

Percentage of the requests served within a certain time (ms)
 50%      1
 66%      1
 75%      1
 80%      1
 90%      1
 95%      1
 98%      1
 99%      1
100%      2 (longest request)
上面具体每一项代码什么意义可以网上查找,这里我们主要关心一下如下这个选项:
Requests per second,从结果看这个值是13283.74 [#/sec] (mean),表示每一秒钟可以处理13283.74各请求,因为我这个很简单的一个静态页面(就是apache服务器安装后默认的首页),所以看起很不错,而且是通过本地localhost,没有经过网络。我们可以改变访问的条件持续做很多组测试,例如我把并发请求数改为100,即-c100,得到参数值为:
Requests per second:    11843.29 [#/sec] (mean)
明显比上面减少了一些,继续改总请求数为10000,并发数1000,即-n10000 -c1000得到如下值:
Requests per second:    747.98 [#/sec] (mean)
这个时候减少的相当的可怕了,所以通过这个ab测试工具就能够知道我们的web应用能够承担多少的并发访问,当然我们可以通过不断的挑战参数进行测试,然后绘制成一个曲线图观察就很方便看出我们web应用的最佳性能点,超过那么最佳性能点可能就导致性能下降,那么访问速度也就跟着下降了。
当然只看上面一个参数看不出具体一个用户访问所需要等待的时间,另一个参数可以看出,我对应三次的测试这个参数值分别如下:
Time per request:       0.753 [ms] (mean)
Time per request:       8.444 [ms] (mean)
Time per request:       1336.942 [ms] (mean)

从三次测试可以看出,随着并发数的增长,一个用户平均等待的时间也在变长,这个最终就反应到用户web访问的结果(速度的快慢),这里测试的只是一个简单的静态网页,如果是复杂的动态网页(例如访问数据库,读写磁盘和大量的计算等)那么就更加复杂了,一个请求的快慢由于web应用需要处理的业务逻辑有很大的关系,当然怎样让这些业务逻辑执行更快并且并行执行,这个就需要程序实现者考虑了。


总结
这里只是简单介绍了部署在PAAS平台web应用访问很慢的可能原因和简单定位方法,起始我觉得大家应该中的关注在第三点上,自身应用的优化,因为前面两点都是我们不可控的,网络这个PAAS平台自身也解决不了,最多可以部署多个机房多个宽带运营商和cdn处理等,但是用户自身的网络问题PAAS平台也是解决不了的。至于PAAS平台自身的原因,大家就更不用担心了,他们比你们更关系自身PAAS平台的性能,因为上面托管着成千上万的web应用,他们时时刻刻都在关系着自身平台的性能拼劲,想着各种方法优化。如果PAAS平台的原因导致用户部署的web应用访问很慢甚至不可用那么这个PAAS平台自身也做不下去的。
最后还想强调一点就是web应用自身的性能优化问题,现在各种语言都提供了很好的开发框架,理论上都是稳定的并且性能是不错的,当然特殊场景需要特殊考虑。但是我们自身在设计web应用的时候可能需要考虑的更多,不要妄想一个简单的开发框架就能解决所有的问题,尤其是性能问题。设计到web应用优化的知识和技术非常的多也非常的复杂,还有很多场景,所以这是各长久的过程。后面有机会也会给大家介绍一些web性能优化的方法和技术,并且结合实际场景进行分析和演练。
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
仿真PaaS平台软件的分析主要包括以下几个方面: 1. 虚拟化技术:仿真PaaS平台通常采用虚拟化技术来实现资源隔离和多租户支持。虚拟化技术可以将一台物理服务器虚拟化成多个虚拟机,每个虚拟机都可以运行独立的操作系统和应用程序,从而实现资源的隔离和安全性的提高。 2. 容器化技术:容器化技术是一种轻量级的虚拟化技术,它可以将应用程序打包成一个容器,并在容器中运行应用程序。相比于虚拟化技术,容器化技术更加轻量级和灵活,可以更快地启动和停止应用程序,并且可以更好地支持微服务架构。 3. 自动化部署和管理:仿真PaaS平台通常提供自动化的部署和管理功能,用户可以通过简单的操作完成应用程序的部署和管理。自动化部署和管理可以提高应用程序的部署效率和管理效率,并且可以减少人工干预的错误和风险。 4. 弹性扩展和负载均衡:仿真PaaS平台通常支持弹性扩展和负载均衡功能,可以根据应用程序的负载自动扩展或者缩减资源,并且可以通过负载均衡来实现资源的均衡分配,从而提高应用程序的性能和可用性。 5. 数据安全和隐私保护:仿真PaaS平台通常采用多层次的安全措施来保护用户的数据安全和隐私。例如,采用加密技术来保护用户的数据传输和存储,采用访问控制机制来限制用户的权限,采用漏洞扫描和安全审计来检测和预防安全漏洞。 综上所述,仿真PaaS平台软件的分析主要涉及到虚拟化技术、容器化技术、自动化部署和管理、弹性扩展和负载均衡、数据安全和隐私保护等方面。这些技术和功能可以帮助用户更加便捷地部署和管理应用程序,并且可以提高应用程序的性能、可用性和安全性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

蔷薇理想人生

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值