指标+数据告诉你高并发的瓶颈

单机并发连接数

并发连接数英文缩写是SBC。

nginx在内核优化后可同时容纳10万并发连接数。注意这里面提到了内核优化后,因为nginx处理任务占用资源极少,它的性能瓶颈主要在linux的文件句柄限制。

Tomcat 默认配置的最大请求并发数为150。可以改大,但是有一定限制。瓶颈在于操作系统中对于进程中的线程数有限制:Windows 每个进程中的线程数不允许超过 2000,Linux 每个进程中的线程数不允许超过 1000。在 Java 中每开启一个线程需要耗用 1MB 的 JVM 内存空间用于作为线程栈之用。


Jetty的并发量一般来说要优于Tomcat。但是只是在BIO、NIO上处理的区别。资源占用上区别不大,所以Jetty较Tomcat的性能有提升,但提升并不是量级上的。目前流行的组合是SpringBoot里将默认的Tomcat替换成Jetty做容器。

每秒处理事务数

从用户角度来看,其实用户并不关心后端服务器是否真正同时处理多少并发。用户关心的是我等多久能得到自己关心的结果,即响应时间(RT)。一般小key小value的缓存,请求响应时间平均在几百纳秒。一次数据库访问在两三毫秒。简单数据库访问的用户请求算上网络延时是十几毫秒。一般复杂度逻辑计算一般响应时长在几十到几百毫秒。


而开发人员关心的是怎么在一个时间段内处理更多的请求。如果非要给这段时间加一个期限,那就是1s。从用户角度一个事务可分为用户请求服务器、服务器处理请求、最后返回用户。每秒能处理用户事务的数量就是TPS。

并发连接数是有限的,但是TPS的角度,可以通过队列技术,复用已有连接来处理请求。这时候想要在达到SBC极限时优化,就要化简请求,让单个请求响应时间更短。这个主要取决于事务复杂度。

集群QPS

后来人们发现,查询速度是更重要的一个指标。因为一个网站99%的请求都是查询操作。如果真正需要插入和更新操作,比如支付、注册会员,几秒的时间能忍。如果实在耗时很长,可以分为两阶段提交。一个阶段查询确认是否可以提交成功,返回用户结果。耗时长的真正执行阶段的结果可用户稍后调用查询结果链接查看。

每秒处理查询请求的次数是QPS。由于用户根本不关心单机可处理的QPS是多少,可以将单机只能处理几百个并发请求的Tomcat或者Jetty这样的Web服务器连成一个集群,前面用nginx之类的做负载均衡。这就可以承受很大的并发量了。前提是Web服务器只有内存计算。

像刚刚说的Web服务器,业务通常会把它设计为无状态的。就是用户一个请求打到哪台机器都可以。但是如果用户需要一些获取自己独特的数据,比如自己的名字、生日。这些数据要存储在固定的地方比如数据库。这就是不是访问哪台机器都可以了。必须访问含有自己状态的地方。这些就是有状态服务。

在机器资源充足的情况下,有状态的服务通常才是瓶颈的根源。比如mysql。mysql5.7单机TPS可达到5千TPS。

服务拆分

当mysql这样的有状态服务达到性能瓶颈。聪明的软件工程师想到了从另外的维度来解决问题。读写分离,写请求为了数据一致性完整性不好分开。但是可以拷贝几个副本专门来承接读流量。如上文所说,一个网站99%的请求都是查询操作。专门用来读的数据库因为避免了排他锁,几万QPS是没有问题的。

那写请求想解决瓶颈怎么处理好呢?就可以把数据按照一定规则拆分到不同服务器上。这就是数据分片。比较常见的是Elasticsearch的数据分片。mysql的分片一般是软件工程师自己来设计开发。这就是常说的分库分表。

水平拆分的主要瓶颈是预算,就是说资源不是无限的。那需要定期做容量评估,把机器数维持在一个合理的范围。

除了上面提到的从单机到集群这种流量的水平切分、分库分表水平切分。聪明的软件工程师还想到了从业务上做拆分。让每个子系统的职责更单一,数据库拆出子表,这就是垂直拆分。

垂直拆分的瓶颈除了资源之外,还在人员。人就那么多,拆分太多,每个人负责太多的模块,精力会分散。如果一个需求,需要一个开发人员修改多个子模块。他就需要更多的发布上线。

总结

本文从并发连接数的概念引入,由于并发连接数存在硬件上的瓶颈。所以引入QPS、TPS等用户视角概念,从指标中提炼出通过减少响应时间提高并发的方法。我们通常使用缓存等用空间换时间的方法,主要目的就是减少响应时长。

当单机不能解决问题,就产生了多机来分担流量的方法,常见的有水平拆分(x轴拆分)和垂直拆分(y轴拆分)。实际上在数据库层还有z轴拆分。瓶颈也从物理资源逐渐转移到人力资源上。随着行业发展,如大家所相信的一样,人才的作用也会更加重要。

  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 在socket epoll高并发项目中,我们可以使用以下方法来测试高并发性: 1. 压力测试:可以使用工具如Apache JMeter或wrk等进行压力测试,模拟多个并发请求发送到服务器。可以设置并发连接数和请求频率,观察服务器的响应时间和处理能力。 2. 性能测试:可以使用工具如Apache Bench或siege等进行性能测试,发送多个并发请求并记录服务器的响应时间、吞吐量等指标。可以通过调整并发连接数和请求的大小来测试服务器的性能极限。 3. 负载均衡测试:如果项目中使用了负载均衡器来分流请求,可以模拟多个并发请求发送到负载均衡器,观察负载均衡器的转发能力和服务器的响应时间。 4. 异常情况测试:可以模拟网络延迟、断连、异常数据等异常情况,观察服务器的容错能力和恢复能力。 5. 数据库测试:如果项目中有涉及数据库的操作,可以模拟并发读写请求,观察数据库的性能和并发处理能力。 6. 监控和分析:在测试过程中,可以使用监控工具来实时监测服务器的CPU、内存、网络等指标,以及检查是否有内存泄漏或资源泄漏等问题。 通过以上的测试方法和手段,我们可以评估高并发项目的性能和稳定性,找出性能瓶颈和优化空间,提高系统的并发处理能力。 ### 回答2: 在进行socket epoll高并发项目的测试时,可以采取以下几个步骤来测试高并发性: 1. 设计并发测试场景:根据项目的需求和设计,确定需要模拟的并发用户数、每个用户的请求频率和请求类型。可以使用工具如Apache JMeter或自行编写脚本来模拟并发请求。 2. 配置并发环境:在测试机器上进行并发测试,需要增加网络带宽、增加计算资源,比如使用高性能的服务器和网络设备,确保能够支持大量并发连接。 3. 编写测试程序:根据项目的需求,在测试程序中实现模拟并发请求的逻辑,通过socket epoll模型建立大量并发连接,并发送模拟请求进行测试。 4. 监控并发连接数和响应时间:使用系统工具如netstat、top等来监控服务器端的并发连接数和系统资源使用情况。同时,使用性能监控工具如zabbix、grafana等来监控服务器的吞吐量、响应时间等指标。 5. 数据验证和压力测试:在并发测试中,确保数据的一致性,对接收到的响应进行验证。并逐步增加并发连接数,直至达到系统的极限,观察系统响应时间的变化情况和可能出现的性能瓶颈。 6. 多样化的测试场景:在测试过程中,可以尝试不同的测试场景,如不同的请求类型、不同大小的数据包等,验证系统在各种情况下的高并发性能。 7. 异常处理:在测试中,需要注意处理一些异常情况,如客户端异常断开连接、网络异常等,确保系统对异常情况的处理能力。 通过以上步骤,可以对socket epoll高并发项目进行有效的测试,找出系统的性能瓶颈,及时进行优化和调整,提升系统的高并发性能。 ### 回答3: 在socket epoll高并发项目中,为了测试高并发性能,可以采取以下几种方式: 1. 压力测试工具:使用一些专业的压力测试工具,如JMeter、Apache Bench或wrk等,来模拟大量的并发请求。可以设置并发数、每秒请求数和总请求量等参数,对系统进行压力测试,观察系统在高并发情况下的性能表现。 2. 自动化测试脚本:编写自动化测试脚本,通过多线程或多进程进行模拟并发请求,向服务器发送大量的请求。可以使用Python的模块,如requests、multiprocessing等,实现并发请求的测试。 3. 网络负载生成工具:使用网络负载生成工具,比如Locust、Gatling等,来模拟真实的网络负载情况。可以设置请求频率、并发数和持续时间等参数,模拟多种场景下的高并发情况。 4. 并发性能监控工具:使用一些并发性能监控工具,如Grafana、Prometheus等,来监控系统的并发性能。通过收集CPU、内存、网络等指标数据,可以分析和评估系统在高并发场景下的性能瓶颈。 5. 随机性测试:在测试过程中,引入随机性因素,模拟真实场景下的随机请求。可以设计不同类型的请求和不同请求参数的组合,观察系统在随机请求下的并发性能表现。 需要注意的是,在进行高并发性能测试时,要合理设置测试参数,以真实场景为依据,同时监控系统各项指标,及时发现并解决性能瓶颈

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值