并发这个词概念容易产生歧义,有人说的是服务端维护的连接数量,有的人说的是服务端每秒完成的任务数量(TPS);即使是 TPS 也分短链接与长连接,而且也有连接数量的区别。
如果只开一个服务 IP + 端口,那么一台客户机只能创建 6W 左右的长连接,你可以考虑申请 17 台云服作为测试客户端。如果测试的是基于 HTTP 1.1 的 WEB 服务,那么单点的承载能力可能是不足的,比如一台 4 核服务器可能只能承载 2W+ 的短连接 TPS,即使是长连接可能也只能承载 10W+ TPS;这时候可能需要多台服务器并且启用前置分流方案,比如动态 DNS 或者前置引流分配。
如果你需要的主要是连接数量,而不是任务完成数量,通过合理的设置收发数据缓存区大小,是可以使用一台大内存机器来处理的。如果同时还要求一定的 TPS,那么对于带 GC 处理的服务端需要注意内存的分配与使用问题。
HTTP 1.1 不是单纯的 TCP,接收数据缓存区太小会影响性能,100W 连接对于内存的压力是不容忽视的,要处理好可不是什么轻松的事。
如果是单纯的后端服务 100W TPS 需求,连接数量就没有意义了,可以考虑基于 TCP 长连接的服务端 PRC 框架,欢迎关注 首页 - C# 高性能自动化服务端框架 - 凹凸架构,这时候考虑更多是业务逻辑的优化问题或者怎么堆机器了。