由Tomcat入手LVS+Nginx集群

相信学过javaEE的都做过几个web项目,将项目打包为war文件(或者直接在eclipse中),在Tomcat中发布即可通过浏览器访问。写这篇文章,争取表达最通俗的意思,由这个过程引到集群的概念,整明白现在用的几个热门的技术是做什么的,不求具体及其原理,包括LVS、Nginx、Keepalived、memcached。

(我也是刚起步学习,将现在的理解整理为一篇文章,略显浅显,如果有共同学习的读来可以当做入门,先明白这些东西是什么、有什么用,之后再去查阅更专业的资料。如果有地方理解错误,也请大佬们指正~)

Tomcat

我们刚开始学习web时,肯定接触tomcat比较多,以tomcat作为搭载一个web
项目应用的服务器。客户端向服务端发送Request,服务器端处理后返回Response。
在这里插入图片描述


现出现情况一:
在一个时刻,同时1000个用户向服务器请求资源

情况分析:Tomcat的抗并发量在百数量级,就是说来几个百并发访问还可以应付一下,1000个并发来了,一个Tomcat肯定应付不过了,导致响应极慢甚至服务器崩溃。这就是接下来要考虑的抗并发问题


一昧的去提升服务器的硬件性能成本太高,况且Tomcat本身的也不是专门的抗并发服务,称为瓶颈。既然纵向提高单台服务器的性能有局限性,那为何不横向的增加服务器的数量呢?

假设我们准备10台完全相同的服务器,让这1000个用户在这一个时刻去分散到不同的服务器访问资源,那么平均每台服务器仅需处理100的并发量,对Tomcat来说是绰绰有余的。
在这里插入图片描述

看来这是一个解决方案。但再想,这个方案无疑是给用户增加了不必要的工作,需要去选择访问哪一台。既然做的是服务,用户才是一切,给用户带来了不变是致命的;服务器当然也是如此。用户要的就是在浏览器输入网址,给我相应的信息就好了,后端多么复杂,不关用户的事。

既然选择用哪一台服务器的工作不能留给客户端,那不妨还是把锅丢给服务端。自然而然,可以想到,把这几台服务器放在一个内网当中,再另外做一个面向用户的服务,专门来“暗地里指挥”用户请求去向哪一台服务器。这个服务一方面面向客户端拉客,另一方面安排服务器接客。
在这里插入图片描述至此,这就成了一个简单的负载均衡集群。中间的服务器就叫做

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值