一、什么是负载均衡
随着互联网的发展,业务流量越来越大并且业务逻辑也越来越复杂,使用单台机器可能会造成性能问题和单点故障,因此需要多台机器来进行性能的水平扩展以及避免单点故障。为了将不同的用户的流量分发到不同的服务器上面,保持每台机器处理请求的数量得以均衡,因此需要负载均衡来帮助我们完成这一过程。
将原先请求集中到单个服务器上的情况改为将请求分发到多个服务器上,将负载分发到不同的服务器,这也就是我们所说的负载均衡。
二、使用nginx实现负载均衡
案例:
在Windows浏览器的地址栏输入地址 192.168.1.103/edu/a.html,实现负载均衡效果,平均将请求分配给 8080 和 8081 端口处理。(192.168.1.103 为本机 linux 的 ip 地址)
(1)准备工作
① 在 linux 系统准备两台 tomcat 服务器,一台端口 8080,一台端口8081
② 在两台 tomcat 里面 webapps 目录中,创建名称是 edu 文件夹,在 edu 文件夹中创建
页面 a.html(在html页面中写明当前服务器的端口号8080/8081),用于测试
③ 关闭 linux 系统的防火墙或者开放需要被访问的端口
③ 关闭 linux 系统的防火墙或者开放需要被访问的端口
(2)具体配置
① 修改 linux 系统中nginx的配置文件 nginx.conf,默认在 /usr/local/nginx/conf 目录下。
对配置文件的server块进行如下修改,并添加upstream的对应内容:
② 保存修改后启动 nginx ,在Windows浏览器中输入 192.168.1.103/edu/a.html ,页面跳转成功,并且每次刷新发送新请求能实现负载均衡,轮流由8080端口和8081端口的tomcat处理。
(3)nginx 负载均衡分配服务器的策略
① 轮询(默认策略)
① 轮询(默认策略)
每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器宕机,会被nginx自动剔除。
② weight
weight 代表权重默认为 1,权重越高被分配的客户端越多。
③ ip_hash
每个请求按访问 ip 的 hash 结果分配,这样每个访客固定访问一个后端服务器。
④ fair
按照后端服务器的响应时间来分配请求,响应时间短的优先分配。