使用nginx实现负载均衡

本文介绍了负载均衡的概念及其在应对高流量和复杂业务场景中的必要性。通过一个实际案例,详细讲解了如何利用Nginx在Linux环境中配置负载均衡,将请求分发到两个不同端口的Tomcat服务器上,确保请求的均匀分布。同时,还列举了Nginx支持的几种负载均衡策略,如轮询、权重分配和IP哈希等。
摘要由CSDN通过智能技术生成

一、什么是负载均衡

随着互联网的发展,业务流量越来越大并且业务逻辑也越来越复杂,使用单台机器可能会造成性能问题和单点故障,因此需要多台机器来进行性能的水平扩展以及避免单点故障。为了将不同的用户的流量分发到不同的服务器上面,保持每台机器处理请求的数量得以均衡,因此需要负载均衡来帮助我们完成这一过程。

将原先请求集中到单个服务器上的情况改为将请求分发到多个服务器上,将负载分发到不同的服务器,这也就是我们所说的负载均衡。
 


 

二、使用nginx实现负载均衡

案例:

在Windows浏览器的地址栏输入地址 192.168.1.103/edu/a.html,实现负载均衡效果,平均将请求分配给 8080 和 8081 端口处理。(192.168.1.103 为本机 linux 的 ip 地址)
(1)准备工作
  ① 在 linux 系统准备两台 tomcat 服务器,一台端口 8080,一台端口8081
  ② 在两台 tomcat 里面 webapps 目录中,创建名称是 edu 文件夹,在 edu 文件夹中创建
  页面 a.html(在html页面中写明当前服务器的端口号8080/8081),用于测试
  ③ 
关闭 linux 系统的防火墙或者开放需要被访问的端口

(2)具体配置
  ① 修改 linux 系统中nginx的配置文件 nginx.conf,默认在 /usr/local/nginx/conf 目录下。
  对配置文件的server块进行如下修改,并添加upstream的对应内容:

 
② 保存修改后启动 nginx ,在Windows浏览器中输入 192.168.1.103/edu/a.html ,页面跳转成功,并且每次刷新发送新请求能实现负载均衡,轮流由8080端口和8081端口的tomcat处理。

(3)nginx 负载均衡分配服务器的策略
① 轮询(默认策略)
 
每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器宕机,会被nginx自动剔除。
 
② weight
weight 代表权重默认为 1,权重越高被分配的客户端越多。
 
③ ip_hash
每个请求按访问 ip 的 hash 结果分配,这样每个访客固定访问一个后端服务器。
 
④ fair
按照后端服务器的响应时间来分配请求,响应时间短的优先分配。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值