四、Nginx负载均衡实例

一、负载均衡概念

单个服务器解决不了,我们增加服务器的数量,然后将请求分发到各个服务器上,将原先请求集中到单个服务器上的情况改为将请求分发到多个服务器上,将负载分发到不同的服务器,也就是我们所说的负载均衡
请添加图片描述

1、实现效果

(1)浏览器地址栏输入http://192.168.1.173/edu/a.html,让请求平均分发到8080和8081端口中。

2、准备工作

(1)准备两台tomcat服务器,一台8080,一台8081
在/usr/src文件夹下,创建tomcat8080、tomcat8081两个文件夹,将apache-tomcat-7.0.70包分别解压到其下。然后将tomcat8081的server.xml将端口号改为8081。具体怎么改看–》
三、nginx反向代理
请添加图片描述

(2)在两台tomcat里面webapps目录中,创建名称为edu的文件夹,文件夹中创建测试页面a.html,用于测试显示端口号。

3.在nginx的配置文件中进行负载均衡的配置

在这里插入图片描述

4.重启nginx,测试效果

谷歌浏览器开启无痕窗口,不然负载均衡效果出不来。
在这里插入图片描述
测试
在这里插入图片描述
刷新一下
请添加图片描述

Nginx的分配策略

1.轮询(默认)

每个 请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器 down 掉,能自动剔除。

2.weight(权重)

指定轮询几率,weight 和访问比率成正比,用于后端服务器性能不均的情况。

upstream server_pool{
server 192.168.5.21 weight=5;
server 192.168.5.22 weight=10; 
}

3.ip_hash

每个请求按访问 ip 的 hash 结果分配,这样每个访客固定访问一个后端服务器,可以解决 session 共享的问题。

upstream server_pool{
	ip_hash;
	server 192.168.5.21:80;
	server 192.168.5.22:80; 
}

4.fair(第三方)

按后端服务器的响应时间来分配请求,响应时间短的优先分配。

upstream server_pool{
	server 192.168.5.21:80; 
	server 192.168.5.22:80;
	fair; 
}
  • 2
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值