nginx负载均衡

1、负载均衡概念
增加服务器的数量,然后将请求分发到各个服务器上,将原先请求集中到单个服务器上的情况改为将请求分发到多个服务器上,将负载分发到不同的服务器,也就是我们所说的负载均衡
在这里插入图片描述
2、实现效果
浏览器地址栏中输入http://182.92.xxx.153/mxd/a.html,负载均衡效果,平均到8080和8081端口中
3、配置负载均衡(轮询)
①准备两个tomcat一个端口为8080,另一个为8081,在webapps下的访问资源都是/mxd/a.html,同时启动这两个tomcat正常访问。
②修改nginx配置文件nginx.conf,如下,修改完后,保存,重新启动nginx。
在这里插入图片描述
加粗样式
③到浏览器地址栏中输入:http://182.92.xxx.153/mxd/a.html,不断刷新请求该地址,可以看到,请求到的资源来自两台服务器,一个是8080,另一个是8081,而且概率是一样的。
在这里插入图片描述
在这里插入图片描述
以上这种负载均衡类型为“轮询”,关于负载均衡的各种类型下面有介绍。
4、负载均衡几种类型
随着互联网信息的爆炸性增长,负载均衡(load balance) 已经不再是一个很陌生的话题,顾名思义,负载均衡即是将负载分摊到不同的服务单元,既保证服务的可用性,又保证响应足够快,给用户很好的体验。快速增长的访问量和数据流量催生了各式各样的负载均衡产品,很多专业的负载均衡硬件提供了很好的功能,但却价格不菲,这使得负载均衡软件大受欢迎,nginx就是其中的一个,在linux下有Nginx、LVS、Haproxy 等等服务可以提供负载均衡服务,而且Nginx提供了几种分配方式(策略):
①、轮询(默认)。
每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。

②、weight
weight代表权,重默认为1,权重越高被分配的客户端越多。
指定轮询几率,weight 和访问比率成正比,用于后端服务器性能不均的情况。例如:

upstream server_pool{
    server 192.82.xxx.153 weight=10;
    server 192.82.xxx.153 weight=10;
}

③、ip_hash
每个请求按访问IP的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。例如:

upstream server_pool{
    ip_hash
    server 192.82.xxx.153:8080;
    server 192.82.xxx.153:8081;
}

4、fair(第三方)
按后端服务器的响应时间来分配请求,响应时间短的优先分配。例如:

upstream server_pool{
    server 192.82.xxx.153:8080;
    server 192.82.xxx.153:8081;
fair
}
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值