概念:
随着互联网信息的爆炸性增长,负载均衡(load balance)
已经不再是一个很陌生的话题,顾名思义,负载均衡即是将负载分摊到不同的服务单元,既保证服务的可用性,又保证响应足够快
,给用户很好的体验。
实现效果:
浏览器输入地址:http://192.168.17.129/edu/a.html,负载均衡效果,平均分发到8080和8081端口中
准备工作:
1).准备两个 tomcat,一个 8080 端口,一个 8081 端口
2).准备测试页面,先新建一个a.html页面
3).然后访问测试
具体配置:
- 在nginx配置文件中,进行负载均衡的配置
- 重启nginx
- 测试
刷新页面,发现真实服务的端口会改变
分配策略
- 1、轮询(默认)
每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器 down 掉,能自动剔除。
- 2、weight
weight 代表权,重默认为 1,权重越高被分配的客户端越多
指定轮询几率,weight 和访问比率成正比。
- 3、ip_hash
每个请求按访问 ip 的 hash 结果分配,这样每个访客固定访问一个后端服务器,可以解决 session 的问题。例如:
- 4、fair(第三方)
按后端服务器的响应时间来分配请求,响应时间短的优先分配。