Nginx+Tomcat搭建高性能负载均衡集群之枯藤老树


    天净沙·秋思

--枯藤老树昏鸦小桥流水人家古道西风瘦马。夕阳西下,断肠人      在天涯。

一、     工具

  nginx-1.8.0

  apache-tomcat-6.0.33


二、    目标


  实现高性能负载均衡的Tomcat集群:


  

 

三、    步骤


  1、首先下载Nginx,要下载稳定版:


  


  2、然后解压两个Tomcat,分别命名为apache-tomcat-6.0.33-1和apache-tomcat-6.0.33-2:


  


  3、然后修改这两个Tomcat的启动端口,分别为18080和28080,下面以修改第一台Tomcat为例,打开Tomcat的conf目录下的server.xml:


  


  共需修改3处端口:


  


  当然第二台Tomcat也一样,如下图:


  


  4、然后启动两个Tomcat,并访问,看是否正常:


  

  


  5、然后修改上面两个Tomcat的默认页面(为了区分下面到底访问的是那一台Tomcat,随便改一下即可):


  


  改完以后,进行访问,如下图:


  

  


  6、OK,现在我们可以开始配置Nginx来实现负载均衡了,其实非常的简单,只需要配置好Nginx的配置文件即可:


  


  配置如下(这里只进行了简单的配置,实际生产环境可以进行更详细完善配置):

[html]  view plain  copy
  1. worker_processes  1;#工作进程的个数,一般与计算机的cpu核数一致  
  2.   
  3. events {  
  4.     worker_connections  1024;#单个进程最大连接数(最大连接数=连接数*进程数)  
  5. }  
  6.   
  7. http {  
  8.     include       mime.types; #文件扩展名与文件类型映射表  
  9.     default_type  application/octet-stream;#默认文件类型  
  10.   
  11.     sendfile        on;#开启高效文件传输模式,sendfile指令指定nginx是否调用sendfile函数来输出文件,对于普通应用设为 on,如果用来进行下载等应用磁盘IO重负载应用,可设置为off,以平衡磁盘与网络I/O处理速度,降低系统的负载。注意:如果图片显示不正常把这个改成off。  
  12.       
  13.     keepalive_timeout  65; #长连接超时时间,单位是秒  
  14.   
  15.     gzip  on;#启用Gizp压缩  
  16.       
  17.     #服务器的集群  
  18.     upstream  netitcast.com {  #服务器集群名字   
  19.         server    127.0.0.1:18080  weight=1;#服务器配置   weight是权重的意思,权重越大,分配的概率越大。  
  20.         server    127.0.0.1:28080  weight=2;  
  21.     }     
  22.   
  23.     #当前的Nginx的配置  
  24.     server {  
  25.         listen       80;#监听80端口,可以改成其他端口  
  26.         server_name  localhost;##############   当前服务的域名  
  27.   
  28.     location / {  
  29.             proxy_pass http://netitcast.com;  
  30.             proxy_redirect default;  
  31.         }  
  32.           
  33.   
  34.         error_page   500 502 503 504  /50x.html;  
  35.         location = /50x.html {  
  36.             root   html;  
  37.         }  
  38.     }  
  39. }  

  核心配置如下:


  


  到此配置完成,下面开始演示负载均衡。


  7、首先,我们启动Nginx:


  


  8、然后我们即可输入:localhost/index.jsp查看运行状况了


  第一次访问,发现访问的是Tomcat2上的程序:


  


  然后刷新,访问的还是Tomcat2上的程序:


  


  再刷新,发现变为了Tomcat1上的程序:


  


  再刷新,发现又变为了Tomcat2上的程序:


  


  到此,我们利用Nginx已经实现了负载均衡的Tomcat集群。我们不断的刷新,发现访问Tomcat2的概率大概是Tomcat1的2倍,这是因为我们在Nginx中配置的两台Tomcat的权重起的作用,如下图:


  



四、   总结

nginx的upstream目前支持4种方式的分配

1、轮询(默认)

每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。

2、weight
指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的情况。
例如:
upstream bakend {
server 192.168.0.14 weight=10;
server 192.168.0.15 weight=10;
}

2、ip_hash
每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。
例如:
upstream bakend {
ip_hash;
server 192.168.0.14:88;
server 192.168.0.15:80;
}

3、fair(第三方)
按后端服务器的响应时间来分配请求,响应时间短的优先分配。
upstream backend {
server server1;
server server2;
fair;
}

4、url_hash(第三方)

按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存时比较有效。

例:在upstream中加入hash语句,server语句中不能写入weight等其他的参数,hash_method是使用的hash算法

upstream backend {
server squid1:3128;
server squid2:3128;
hash $request_uri;
hash_method crc32;
}

tips:

upstream bakend{#定义负载均衡设备的Ip及设备状态}{
ip_hash;
server 127.0.0.1:9090 down;
server 127.0.0.1:8080 weight=2;
server 127.0.0.1:6060;
server 127.0.0.1:7070 backup;
}
在需要使用负载均衡的server中增加
proxy_pass http://bakend/;

每个设备的状态设置为:
1.down表示单前的server暂时不参与负载
2.weight为weight越大,负载的权重就越大。
3.max_fails:允许请求失败的次数默认为1.当超过最大次数时,返回proxy_next_upstream模块定义的错误
4.fail_timeout:max_fails次失败后,暂停的时间。
5.backup: 其它所有的非backup机器down或者忙的时候,请求backup机器。所以这台机器压力会最轻。

nginx支持同时设置多组的负载均衡,用来给不用的server来使用。

client_body_in_file_only设置为On 可以讲client post过来的数据记录到文件中用来做debug
client_body_temp_path设置记录文件的目录 可以设置最多3层目录

location对URL进行匹配.可以进行重定向或者进行新的代理 负载均衡


感谢博主:写的简介明了,ranhttp://blog.csdn.net/wang379275614/article/details/47778201

YI

  nginx-1.8.0

  apache-tomcat-6.0.33


二、    目标


  实现高性能负载均衡的Tomcat集群:


  

 

三、    步骤


  1、首先下载Nginx,要下载稳定版:


  


  2、然后解压两个Tomcat,分别命名为apache-tomcat-6.0.33-1和apache-tomcat-6.0.33-2:


  


  3、然后修改这两个Tomcat的启动端口,分别为18080和28080,下面以修改第一台Tomcat为例,打开Tomcat的conf目录下的server.xml:


  


  共需修改3处端口:


  


  当然第二台Tomcat也一样,如下图:


  


  4、然后启动两个Tomcat,并访问,看是否正常:


  

  


  5、然后修改上面两个Tomcat的默认页面(为了区分下面到底访问的是那一台Tomcat,随便改一下即可):


  


  改完以后,进行访问,如下图:


  

  


  6、OK,现在我们可以开始配置Nginx来实现负载均衡了,其实非常的简单,只需要配置好Nginx的配置文件即可:


  


  配置如下(这里只进行了简单的配置,实际生产环境可以进行更详细完善配置):

[html]  view plain  copy
  1. worker_processes  1;#工作进程的个数,一般与计算机的cpu核数一致  
  2.   
  3. events {  
  4.     worker_connections  1024;#单个进程最大连接数(最大连接数=连接数*进程数)  
  5. }  
  6.   
  7. http {  
  8.     include       mime.types; #文件扩展名与文件类型映射表  
  9.     default_type  application/octet-stream;#默认文件类型  
  10.   
  11.     sendfile        on;#开启高效文件传输模式,sendfile指令指定nginx是否调用sendfile函数来输出文件,对于普通应用设为 on,如果用来进行下载等应用磁盘IO重负载应用,可设置为off,以平衡磁盘与网络I/O处理速度,降低系统的负载。注意:如果图片显示不正常把这个改成off。  
  12.       
  13.     keepalive_timeout  65; #长连接超时时间,单位是秒  
  14.   
  15.     gzip  on;#启用Gizp压缩  
  16.       
  17.     #服务器的集群  
  18.     upstream  netitcast.com {  #服务器集群名字   
  19.         server    127.0.0.1:18080  weight=1;#服务器配置   weight是权重的意思,权重越大,分配的概率越大。  
  20.         server    127.0.0.1:28080  weight=2;  
  21.     }     
  22.   
  23.     #当前的Nginx的配置  
  24.     server {  
  25.         listen       80;#监听80端口,可以改成其他端口  
  26.         server_name  localhost;##############   当前服务的域名  
  27.   
  28.     location / {  
  29.             proxy_pass http://netitcast.com;  
  30.             proxy_redirect default;  
  31.         }  
  32.           
  33.   
  34.         error_page   500 502 503 504  /50x.html;  
  35.         location = /50x.html {  
  36.             root   html;  
  37.         }  
  38.     }  
  39. }  

  核心配置如下:


  


  到此配置完成,下面开始演示负载均衡。


  7、首先,我们启动Nginx:


  


  8、然后我们即可输入:localhost/index.jsp查看运行状况了


  第一次访问,发现访问的是Tomcat2上的程序:


  


  然后刷新,访问的还是Tomcat2上的程序:


  


  再刷新,发现变为了Tomcat1上的程序:


  


  再刷新,发现又变为了Tomcat2上的程序:


  


  到此,我们利用Nginx已经实现了负载均衡的Tomcat集群。我们不断的刷新,发现访问Tomcat2的概率大概是Tomcat1的2倍,这是因为我们在Nginx中配置的两台Tomcat的权重起的作用,如下图:


  



四、   总结

nginx的upstream目前支持4种方式的分配

1、轮询(默认)

每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。

2、weight
指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的情况。
例如:
upstream bakend {
server 192.168.0.14 weight=10;
server 192.168.0.15 weight=10;
}

2、ip_hash
每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。
例如:
upstream bakend {
ip_hash;
server 192.168.0.14:88;
server 192.168.0.15:80;
}

3、fair(第三方)
按后端服务器的响应时间来分配请求,响应时间短的优先分配。
upstream backend {
server server1;
server server2;
fair;
}

4、url_hash(第三方)

按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存时比较有效。

例:在upstream中加入hash语句,server语句中不能写入weight等其他的参数,hash_method是使用的hash算法

upstream backend {
server squid1:3128;
server squid2:3128;
hash $request_uri;
hash_method crc32;
}

tips:

upstream bakend{#定义负载均衡设备的Ip及设备状态}{
ip_hash;
server 127.0.0.1:9090 down;
server 127.0.0.1:8080 weight=2;
server 127.0.0.1:6060;
server 127.0.0.1:7070 backup;
}
在需要使用负载均衡的server中增加
proxy_pass http://bakend/;

每个设备的状态设置为:
1.down表示单前的server暂时不参与负载
2.weight为weight越大,负载的权重就越大。
3.max_fails:允许请求失败的次数默认为1.当超过最大次数时,返回proxy_next_upstream模块定义的错误
4.fail_timeout:max_fails次失败后,暂停的时间。
5.backup: 其它所有的非backup机器down或者忙的时候,请求backup机器。所以这台机器压力会最轻。

nginx支持同时设置多组的负载均衡,用来给不用的server来使用。

client_body_in_file_only设置为On 可以讲client post过来的数据记录到文件中用来做debug
client_body_temp_path设置记录文件的目录 可以设置最多3层目录

location对URL进行匹配.可以进行重定向或者进行新的代理 负载均衡


感谢博主:写的简介明了,ranhttp://blog.csdn.net/wang379275614/article/details/47778201

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值