负载均衡与反向代理
负载均衡
负载均衡是由多台服务器以对称的方式组成一个服务器集合,每台服务器都具有等价的地位,都可以单独对位提供服务而无需其他服务器的辅助。通过某种负载分担技术,将外部的请求均匀的分配到服务器集群中的某个服务器上,而接收到请求的服务器独立提供服务相应。通过此种方式,可以实现快速相应,解决大量并发访问服务的问题,提高网络性能。
反向代理
反向代理是指以代理服务器来接收Internet请求,然后将请求发布到内网中的服务器,并从服务器上得到结果返回给请求链接的客户端。此时,在外部看来,该代理服务器就是一个服务器。
Nginx负载均衡的实现方式
Nginx就是通过负载均衡和反向代理来解决大并发量问题的。nginx提供了upstream模块来管理应用服务器集群,通过配置代理服务器来分发请求。Nginx请求分发有以下方式:
1、 根据域名来分发请求,此时通过配置不同的域名映射到不同的代理服务器上实现请求分发;
2、 在一个分配池中均衡的分发外部的请求。
Nginx高可用性的实现方式
Nginx通过代理服务器,来判断所分发的请求的接收服务器是否正常。如果接收请求的服务器出现故障,那么nginx会自动将请求转发到另一个服务器上,从而保证请求的可响应性。
Nginx负载均衡与反向代理的配置实例
负载均衡的配置
Nginx提供了upstream模块来管理服务器群集,可以通过建立多个upstream模块和多个代理服务器来实现请求分发,最大程度的解决大并发量问题。
upstream sea1_server_pool{ server 192.168.81.202:80 weight=10 max_fails=2 fail_timeout=30s; server 192.168.81.204:82 weight=5 max_fails=2 fail_timeout=30s; server 192.168.81.204:83 weight=6 max_fails=2 fail_timeout=30s; } |
上面的upstream配置了一个服务器池,名字为sea1_server_pool,里面有三台服务器提供服务,其中几个参数的含义如下:
l Weight:权重,该值越高,表示该服务器接收请求的几率越大;
l Max_fails:最大失败次数。表示该请求在该服务器上尝试的最大次数。如果失败超过该次数,则放弃继续向该服务器请求。
l Fail_imeout:访问超时时间。如果请求执行时间超过这个时间,那么就认为访问失败。
upstream sea2_server_pool{ server 192.168.81.203:80 weight=10 max_fails=2 fail_timeout=30s; server 192.168.81.205:82 weight=5 max_fails=2 fail_timeout=30s; server 192.168.81.206:83 weight=6 max_fails=2 fail_timeout=30s; } |
同样,上面的upstream定义了一个服务器池,名字为sea2_server_pool,里面包含三台服务器。
反向代理配置
即配置请求分发服务器(虚拟主机),其配置代码如下:
与后端服务器连接的超时时间 proxy_connect_timeout 600;
连接成功后等待后端服务器响应时间 proxy_read_timeout 600;
后台服务器数据传回时间,在该时间内必须传完所有的数据 proxy_send_timeout 600;
代理请求缓存区,保存用户的头信息以供nginx进行规则处理 proxy_buffer_size 16k;
告诉nginx保存带个用的几个buffer 最大用多大空间 proxy_buffers 4 32k;
如果系统很忙的时候可以申请更大的proxy_buffers,官方推荐proxy_buffers * 2 proxy_busy_buffers_size 64k;
proxy缓存临时文件的大小 proxy_temp_file_write_size 64k; |
以上配置的是代理服务器的一些参数,具体含义见备注。
server { listen 80; server_name local.ocs.sh.mor.cr;
#charset koi8-r;
#access_log logs/host.access.log main;
location / { #如果后端服务器返回502、504、自动超时等错误,自动将请求转发到upstream #负载均衡池中的另一台服务器,实现高可用性。 proxy_next_upstream http_502 http_504 error timeout invalid_header; proxy_pass http://sea1_server_pool; proxy_set_header Host $host; proxy_set_header X-Forwarded-For $remote_addr; }
#error_page 404 /404.html;
# redirect server error pages to the static page /50x.html # error_page 500 502 503 504 /50x.html; location = /50x.html { root html; } }
server { listen 80; server_name sea.ocs.sh.mor.cr;
#charset koi8-r;
#access_log logs/host.access.log main;
location /messages/ { #如果访问的是http://sea.ocs.sh.mor.cr/messages/***地址,反向代理 # sea2_server_pool这组服务器 proxy_next_upstream http_502 http_504 error timeout invalid_header; proxy_pass http://sea2_server_pool; proxy_set_header Host $host; proxy_set_header X-Forwarded-For $remote_addr; }
#访问除了/messages/之外的http://sea.ocs.sh.mor.cr/***地址,反向代理 #sea1_server_pool这组服务器 location / { #如果后端服务器返回502、504、自动超时等错误,自动将请求转发到upstream #负载均衡池中的另一台服务器,实现高可用性。 proxy_next_upstream http_502 http_504 error timeout invalid_header; proxy_pass http://sea1_server_pool; proxy_set_header Host $host; proxy_set_header X-Forwarded-For $remote_addr; }
#error_page 404 /404.html;
# redirect server error pages to the static page /50x.html # error_page 500 502 503 504 /50x.html; location = /50x.html { root html; } } |
至此,整个nginx的负载均衡和反向代理就已经完全配置好了,下面给出一个完整的代码:
http { passenger_root /opt/soft/Nginx/passenger-2.2.14; passenger_ruby /usr/local/ruby/bin/ruby; passenger_default_user oracle;
include mime.types; default_type application/octet-stream;
#log_format main '$remote_addr - $remote_user [$time_local] "$request" ' # '$status $body_bytes_sent "$http_referer" ' # '"$http_user_agent" "$http_x_forwarded_for"';
#access_log logs/access.log main;
sendfile on; #tcp_nopush on;
#keepalive_timeout 0; keepalive_timeout 65;
#gzip on;
proxy_connect_timeout 600;
proxy_read_timeout 600;
proxy_send_timeout 600;
proxy_buffer_size 16k;
proxy_buffers 4 32k;
proxy_busy_buffers_size 64k;
proxy_temp_file_write_size 64k;
upstream sea1_server_pool{ server 192.168.81.202:80 weight=10 max_fails=2 fail_timeout=30s; server 192.168.81.204:82 weight=5 max_fails=2 fail_timeout=30s; server 192.168.81.204:83 weight=6 max_fails=2 fail_timeout=30s; ip_hash; }
server { listen 80; server_name sea.ocs.sh.mor.cr;
#charset koi8-r;
#access_log logs/host.access.log main;
location / { proxy_next_upstream http_502 http_504 error timeout invalid_header; proxy_pass http://sea1_server_pool; proxy_set_header Host $host; #设置请求头 proxy_set_header X-Forwarded-For $remote_addr; #保存用户的真实IP }
#error_page 404 /404.html;
# redirect server error pages to the static page /50x.html # error_page 500 502 503 504 /50x.html; location = /50x.html { root html; }
# proxy the PHP scripts to Apache listening on 127.0.0.1:80 # #location ~ \.php$ { # proxy_pass http://127.0.0.1; #}
# pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000 # #location ~ \.php$ { # root html; # fastcgi_pass 127.0.0.1:9000; # fastcgi_index index.php; # fastcgi_param SCRIPT_FILENAME /scripts$fastcgi_script_name; # include fastcgi_params; #}
# deny access to .htaccess files, if Apache's document root # concurs with nginx's one # #location ~ /\.ht { # deny all; #} }
server { listen 81; server_name easyway; root /project/ocs/sea/public; passenger_enabled on; rails_env production; }
server { listen 82; server_name easyway; root /project/ocs/sea/public; passenger_enabled on; rails_env production; }
server { listen 83; server_name easyway; root /project/ocs/sea/public; passenger_enabled on; rails_env production; }
# another virtual host using mix of IP-, name-, and port-based configuration # #server { # listen 8000; # listen somename:8080; # server_name somename alias another.alias;
# location / { # root html; # index index.html index.htm; # } #}
# HTTPS server # #server { # listen 443; # server_name localhost;
# ssl on; # ssl_certificate cert.pem; # ssl_certificate_key cert.key;
# ssl_session_timeout 5m;
# ssl_protocols SSLv2 SSLv3 TLSv1; # ssl_ciphers ALL:!ADH:!EXPORT56:RC4+RSA:+HIGH:+MEDIUM:+LOW:+SSLv2:+EXP; # ssl_prefer_server_ciphers on;
# location / { # root html; # index index.html index.htm; # } #}
} |
Nginx重要说明
l Upstream中的server既可以是ip,也可以是域名
l 使用反向代理之后,后端服务器(以rails为例)不能直接通过request.remote_ip来获取用户的真实ip了,这个时候获取的是反向代理服务器的ip。此时,后端服务器就需要通过request.env[“HTTP_X_FORWARDED_FOR”]获取到用户的真实ip。
l 使用负载均衡后,关于session的共享是个严重的问题,如何让session共享,请参考《使用memcache实现单点登录.doc》文档。