Nginx反向代理详解

一、简介

1.反向代理产生的背景

  在计算机世界里,由于单个服务器的处理客户端(用户)请求能力有一个极 限,当用户的接入请求蜂拥而入时,会造成服务器忙不过来的局面,可以使用多个 服务器来共同分担成千上万的用户请求,这些服务器提供相同的服务,对于用户来 说,根本感觉不到任何差别。

2.反向代理服务的实现

  需要有一个负载均衡设备(即反向代理服务器)来分发用户请求,将用户请 求分发到空闲的服务器上。服务器返回自己的服务到负载均衡设备。负载均衡设备 将服务器的服务返回用户。

二、正/反向代理区别

1.正向代理

  正向代理的过程隐藏了真实的请求客户端,服务器不知道真实的客户端是谁, 客户端请求的服务都被代理服务器代替请求。我们常说的代理也就是正向代理,正 向代理代理的是请求方,也就是客户端;比如我们要访问youtube,可是不能访问, 只能先安装个FQ软件间接访问,通过软件才能访问,FQ软件就叫作正向代理。

2.反向代理

  反向代理的过程隐藏了真实的服务器,客户不知道真正提供服务的人是谁, 客户端请求的服务都被代理服务器处理。反向代理代理的是响应方,也就是服务端; 我们请求www.baidu.com时这www.baidu.com就是反向代理服务器,真实提供服务 的服务器有很多台,反向代理服务器会把我们的请求分/转发到真实提供服务的各 台服务器。Nginx就是性能非常好的反向代理服务器,用来做负载均衡。

3.图示

在这里插入图片描述

三、HTTP Server和Application Server的区别和联系

Apache/nginx是静态服务器(HTTP Server):

Nginx优点:
 负载均衡、反向代理、处理静态文件优势。nginx处理静态请求的速度高于apache;
Apache优点:
 相对于Tomcat服务器来说处理静态文件是它的优势,速度快。Apache是静态解析,适合静态HTML、图片等。

HTTP Server关心的是HTTP协议层面的传输和访问控制,所以在Apache/Nginx上你可以看到代理、负载均衡等功能,HTTP Server(Nginx/Apache)常用做静态内容服务和代理服务器,将外来请求转发给后面的应用服务(tomcat,jboss,jetty等)。

应用服务器(tomcat/jboss/jetty)是动态服务器(Application Server),是一个应用执行的容器。它首先需要支持开发语言的 Runtime(对于 Tomcat 来说,就是 Java,若是Ruby/Python 等其他语言开发的应用也无法直接运行在 Tomcat 上)。
但是事无绝对,为了方便,应用服务器(如tomcat)往往也会集成 HTTP Server 的功能,nginx也可以通过模块开发来提供应用功能,只是不如专业的 HTTP Server 那么强大,所以应用服务器往往是运行在 HTTP Server 的背后,执行应用,将动态的内容转化为静态的内容之后,通过 HTTP Server 返回到客户端。

常用开源集群软件有:lvs,keepalived,haproxy,nginx,apache,heartbeat
常用商业集群硬件有:F5, Netscaler,Radware,A10等

四、代理proxy配置

1.了解代理配置

ngx_http_proxy_module      //代理模块
Syntax: proxy_pass URL;      //代理的后端服务器URL
Default: —
Context: location, if in location, limit_except
Syntax: proxy_set_header field value;     //头信息
Default: proxy_set_header Host $proxy_host;   //设置真实客户端地址
proxy_set_header Connection close;
Context: http, server, location
Syntax: proxy_connect_timeout time;    //链接超时
Default: proxy_connect_timeout 60s;
Context: http, server, location
Syntax: proxy_read_timeout time;
Default: proxy_read_timeout 60s;
Context: http, server, location
Syntax: proxy_send_timeout time;     //nginx进程向fastcgi进程发送request的整个过程的超时时间
Default: proxy_send_timeout 60s;
Context: http, server, location

2.配置实例

1)环境

两台已下载好nginx服务器:
10.8.161.112 网站服务器
10.8.161.34 代理服务器

2)网站服务器
[root@cheng ~]# nginx -v
nginx version: nginx/1.16.1
[root@cheng ~]# cat /home/www/html/index.html 
test
[root@cheng ~]# cat /etc/nginx/conf.d/aa.conf
server {
        listen 80;
        server_name localhost;
        location / {
               root /home/www/html;
               index index.html index.hml;
        }
}
3)代理服务器
[root@meng ~]# vim /etc/nginx/conf.d/default.conf
server {
    listen       80;
    server_name  localhost;
    location / {
    proxy_pass http://10.8.161.112:80;		//真实服务器的地址,可以是ip也可以是域名和url地址
    proxy_set_header Host $http_host;		//重新定义或者添加发往后端服务器的请求头
    proxy_set_header X-Real-IP  $remote_addr;	//启用客户端真实地址(否则访问代理地址)
    proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;		//记录代理地址
    proxy_connect_timeout 30;				//后端服务器连接的超时时间和发起三次握手等候响应超时时间
    proxy_send_timeout 60;		//后端服务器数据回传时间,就是在规定时间之内后端服务器必须传完所有的数据
    proxy_read_timeout 60;		//默认60s, 如果连续的60s内没有收到1个字节, 连接关闭。像长连接
    }
}
[root@meng ~]# nginx -s reload
4)测试访问

PC端访问http://10.8.161.34/,会有新日志内容在112服务器的日志文件。

五、负载均衡

1.作用

  如果你的nginx服务器给2台web服务器做代理,负载均衡算法采用轮询,那么当你的一台机器web程序关闭造成web不能访问,那么nginx服务器分发请求还是会给这台不能访问的web服务器,如果这里的响应连接时间过长,就会导致客户端的页面一直在等待响应,对用户来说体验就大大折扣,这时可以配置负载均衡。
  如果负载均衡中其中web2发生这样的情况,nginx首先会去web1请求,但是nginx在配置不当的情况下会继续分发请求到web2,然后等待web2响应,直到我们的响应时间超时,才会把请求重新分发给web1,这里的响应时间如果过长,用户等待的时间就会越长。

2.Upstream配置

Upstream配置是写一组被代理的服务器地址,然后配置负载均衡的算法。这里的被代理服务器地址有2种写法。

upstream youngfitapp { 
      server 10.8.161.34:8080;
      server 10.8.161.112:8080;
}
server {
        listen 80;
        server_name localhost;
        location / {         
           proxy_pass  http://youngfitapp;
        }
}

3.算法

Upstream支持四种负载均衡调度算法:

1)轮询(默认)

每个请求按时间顺序逐一分配到不同的后端服务器;

2)ip_hash

每个请求按访问IP的hash结果分配,同一个IP客户端固定访问一 个后端服务器。可以保证来自同一ip的请求被打到固定的机器上,可以解决session 问题。

3)url_hash

按访问url的hash结果来分配请求,使每个url定向到同一个后端 服务器。后台服务器为缓存的时候效率。

4)fair

这是比上面两个更加智能的负载均衡算法。此种算法可以依据页面大 小和加载时间长短智能地进行负载均衡,也就是根据后端服务器的响应时间来分配 请求,响应时间短的优先分配。Nginx本身是不支持 fair的,如果需要使用这种调 度算法,必须下载Nginx的 upstream_fair模块。

4.示例

1)热备

如果你有2台服务器,当一台服务器发生事故时,才启用第二台服务器给提供服务。服务器处理请求的顺序:AAAAAA,突然A出故障了,然后BBBBBBBBBBBBBB…

upstream myweb { 
      		server 10.8.161.34:8080; 
      		server 10.8.161.112:8080 backup;  #热备     
		}
2)轮询

Nginx默认就是轮询其权重都默认为1,服务器处理请求的顺序:ABABABABAB…

upstream myweb {
     		 server 10.8.161.34:8080; 
     		 server 10.8.161.112:8080;      
		}
3)加权轮询

根据配置的权重的大小而分发给不同服务器不同数量的请求。如果不设置,则默认为1。下面服务器的请求顺序为:ABBABBABBABBABB…

upstream myweb { 
     		 server 10.8.161.34:8080 weight=1;
     		 server 10.8.161.112:8080 weight=2;
		}
4)ip_hash

Nginx会让相同的客户端ip请求相同的服务器。

upstream myweb {
    		  ip_hash;
     		 server 10.8.161.34:8080; 
     		 server 10.8.161.112:8080;   
		}

5.nginx负载均衡配置状态参数

down,表示当前的server暂时不参与负载均衡。
backup,预留的备份机器。当其他所有的非backup机器出现故障或者忙的时候,才会请求backup机器,因此这台机器的压力最轻。
max_fails,允许请求失败的次数,默认为1。当超过最大次数时,返回错误。
fail_timeout,在经历了max_fails次失败后,暂停服务的时间单位秒。max_fails可以和fail_timeout一起使用。

upstream myweb { 
      		server 10.8.161.34:8080 weight=2 max_fails=2 fail_timeout=2;
      		server 10.8.161.112:8080 weight=1 max_fails=2 fail_timeout=1;   
		 }

6.7层和4层协议

1)7层协议

OSI(Open System Interconnection)是一个开放性的通行系统互连参考模型, 他是一个定义的非常好的协议规范,共包含七层协议。

2)4层协议

TCP/IP协议 之所以说TCP/IP是一个协议族,是因为TCP/IP协议包括TCP、IP、UDP、ICMP、RIP、TELNETFTP、SMTP、ARP、TFTP等许多协议,这些协议一起称为TCP/IP协议。
从协议分层模型方面来讲,TCP/IP由四个层次组成:网络接口层、网络层、传输层、应用层。

3)实例
1>简介

在nginx做负载均衡,负载多个服务,部分服务是需要7层的,部分服务 是需要4层的,也就是说7层和4层配置在同一个配置文件中。

2>环境

三台机器,一台本机,两台yum安装nginx
10.8.161.48 本机
10.8.161.34 后端服务器a
10.8.161.112 后端服务器b

3>代理服务器配置
[root@cheng ~]# vim /etc/nginx/nginx.conf
worker_processes  4;
worker_rlimit_nofile 102400;
events {
    worker_connections  1024;
}
http {
    include       mime.types;
    default_type  application/octet-stream;
log_format main '$remote_addr - $remote_user [$time_local] "$request" '
                      '$status $body_bytes_sent "$http_referer" '
                      '"$http_user_agent" "$http_x_forwarded_for"';
    sendfile        on;
    keepalive_timeout  65;
    gzip  on;
    upstream testweb {
	ip_hash;
	server 10.8.161.34:80 weight=2 max_fails=2 fail_timeout=2s;
	server 10.8.161.112:80 weight=2 max_fails=2 fail_timeout=2s;
    }
    server {
        listen       80;
        server_name  www.test.com;
        charset utf-8;
    location / {
	      proxy_pass http://testweb;
         proxy_set_header Host $host:$server_port;
         proxy_set_header X-Real-IP $remote_addr;
         proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        }
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        	}
	}
	}
}
本机访问:http://www.test.com/
4>后端服务器配置
[root@meng ~]# cd /etc/nginx/conf.d/
[root@meng conf.d]# cp default.conf test.conf
[root@meng conf.d]# cat test.conf
server {
    listen       80;
    server_name  localhost;
    location / {
         root   /usr/share/nginx/html;
         index  index.html index.htm;
    }
}
[root@meng ~]# nginx -s reload
5>4层tcp负载

  nginx在1.9.0的时候,增加了一个 stream 模块,用来实现四层协议(网络层和传输层)的转发、代理、负载均衡等。stream模块的用法跟http的用法 类似,允许我们配置一组TCP或者UDP等协议的监听,然后通过proxy_pass 来转发我们的请求,通过upstream添加多个后端服务,实现负载均衡。

stream {
			upstream myweb {
                hash $remote_addr consistent;
                server 10.8.161.112:8080;
                server 10.8.161.47:8080;
        }
        server {
            listen 80;
            proxy_connect_timeout 10s;
            proxy_timeout 30s;
            proxy_pass myweb;
        }
}

六、会话保持

nginx会话保持主要有三种:ip_hash,sticky_cookie_insert,jvm_route。

1.ip_hash

ip_hash使用源地址哈希算法,将同一客户端的请求总是发往同一个后端服务器,除非该服务器不可用。

upstream backend {
    ip_hash;
    server backend1.example.com;
    server backend2.example.com;
    server backend3.example.com down;
}

  ip_hash简单易用,但有部分缺陷:当后端服务器宕机后,session会话丢失;同一客户端会被转发到同一个后端服务器,可能导致负载失衡。

2.sticky_cookie_insert

  使用sticky_cookie_insert启用会话亲缘关系,这会导致来自同一客户端的请求 被传递到一组服务器的同一台服务器。与ip_hash不同之处在于,它不是基于IP来判断客户端的,而是基于cookie来判断。因此可以避免上述ip_hash中来自同一客户端导致负载失衡的情况。(需要引入第三方模块才能实现)

upstream backend {
    server backend1.example.com;
    server backend2.example.com;
    sticky_cookie_insert srv_id expires=1h domain=3evip.cn path=/;
}

server {
    listen 80;
    server_name 3evip.cn;
    location / {
		proxy_pass http://backend;
    }
}
//expires:设置浏览器中保持cookie的时间,domain:定义cookie的域,path:为cookie定义路径

3.jvm_route

原理:
1)一开始请求过来,没有带session信息,jvm_route就根据轮询(round robin) 的方法,发到一台tomcat上面。
2)tomcat添加上session 信息,并返回给客户。
3)用户再此请求,jvm_route看到session中有后端服务器的名称,它就把请求转 到对应的服务器上。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值