06-分布式中间件-Nginx的使用

目录

一、Nginx的基础知识

1.1、静态资源服务器

1.2、根据域名访问不同路径

 1.3、反向代理

1.4 location匹配模式及顺序

1.5 动静分离

1.6 负载均衡(Nginx的转发)

轮询:

权重:

ip绑定:

二、nginx对接口请求进行限流,并发500/s

2.控制速率

2.1正常限流

2.2 处理突发流量

2.3 限制连接数

3.设置白名单

4.拓展阅读

5. Nginx限制某个IP同一时间段的访问次数

三、nignx解决前端跨域问题


参考地址:

nginx学习总结_一只仰望天空的菜鸟的博客-CSDN博客_nginx学习

Nginx快速入门_cv展示的博客-CSDN博客

Nginx使用及配置_finnson的博客-CSDN博客_nginx配置

一、Nginx的基础知识

1.1、静态资源服务器

使用nginx实现静态资源服务器,我们可以通过nginx来访问静态资源。修改nginx配置(conf/nginx.conf)文件为:

  server {
        listen       80;
        server_name  www.tuesdayma.com;
        location / {
            root   html;
            index  index.html index.htm;
        }
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
    }

常用配置参数:

listen: 监听的端口号。

server_name: 浏览器上输入的域名。

location: 表示url匹配,/表示全部匹配。

root: 表示匹配成功之后进入的目录。

index: 表示默认的页面。

1.2、根据域名访问不同路径

本地测试的话,可以修改host文件,我准备了两个域名:www.tuesdayma.com和static.tuesdayma.com。修改nginx配置文件为:

  
## 域名为:static.tuesdayma.com 的配置
     server {
        listen       80;
        server_name  static.tuesdayma.com;
        location / {
            root   extend/static;
            index  index.html index.htm;
        }
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
    }
## 域名为:www.tuesdayma.com 的配置
   server {
        listen       80;
        server_name  www.Tuesdayma.com;
        location / {
            root   extend/www;
            index  index.html index.htm;
        }
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
    }

 www.tuesdayma.com

static.tuesdayma.com

 1.3、反向代理

1.实质: 个人理解反向代理就是nginx拦截动态请求之后转发给某个tomcat。这个在集群和分布式都可以使用这个来进行配置转发。

2.作用: 隐藏真实的访问ip地址。我们可以看到流程图中我们访问的最多也就是公网的ip,但是具体tomcat在那个ip是不知道的,这样就能减少tomcat被攻击,提高了服务器的安全性。

 配置文件修改:

 {
     server {
        listen       80;
        server_name  www.tuesdayma.com;
        location / {
            proxy_pass   http://127.0.0.1:8090;
            index  index.html index.htm;
        }
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
    }

参数解析:

proxy_pass: 127.0.0.1可以换成任何一个通的内网地址,这个ip表示你要真实访问的tomcat所在的位置,

proxy_pass 的值就表示你真正访问的域名是什么(站在公网服务器角度来说)。

1.4 location匹配模式及顺序

location = /uri地址 =开头表示精确匹配,只有完全匹配上才能生效。

location ^~ /uri地址 ^~ 开头 对URL路径进行前缀匹配,并且在正则之前。

location ~ 正则表达式 ~开头 表示区分大小写的正则匹配。

location ~* 正则表达式 ~*开头 表示不区分大小写的正则匹配。

location /uri地址 不带任何修饰符,也表示前缀匹配,但是在正则匹配之后。

location / 通用匹配,拦截所有,但是优先级最低,只有前面都没有被拦截的情况下,才会被拦截到这里。

1.5 动静分离

1.6 负载均衡(Nginx的转发)

        定义: 为了解决高并发问题,负载均衡服务器拦截所有的请求,采用负载均衡算法,分配到不同的tomcat上。

        作用: 减少单台tomcat的压力

        upstram XXX: 表示负载均衡服务器,也是通常再说的上游服务器。

三种基本的负载均衡算法: 轮询、权重、ip绑定。

轮询:

        这是Nginx默认的负载均衡算法,简单来说就是从上到下按顺序轮流(127.0.0.1:8082轮完就轮到127.0.0.1:8081,127.0.0.1:8081轮完就轮到127.0.0.1:8082)。注意:mzd的地方需要保持一致。。。

 upstream  mzd {
       server 127.0.0.1:8082;
       server 127.0.0.1:8081;
    }
    server {
        listen       80;
        server_name  www.tuesdayma.com;
        location / {
            proxy_pass  http://mzd;
            index  index.html index.htm;
        }
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
    }

权重:

        我的理解就是哪台服务器配置好就多轮几次,或者你就想某个服务器多轮几次。简单来说就是轮到次数的比例,数字越大表示轮到的概率越大。(个人认为weight都设置为1的时候和轮询没什么区别)

 upstream  mzd {
       server 127.0.0.1:8082 weight=2;
       server 127.0.0.1:8081 weight=3;
    }
    server {
        listen       80;
        server_name  www.tuesdayma.com;
        location / {
            proxy_pass  http://mzd;
            index  index.html index.htm;
        }
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
    }

ip绑定:

        我的理解就是你第一次访问的时候,nginx会根据你的ip通过哈希算法,算出某个值,然后取分配哪个tomcat,当你第二次访问,第三次访问。。。之后的任何一次访问都是去请求那个第一次访问的tomcat。

 upstream  mzd {
	
       server 127.0.0.1:8082 ;
       server 127.0.0.1:8081 ;
       ip_hash;
    }
    server {
        listen       80;
        server_name  www.tuesdayma.com;
        location / {
            proxy_pass  http://mzd;
            index  index.html index.htm;
        }
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
    }

问题1

        可能在测试负载均衡的时候,你可能会发现浏览器一直在访问同一个tomcat,这时候你第一反应就是我的负载均衡配置的有问题。。。其实这是正常的反应,不过按上面的方法配的应该是没问题的,

其实有两种可能:

        一就是确认一下所有的服务器都能不能正常访问;

        二不要点浏览器上面的刷新按钮或者什么重新加载之类的,还有Ctrl+F5,这都可能会导致这个问题(本人被坑了一下午,还以为是负载均衡哪里配错了。。。)。

问题2

        故障转移问题,我想应该都会有一个疑问,就是负载均衡的时候,其中一个请求被分配到的那个tomcat挂了之后,会怎么样???上面说的三种模式结果都是这样。。。。

         其实nginx有默认故障转移机制的,但是很慢(本人测了一下,默认好像是要60秒左右,一分钟后就有自动发送到其他tomcat上去了,其实就是proxy_connect_timeout的默认值)。。。个人觉得生产环境根本不可能用nginx默认的故障转移机制的,是在等待太久了。。。

解决: 设置这些参数之后就能快点。。。

    server {
        listen       80;
        server_name  www.tuesdayma.com;
        location / {
            proxy_pass  http://mzd;
            proxy_connect_timeout 3s;
            proxy_read_timeout 5s;
            proxy_send_timeout 3s;
            index  index.html index.htm;
        }
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }

    }

参数解析:

proxy_connect_timeout: nginx向tomcat发起连接,即第一次握手等待tomcat回应的超时时间,tomcat的这次回应只是说明能正常连接,并没有响应具体请求的内容。

proxy_send_timeout: nginx将请求发送给tomcat的超时时间,应该是确认能正常连接之后向tomcat发送真正的业务请求。

proxy_read_timeout: tomcat接受到真正业务请求之后,nginx等待tomcat响应具体请求的内容的超时时间。差不多可以理解tomcat处理具体请求时间的最大值,也就是tomcat必须在这个时间内做完业务逻辑处理。

注意: 以上三个参数的都是个人的理解,因为网上对着三个参数什么都有。。。个人觉得proxy_read_timeout应该设置为20秒左右,因为针对于不同的业务处理,如果比较复杂,则耗时会比较长。

二、nginx对接口请求进行限流,并发500/s

转载地址:Nginx 中的两种限流方式_陈一乐乐乐的博客-CSDN博客_nginx 限流

        系统设计时一般会预估负载,当系统暴露在公网中时,恶意攻击或正常突发流量等都可能导致系统被压垮,而限流就是保护措施之一。限流即控制流量,本文将记录 Nginx 的二种限流设置。

(一)、生活中的 “限流”?

限流并非新鲜事,在生活中亦无处不在,下面例举一二:

博物馆:限制每天参观总人数以保护文物

高铁安检:有若干安检口,旅客依次排队,工作人员根据安检快慢决定是否放人进去。遇到节假日,可以增加安检口来提高处理能力(横向拓展),同时增加排队等待区长度(缓存待处理任务)。

办理银行业务:所有人先领号,各窗口叫号处理。每个窗口处理速度根据客户具体业务而定,所有人排队等待叫号即可。若快下班时,告知客户明日再来(拒绝流量)。

水坝泄洪:水坝可以通过闸门控制泄洪速度(控制处理速度)。

以上"限流"例子,可以让服务提供者稳定的服务客户。

(二)、Nginx 限流

Nginx 提供两种限流方式,一是控制速率,二是控制并发连接数。

2.控制速率

2.1正常限流

ngx_http_limit_req_module 模块提供限制请求处理速率能力,使用了漏桶算法(leaky bucket)。下面例子使用 nginx limit_req_zone 和 limit_req 两个指令,限制单个IP的请求处理速率。

在 nginx.conf http 中添加限流配置:

格式:limit_req_zone key zone rate

http {
    limit_req_zone $binary_remote_addr zone=myRateLimit:10m rate=10r/s;
}

配置 server,使用 limit_req 指令应用限流。

server {
    location / {
		limit_req zone=myRateLimit;
        proxy_pass http://my_upstream;
    }
}

参数解析:

        key :定义限流对象,binary_remote_addr 是一种key,表示基于 remote_addr(客户端IP) 来做限流,binary_ 的目的是压缩内存占用量。

        zone:定义共享内存区来存储访问信息, myRateLimit:10m 表示一个大小为10M,名字为myRateLimit的内存区域。1M能存储16000 IP地址的访问信息,10M可以存储16W IP地址访问信息。

        rate :用于设置最大访问速率,rate=10r/s 表示每秒最多处理10个请求。Nginx 实际上以毫秒为粒度来跟踪请求信息,因此 10r/s 实际上是限制:每100毫秒处理一个请求。这意味着,自上一个请求处理完后,若后续100毫秒内又有请求到达,将拒绝处理该请求

2.2 处理突发流量

        上面例子限制 10r/s,如果有时正常流量突然增大,超出的请求将被拒绝,无法处理突发流量,可以结合 burst 参数使用来解决该问题

server {
    location / {
		limit_req zone=myRateLimit burst=20;
        proxy_pass http://my_upstream;
    }
}

        burst 译为突发、爆发,表示在超过设定的处理速率后能额外处理的请求数。当 rate=10r/s 时,将1s拆成10份,即每100ms可处理1个请求。

        此处,**burst=20 **,若同时有21个请求到达,Nginx 会处理第一个请求,剩余20个请求将放入队列,然后每隔100ms从队列中获取一个请求进行处理。若请求数大于21,将拒绝处理多余的请求,直接返回503.

        不过,单独使用 burst 参数并不实用。假设 burst=50 ,rate依然为10r/s,排队中的50个请求虽然每100ms会处理一个,但第50个请求却需要等待 50 * 100ms即 5s,这么长的处理时间自然难以接受。

        因此,burst 往往结合 nodelay 一起使用。

server {
    location / {
		limit_req zone=myRateLimit burst=20 nodelay;
        proxy_pass http://my_upstream;
    }
}

        nodelay 针对的是 burst 参数,burst=20 nodelay 表示这20个请求立马处理,不能延迟,相当于特事特办。不过,即使这20个突发请求立马处理结束,后续来了请求也不会立马处理。

        burst=20 相当于缓存队列中占了20个坑,即使请求被处理了,这20个位置这只能按 100ms一个来释放。

        这就达到了速率稳定,但突然流量也能正常处理的效果。

2.3 限制连接数

ngx_http_limit_conn_module 提供了限制连接数的能力,利用 limit_conn_zone 和 limit_conn 两个指令即可。下面是 Nginx 官方例子:

limit_conn_zone $binary_remote_addr zone=perip:10m;
limit_conn_zone $server_name zone=perserver:10m;

server {
    ...
    limit_conn perip 10;
    limit_conn perserver 100;
}
 

参数解析;

limit_conn perip 10 作用的key 是 $binary_remote_addr,表示限制单个IP同时最多能持有10个连接。

limit_conn perserver 100 作用的key是 $server_name,表示虚拟主机(server) 同时能处理并发连接的总数。

需要注意的是:只有当 request header 被后端server处理后,这个连接才进行计数。

3.设置白名单

限流主要针对外部访问,内网访问相对安全,可以不做限流,通过设置白名单即可。利用 Nginx ngx_http_geo_module 和 ngx_http_map_module 两个工具模块即可搞定。

geo $limit {
    default 1;
    10.0.0.0/8 0;
    192.168.0.0/24 0;
    172.20.0.35 0;
}

map $limit $limit_key {
    0 "";
    1 $binary_remote_addr;
}

limit_req_zone $limit_key zone=myRateLimit:10m rate=10r/s;
 

geo 对于白名单(子网或IP都可以) 将返回0,其他IP将返回1。

map 将 l i m i t ∗ ∗ 转 换 为 ∗ ∗ limit** 转换为 **limit∗∗转换为$limit_key,如果是 $limit 是0(白名单),则返回空字符串;如果是1,则返回客户端实际IP。

limit_req_zone 限流的key不再使用 b i n a r y r e m o t e a d d r ∗ ∗ , 而 是 ∗ ∗ binary_remote_addr**,而是 **binary

remote addr∗∗,而是$limit_key 来动态获取值。

如果是白名单,limit_req_zone 的限流key则为空字符串,将不会限流;

若不是白名单,将会对客户端真实IP进行限流。

4.拓展阅读

除限流外,ngx_http_core_module 还提供了限制数据传输速度的能力(即常说的下载速度)。

location /flv/ { flv; limit_rate_after 20m; limit_rate 100k; }

5. Nginx限制某个IP同一时间段的访问次数

学习地址:https://www.nginx.cn/446.html

三、nignx解决前端跨域问题

前端内嵌页面,存在跨域问题,如何解决?

iframe嵌套页面 跨域_谈谈WEB开发时遇到的浏览器跨域问题及解决方法。

 服务端转发

        如上图所示,服务端转发实现跨域访问的基本原理是,将访问B域名的请求,通过访问A域名,由A服务器转发给B服务器:

        举例:

        在https://www.xxx.com页面上,想要访问https://portal.xxx.com/v1/template接口,那么可以通过如下手段实现跨域:

  • 页面上调用https://www.xxx.com/portal/v1/template接口
  • www.xxx.com服务器,对于/portal开头的请求,统一去掉portal路径,转发给portal.xxx.com服务器,相当于www.xxx.com服务器做了反向代理

但是使用该方法,会导致无法发送http://portal.xxx.com域名下的cookie,因此应用场景有限

 windows下重启nginx

 借鉴地址:https://www.cnblogs.com/zjfblog/p/11854946.html

        因为Nginx是多进程模型,有一个主进程和多个子进程,主进程只负责管理子进程,基本的网络事件由各个子进程处理。

        所以有时候当我们通过nginx -s reload这种方式去重启Nginx的话,发现是无效的,这就是因为我们杀死了一个子进程,然后主进程会开启另一个子进程,所以我们需要先关闭掉Nginx的所有进程(包括主进程和子进程),使用如下命令:

taskkill /IM nginx.exe /F

【其中/IM是用来kill掉指定名字的进程的,-F是用来强制kill的,详细的参数介绍可以在dos中通过TASKKILL /?查看】

然后再启动Nginx:

start nginx.exe

之前学习Nginx有看到相关的学习笔记:Nginx学习笔记(转)-KuangStudy-文章

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值