Nginx 学习总结

Nginx  (engine x)简介

 Nginx 是一个高性能的HTTP和反向代理的web服务器,也提供了IMAP/POP3/SMTP服务。Nginx第一个公开版本0.1.0发布于2004年10月4日

  • 反向代理,将多台服务器代理成一台服务器
  • 负载均衡,将多个请求均匀的分配到多台服务器上,减轻每台服务器的压力,提高服务的吞吐量
  • 动静分离,nginx可以用作静态文件的缓存服务器,提高访问速度

        Nginx在做反向代理时,提供性能稳定,并且能够提供配置灵活的转发功能。Nginx可以根据不同的正则匹配,采取不同的转发策略,比如图片文件结尾的走文件服务器,动态页面走web服务器,只要你正则写的没问题,又有相对应的服务器解决方案,你就可以随心所欲的玩。并且Nginx对返回结果进行错误页跳转,异常判断等。如果被分发的服务器存在异常,他可以将请求重新转发给另外一台服务器,然后自动去除异常服务器。

   Nginx 特点:

  • 占用内存少:
  • 并发能力强:能够支持5W并发链接相应
  • 支持负载均衡:支持4种负载策略
  • 安装简单配置简洁

正向代理服务器:

     是位于客户端和原始服务器的一台中间服务器,为了从原始服务器获取到内容,客户端向代理服务器发送一个请求并带上目标服务器(原始服务器),代理服务器在接收到请求后就会将请求转发给原始服务器,并将从原始服务器上获取到的数据返回给客户端,代理服务器是代理的客户端,所以一般客户端是知道代理服务器的存在的,比如翻墙就用了代理服务器。主要作用

  • 访问原来无法访问的资源 
  • 用作缓存,加速访问速度 
  • 对客户端访问授权,上网进行认证 
  • 代理可以记录用户访问记录(上网行为管理),对外隐藏用户信息

反向代理服务器:

    是位于原始服务器端的服务器,反向代理服务器接受来自互联网的请求,然后将这些请求发送给内网的服务器,并将从内网的服务器获取结果返回给互联网上的客户端,反向代理服务器是代理的服务端,所以客户端是不知道反向代理服务器的存在的,服务端是知道反向代理服务器的。主要作用

  • 保护内网安全 
  • 负载均衡 
  • 缓存,减少服务器的压力 

Nginx 原理

工作过程

在nginx启动后,会有一个master进程和多个worker进程

master进程:

        master进程主要用来管理worker进程,包括:接受信号,将信号分发给worker进程,监听worker进程工作状态,当worker进程退出时(非正常),启动新的worker进程。基本的网络事件会交给worker进程处理。多个worker进程之间是对等的,他们同等竞争来自客户端的请求,各进程互相之间是独立的 。独立的进程,不需要加锁,所以省掉了锁带来的开销,一个请求,只可能在一个worker进程中处理,一个worker进程,不可能处理其它进程的请求。 worker进程的个数是可以设置的,一般我们会设置与机器cpu核数一致,这里面的原因与nginx的进程模型以及事件处理模型是分不开的 。

        当master接收到重新加载的信号会怎么处理(./nginx -s reload)?,master会重新加载配置文件,然后启动新的进程,使用的新的worker进程来接受请求,并告诉老的worker进程他们可以退休了,老的worker进程将不会接受新的,老的worker进程处理完手中正在处理的请求就会退出。

worker进程: 共享锁避免惊群事件

         worker进程是如何处理用户的请求呢?首先master会根据配置文件生成一个监听相应端口的socket,然后再faster出多个worker进程,这样每个worker就可以接受从socket过来的消息(其实这个时候应该是每一个worker都有一个socket,只是这些socket监听的地址是一样的)。当一个连接过来的时候,每一个worker都能接收到通知,但是只有一个worker能和这个连接建立关系,其他的worker都会连接失败,这就是所谓的惊群现在,为了解决这个问题,nginx提供一个共享锁accept_mutex,有了这个共享锁后,就会只有一个worker去接收这个连接。当一个worker进程在accept这个连接之后,就开始读取请求,解析请求,处理请求,产生数据后,再返回给客户端,最后才断开连接,这样一个完整的请求就是这样的了。

事件驱动模型:异步阻塞机制

        为什么几个worker进程(每一个worker进程里面其实只有一个主线程)能同时接收上万的请求呢?这是因为nginx事件处理机制是异步非阻塞的。nginx将一个请求划分为多个阶段来异步处理模块,每个阶段只是处理请求的一部分,如果请求的这一部分发生阻塞,nginx不会等待,它会处理其他的请求的某一部分。传统web服务器的每个事件消费者独占一个进程(线程)资源,这种情况对于用户规模较小的情况来说,用户响应速度快,但是当并发规模达到数十万上百万的时候,由于线程(进程)数目过多,会频繁的切换,而且当线程阻塞的时候会进行睡眠,也会造成资源的浪费,这样服务器就会产生瓶颈.

      nginx服务器采用的事件驱动机制不同,他不会为每个消费事件创建一个进程或线程,这样就不会产生由于进程间频繁切换占用cpu而产生的瓶颈,而且nginx不会让事件阻塞,即采用无阻塞事件驱动模型,这样就不会因为事件阻塞使进程睡眠而造成的资源浪费.

      nginx将一个请求划分成多个阶段异步处理,每个阶段仅仅完成一个请求中的一部分,当本阶段任务完成后进入下一阶段.等待事件发生不是阻塞的等待,等待事件发生时候内。

Nginx  -Windows 使用及常用命令

  • start nginx : 启动
  • nginx -s stop: 快速退出,快速停止nginx
  • nginx -s quit:优雅退出,完整有序的停止nginx)
  • nginx -s reload: 更换配置后不需要重新启动nginx,使用本命令可以让变动生效
  • nginx -s reopen: 打开日志
  • tasklist /fi "imagename eq nginx.exe" 查看

D:\>cd D:\Soft\nginx-1.14.2
D:\Soft\nginx-1.14.2>start nginx
D:\Soft\nginx-1.14.2>tasklist /fi "imagename eq nginx.exe"

映像名称                       PID 会话名              会话#       内存使用
========================= ======== ================ =========== ============
nginx.exe                     8184 Console                    1      7,868 K
nginx.exe                     1100 Console                    1     26,344 K
nginx.exe                    11412 Console                    1     26,348 K
nginx.exe                    13148 Console                    1     26,340 K
nginx.exe                    13592 Console                    1     26,324 K
nginx.exe                    11776 Console                    1     26,320 K
nginx.exe                    12712 Console                    1     26,352 K
nginx.exe                    13760 Console                    1     26,220 K
nginx.exe                    10368 Console                    1     26,308 K

D:\Soft\nginx-1.14.2>nginx -s stop

D:\Soft\nginx-1.14.2>tasklist /fi "imagename eq nginx.exe"
信息: 没有运行的任务匹配指定标准。

D:\Soft\nginx-1.14.2>

启动方式有两种

(1)直接双击nginx.exe,双击后一个黑色的弹窗一闪而过

(2)打开cmd命令窗口,切换到nginx解压目录下,输入命令 nginx.exe 或者 start nginx ,回车即可

检查nginx是否启动成功: 在浏览器地址栏输入网址 http://localhost:80,回车

Nginx  -Linux 使用及常用命令

Nginx  配置文件说明

配置文件位置:nginx\conf\nginx.conf

配置文件格式

配置文件包括3部分, 全局块、事件块和http全局块

  • 全局块:worker_processes 1; 表示并发处理配置,值越到并发能力越强
  • event块: 配置影响nginx服务器或与用户的网络连接。有每个进程的最大连接数,选取哪种事件驱动模型处理连接请求,是否允许同时接受多个网路连接,开启多个网络连接序列化等。 例如:worker_connections 1024; 表示支持的最大连接数
  • http全局块: nginx 的http配置处理信息, 其又分http块和server块,一个http全局快可以嵌套多个 server块, server 块配置虚拟主机的参数例如: listen 80 表示监听端口为80,一个http全局块中可以有多个server块,localtion块配置请求路由以及各页面处理情况

网上有同学对配置信息做了详细说明, 详细配置信息如下: 

########### 每个指令必须有分号结束。#################
#user administrator administrators;  #配置用户或者组,默认为nobody nobody。
#worker_processes 2;  #允许生成的进程数,默认为1
#pid /nginx/pid/nginx.pid;   #指定nginx进程运行文件存放地址
error_log log/error.log debug;  #制定日志路径,级别。这个设置可以放入全局块,http块,server块,级别以此为:debug|info|notice|warn|error|crit|alert|emerg
events {
    accept_mutex on;   #设置网路连接序列化,防止惊群现象发生,默认为on
    multi_accept on;  #设置一个进程是否同时接受多个网络连接,默认为off
    #use epoll;      #事件驱动模型,select|poll|kqueue|epoll|resig|/dev/poll|eventport
    worker_connections  1024;    #最大连接数,默认为512
}
http {
    include       mime.types;   #文件扩展名与文件类型映射表
    default_type  application/octet-stream; #默认文件类型,默认为text/plain
    #access_log off; #取消服务日志    
    log_format myFormat '$remote_addr–$remote_user [$time_local] $request $status $body_bytes_sent $http_referer $http_user_agent $http_x_forwarded_for'; #自定义格式
    access_log log/access.log myFormat;  #combined为日志格式的默认值
    sendfile on;   #允许sendfile方式传输文件,默认为off,可以在http块,server块,location块。
    sendfile_max_chunk 100k;  #每个进程每次调用传输数量不能大于设定的值,默认为0,即不设上限。
    keepalive_timeout 65;  #连接超时时间,默认为75s,可以在http,server,location块。

    upstream mysvr {   
      server 127.0.0.1:7878;
      server 192.168.10.121:3333 backup;  #热备
    }
    error_page 404 https://www.baidu.com; #错误页
    server {
        keepalive_requests 120; #单连接请求上限次数。
        listen       4545;   #监听端口
        server_name  127.0.0.1;   #监听地址       
        location  ~*^.+$ {       #请求的url过滤,正则匹配,~为区分大小写,~*为不区分大小写。
           #root path;  #根目录
           #index vv.txt;  #设置默认页
           proxy_pass  http://mysvr;  #请求转向mysvr 定义的服务器列表
           deny 127.0.0.1;  #拒绝的ip
           allow 172.18.5.54; #允许的ip           
        } 
    }
}

nginx请求转发处理

增加代理,访问http://localhost:80 时候,转发到 http://127.0.0.1:8081

worker_processes  1;
events {
    worker_connections  1024;
}
http {
    include       mime.types;
    default_type  application/octet-stream;
    sendfile        on;
    keepalive_timeout  65;
    server {
        listen       80;
        server_name  localhost;
        location / {
            root   html;
            proxy_pass http://127.0.0.1:8081;
            index  index.html index.htm;
        }
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
    }
}

根据请求后缀分发

worker_processes  1;
events {
    worker_connections  1024;
}
http {
    include       mime.types;
    default_type  application/octet-stream;
    sendfile        on;
    keepalive_timeout  65;
    server {
        listen       70;
        server_name  localhost;
        location ~/dev/ {

            proxy_pass http://127.0.0.1:8080;
        }
        location ~/prod/ {

            proxy_pass http://127.0.0.1:8081;
        }
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
    }
}

其中,配置转发的时候用到了~,其含义内容如下:

  • = 严格匹配。如果这个查询匹配,那么将停止搜索并立即处理此请求。
  • ~ 为区分大小写匹配(可用正则表达式)
  • !~为区分大小写不匹配
  • ~* 为不区分大小写匹配(可用正则表达式)
  • !~*为不区分大小写不匹配
  • ^~ 如果把这个前缀用于一个常规字符串,那么告诉nginx如果路径匹配那么不测试正则表达式

apache-tomcat-8.5.39_8080\webapps\ROOT下创建dev文件夹,并创建一个a.html ,里面随便写些内容用于区分,比如端口号8080

apache-tomcat-8.5.39_8081\webapps\ROOT下创建prod文件夹,并创建一个a.html,里面随便写些内容用于区分,比如端口号8081

访问:http://localhost:70/dev/a.html 转发到http://127.0.0.1:8080/dev/a.html

访问:http://localhost:70/dev/a.html 转发到http://127.0.0.1:8080/dev/a.html

Nginx配置负载均衡

负载均衡(Load Balance),意思是将负载(工作任务,访问请求)进行平衡、分摊到多个操作单元(服务器,组件)上进行执行。是解决高性能,单点故障(高可用),扩展性(水平伸缩)的终极解决方案。

worker_processes  1;
events {
    worker_connections  1024;
}
http {
    include       mime.types;
    default_type  application/octet-stream;
    sendfile        on;
    keepalive_timeout  65;

    upstream myserver{
    	server 127.0.0.1:8080;
    	server 127.0.0.1:8081;
     } 
    server {
        listen       60;
        server_name  localhost;
        
        location / {
        root   html;
        proxy_pass http://myserver;
        index  index.html index.htm;
   	 }

    }
}

当访问 http://127.0.0.1:60的时候,经过 nginx 转发=调用 http://127.0.0.1:8080 或者 http://127.0.0.1:8081

当前使用的是顺序轮询策略, 8080和8081交替调用,第一次调用8080,第二次就调用9090 ,可以通过配置修改负载策略

负载策略

1.  按照顺序轮询: 依次访问

upstream myserver{
    server 127.0.0.1:8080;
    server 127.0.0.1:8081;
}

2. 按照配置的权重,默认值是1, 权重值越高调用的次数也就越多, 按照1:3的配置,大概调用1次8080后调用3次8081

upstream myserver{
    server 127.0.0.1:8080 weight=1;
    server 127.0.0.1:8081 weight=3;
}

3. 按照ip hash,每次请求按照访问iphash结果分配,这样访客固定访问一个后台服务器

upstream myserver{
    ip_hash;
    server 127.0.0.1:8080;
    server 127.0.0.1:8081;
}

4. 按fair(第三方): 按后端相应时间分配,越短分配越多

upstream myserver{
    server 127.0.0.1:8080;
    server 127.0.0.1:8081;
    fair;
}

问题列表

1. 错误: The system cannot find the file specified

D:\Soft\nginx-1.14.2>nginx -s quit

nginx: [error] CreateFile() "D:\Soft\nginx-1.14.2/logs/nginx.pid" failed (2: The system cannot find the file specified)

有可能是nginx路径不正确

2. 配置文件配置错误

Nginx 配置都需要以分号结尾

3. 启动2个tomcat的时候发现端口被占用

通过server.xml配置中可以看到tomcat 默认会占用8005, 8080 ,8009 三个端口,因此同服务器上启动多个tomcat的时候,这3个端口需要同步修改,避免重复占用端口

文章参考:

https://blog.csdn.net/wangbiao007/article/details/82910709

Nginx配置详解 - 张龙豪 - 博客园

Nginx入门教程 - 知乎

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

=PNZ=BeijingL

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值