从原理到实战,彻底搞懂Nginx

什么是Nginx?

Nginx代码完全用C语言从头写成,已经移植到许多体系结构和操作系统,包括:Linux、FreeBSD、Solaris、Mac OS X、AIX以及Microsoft Windows。

Nginx有自己的函数库,并且除了zlib、PCRE和OpenSSL之外,标准模块只使用系统C库函数。而且,如果不需要或者考虑到潜在的授权冲突,可以不使用这些第三方库

Nginx (engine x) 是一个高性能的HTTP和反向代理web服务器,同时也提供了IMAP/POP3/SMTP服务。Nginx是由伊戈尔·赛索耶夫为俄罗斯访问量第二的Rambler.ru站点(俄文:Рамблер)开发的,第一个公开版本0.1.0发布于2004年10月4日。

其将源代码以类BSD许可证的形式发布,因它的稳定性、丰富的功能集、示例配置文件和低系统资源的消耗而闻名。2011年6月1日,nginx 1.0.4发布。

Nginx是一款轻量级的Web 服务器/反向代理服务器及电子邮件(IMAP/POP3)代理服务器,在BSD-like 协议下发行。其特点是占有内存少,并发能力强,事实上nginx的并发能力在同类型的网页服务器中表现较好,中国大陆使用nginx网站用户有:百度、京东、新浪、网易、腾讯、淘宝等。

一句话Nginx 就是牛逼,成熟,稳定 ,应用范围广 主要还是开源。

Nginx 架构原理

在这里插入图片描述

Nginx 相关配置

通过配置 Nginx 配置文件,实现正向代理、反向代理、负载均衡、Nginx 缓存、动静分离和高可用 Nginx 6种功能,并对 Nginx 的原理作进一步的解析。当需要使用 Nginx 配置文件时,参考本文实例即可。

1:正向代理

正向代理的代理对象是客户端,正向代理就是代理服务器代替客户去访问目标服务器。
在这里插入图片描述

1.1 实战一

实现效果:

在浏览器输入www.baidu.com,浏览器跳转到www.baidu.com 。

具体配置

server{   
  resolver 8.8.8.8;    listen 80;   
  location / {       
    proxy_pass http://$http_host$request_uri;   
  }
 }

在需要访问的客户端上执行以下一种操作即可:

//1. 方法1(推荐)
export http_proxy=http://你的正向代理服务器地址:代理端口   
//2. 方法2 
vim ~/.bashrcexport http_proxy=http://你的正向代理服务器地址:代理端口 

2.反向代理

反向代理指代理后端服务器相应客户端请求的一个中介服务器,代理的对象是服务端。
在这里插入图片描述

2.1实战一

实现效果:

在浏览器输入www.abc.com , 从nginx服务器跳转到linux系统tomact主页面。

具体配置:

server {        
  listen       80;          
  server_name  192.168.4.32;   #监听地址           
  location  / {                 
     root html;  #/html目录          
     proxy_pass http://127.0.0.1:8080;  #请求转向          
     index  index.html index.htm;      #设置默认页              
  }     
}

2.2 实战二

实现效果:

根据在浏览器输入的路径不同,跳转到不同的端口服务中

具体配置:

server {        
   listen       9000;           
   server_name  192.168.4.32;   #监听地址 
                      
   location  ~ /example1/ {             
      proxy_pass http://127.0.0.1:5000;                 
    } 
        
   location  ~ /example2/ {            
     proxy_pass http://127.0.0.1:8080;                  
   } 
}

location 指令说明:

~: 表示url包含正则表达式,且区分大小写。
* 表示url包含正则表达式,且不区分大小写。
=: 表示url不包含正则表达式,要求严格匹配;

项目场景

通常情况下,我们在实际项目操作时,正向代理和反向代理很有可能会存在在一个应用场景中,正向代理代理客户端的请求去访问目标服务器,目标服务器是一个反向单利服务器,反向代理了多台真实的业务处理服务器。具体的拓扑图如下:

在这里插入图片描述

3 负载均衡

3.1:实战一

实现效果:

假如在浏览器地址栏输入 http://192.168.4.32/example/a.html ,平均到5000和8080端口中,实现负载均衡效果。

在这里插入图片描述

在这里插入图片描述

具体配置:

upstream myserver {         
   server 192.167.4.32:5000;      
   server 192.168.4.32:8080;   
} 

      
server {       
 listen       80;   #监听端口        
 server_name  192.168.4.32;   #监听地址  
        
 location  / {                 
     root html;  #html目录           
     index index.html index.htm;  #设置默认页          
     proxy_pass  http://myserver;  #请求转向 myserver 定义的服务器列表             
  }     
}

nginx分配服务器策略

轮询(默认)
按请求的时间顺序一次逐一分配,如果服务器down掉,能自动剔除。

权重
weight 越高,被分配的客户端越多,默认为1,比如:

 upstream myserver { 
   server 192.167.4.32:5000 weight=10; 
   server 192.168.4.32:8080 weight=5; 
 } 

ip_hash
按请求ip的hash值分配,每个访客固定访问一个后端服务器,比如:

upstream myserver { 
  ip_hash;  
   server 192.167.4.32:5000;
   server 192.168.4.32:8080;
  }

fair
按照后端服务器的相应时间来分配,相应时间短的优先分配到请求,比如:

 upstream myserver { 
    fair;  
    server 192.168.4.32:5000;
    server 192.168.4.32:8080;
 }

4:nginx 缓存

4.1实战一

实现效果:

在3天内,通过浏览器地址栏访问http://192.168.4.32/a.jpg,不会从芙蕖器抓取资源,3天后(过期)则从服务器重新下载。

具体配置:

http 区域下添加缓存区配置

proxy_cache_path /tmp/nginx_proxy_cache levels=1 keys_zone=cache_one:512m inactive=60s max_size=1000m;

server 区域下添加缓存配置

location ~ \.(gif|jpg|png|htm|html|css|js)(.*) {
     proxy_pass http://192.168.4.32:5000;#如果没有缓存则转向请求
     proxy_redirect off;
     proxy_cache cache_one;
     proxy_cache_valid 200 1h;            #对不同的 HTTP 状态码设置不同的缓存时间
     proxy_cache_valid 500 1d;
     proxy_cache_valid any 1m;
     expires 3d;
}

expires 是给一个资源设定一个过期时间,通过expires参数设置,可以使浏览器缓存过期时间之前的内容,减少与服务器之间的请求和流量,也就是说无需去服务端验证,直接通过浏览器自身确认是否过期即可,所以不会产生额外的流量,此方法非常适合不经常变动的资源;

5.动态分离

5.1实战一

实现效果:

通过浏览器地址栏访问www.abc.com/a.html, 访问静态资源服务器的静态资源内容,通过浏览器地址栏访问www.abc.com/a.html,访问动态资源服务器的动态资源内容;

具体配置:

upstream static {   
    server 192.167.4.31:80;
}
 
upstream dynamic {   
    server 192.167.4.32:8080;
}
 
server {
    listen       80;   #监听端口
    server_name  www.abc.com; 监听地址
 
    # 拦截动态资源
    location ~ .*\.(php|jsp)$ {
       proxy_pass http://dynamic;
    }
   
    # 拦截静态资源
    location ~ .*\.(jpg|png|htm|html|css|js)$ {       
       root /data/;  #html目录
       proxy_pass http://static;
       autoindex on;;  #自动打开文件列表
    }  
}

6:高可用

一般情况下,通过nginx主服务器访问后台目标服务集群,当主服务器挂掉后,自动切换至备份服务器,此时由备份服务器充当主服务器的角色,访问后端目标服务器。

6.1 实战一

实现效果:

准备两台nginx服务器,通过浏览器地址栏访问虚拟ip地址,把主服务器的nginx停止,再次访问虚拟ip地址还是有效;

具体配置:

(1):在两台nginx服务器上安keepalived。

keepalived 相当于一个路由,他通过一个脚本来检测当前服务器是否还活着,如果还活着则继续访问,否则就切换到另一台备份服务器。

安装 keepalived

yum install keepalived -y

检查版本

rpm -q -a keepalived
keepalived-1.3.5-16.el7.x86_64

(2):修改主备服务器 /etc/keepalived/keepalivec.conf 配置文件(可直接替换),完成高可用主从配置。

keepalived 将nginx服务器绑定到一个虚拟ip,nginx高可用集群对外统一暴露这个虚拟IP,客户端都是通过访问这个虚拟IP来访问nginx服务器。

global_defs {
   notification_email {
       acassen@firewall.loc
       failover@firewall.loc
       sysadmin@firewall.loc
   }
   notification_email_from_Alexandre.Cassen@firewall.loc
   smtp_server 192.168.4.32
   smtp_connect_timeout 30
   router_id LVS_DEVEL  # 在 /etc/hosts 文件中配置,通过它能访问到我们的主机
}

vrrp_script_chk_http_port {   
   script "/usr/local/src/nginx_check.sh"

   interval 2      # 检测脚本执行的时间间隔

   weight 2        # 权重每次加2
}

vrrp_instance VI_1 {
   interface ens7f0 # 网卡,需根据情况修改
   state MASTER    # 备份服务器上将 MASTER 改为 BACKUP
   virtual_router_id 51 # 主备机的 virtual_router_id 必须相同
   priority 100   # 主备机取不同的优先级,主机值较大,备份机值较小
   advert_int 1  # 每隔多长时间(默认1s)发送一次心跳,检测服务器是否还活着
   authentication {
     auth_type PASS
     auth_pass 1111
   }
   virtual_ipaddress {
       192.168.1.100 # VRRP H 虚拟地址,可以绑定多个
   }
}

字段说明

router_id: 在 /etc/hosts 文件中配置,通过它能访问到我们的主机。

  127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
  ::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
  127.0.0.1   LVS_DEVEL   

interval: 设置脚本执行的间隔时间
weight: 当脚本执行失败即 keepalived 或nginx挂掉时,权重增加的值(可为负数)。
interface:输入ifconfig命令查看当前的网卡名是什么。

  ens7f0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
          inet 192.168.4.32  netmask 255.255.252.0  broadcast 192.168.7.255
          inet6 fe80::e273:9c3c:e675:7c60  prefixlen 64  scopeid 0x20<link>
          ... ...

(3) 在 /usr/local/src目录下添加检测脚本 nginx_check.sh。

#!/bin/bash
A=`ps -C nginx -no-header |wc -l`
if [ $A -eq 0 ];then
    /usr/local/nginx/sbin/nginx
    sleep 2
    if [ ps -C nginx -no-header |wc -l` -eq 0 ];then
        killall keepalived
    fi
fi

(4):启动两台服务器的nginx和keepalived.

启动 nginx

./nginx

启动 keepalived

systemctl start keepalived.service

(5):查看虚拟ip地址ip a, 把主服务器 192.168.4.32 nginx 和 keepalived停止,再访问虚拟ip查看高可用效果。

7:原理解析

nginx启动之后,在linux系统中有两个进程,一个为master,一个为worker, master 作为管理员不参与任何工作,只负责给多个worker分配不同的任务(worker 一般有多个),

ps -ef |grep nginx
root     20473     1  0  2019 ?        00:00:00 nginx: master process /usr/sbin/nginx
nginx     4628 20473  0 Jan06 ?        00:00:00 nginx: worker process
nginx     4629 20473  0 Jan06 ?        00:00:00 nginx: worker process

worker是如何工作的?

客户端发送一个请求首先要经过master,管理员收到请求后会将请求通知给worker, 多个worker以争抢的机制来抢夺任务,得到任务的worker会将请求经过由tomact等做请求转发,反向代理,访问数据库(nginx本身是不支持Java的)。

一个master和多个worker的好处

可以使用 nginx -s reload 进行热部署。
每个worker是独立的进程,如果其中一个worker出现问题,其他worker是独立运行的,会继续争抢任务,实现客户端的请求过程,而不会造成服务中断。
设置多少个worker合适?

nginx 和redis类似,都采用了io多路复用机制,每个worker都是独立的进程,每个进程中只有一个主线程,通过异步非阻塞的方式来处理请求,每个worker的线程可以把一个cpu的性能发挥到极致,因此,worker数和服务器的cpu数相等是最为适宜的。
思考:

(1):发送一个请求时,会占用worker几个连接数?

(2):有一个master 和4个worker,每个worker支持的自大连接数为1024,该系统支持的最大并发数是多少?

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值