Nginx

笔记主要来源:

学习Nginx这一篇就够了_轻松的小希的博客-CSDN博客

    1. 简介

Nginx(发音同“engine x”)是一个高性能的反向代理和Web服务器软件,由俄罗斯人Igor Sysoev开发(2004),被F5收购(2019)。有报告表明单节点的Nginx同时支持5W并发连接。

版本对比

版本

官网

说明

功能

Nginx开源版

nginx news

可编程:支持使用Perl、JavaScript、Lua等脚本实现功能增强

两个分支:

mainline(主线分支,版本号第二位为奇数)

stable(稳定分支,版本号第二位为偶数)

访问路由:通过访问路径、URL关键字、客户端IP、灰度分流等多种手段实现访问路由分配

反向代理:支持HTTP、HTTPS、HTTP/2、FastCGI、uWSGI、

SCGI、gRPC及TCP/UDP等目前大部分协议的反向代理

负载均衡:支持多种负载均衡算法:

内容缓存:可以缓存静态文件、响应内容

访问安全

带宽控制

Nginx plus商业版

Advanced Load Balancer, Web Server, & Reverse Proxy - NGINX

F5出品,增强对Nginx的管理和监控功能

在开源版本功能基础上增加:

基于cookies的会话保持

基于响应状态码和响应体的主动健康监测

支持DNS动态更新

支持通过API清除内容缓存

可通过API动态管理上游的后端服务器列表

JWT身份认证

Nginx WAF动态模块

状态监控

支持Kubernetes集群Pod的会话保持和主动健康监测

支持自适性串流ABS、媒体技术HLS和HDS

支持对MP4媒体流进行带宽控制

Openresty

OpenResty® - Open source

免费开源,是基于Nginx与Lua的高性能Web平台

Tengine

http://tengine.taobao.org

免费开源,淘宝出品

增强功能:

支持HTTP的CONNECT方法,可用于正向代理

支持异步OpenSSL,可使用硬件(如QAT)进行HTTPS的加速与卸载

增强相关运维、监控能力,如异步打印日志及

回滚、本地DNS缓存、内存监控等

......

    1. 单实例安装(Linux环境)

环境准备

模拟工具:VMware-workstation-full-15.5.6-16341506.exe

操作系统:CentOS-6.10-x86_64-bin-DVD1.iso、纯净安装、桌面版

设置网卡随系统启动、使用静态IP(本文档向上搜索本行关键字)

编译安装

安装依赖

[root@caochenlei ~]# yum install -y gcc gcc-c++ make libtool wget pcre pcre-devel zlib zlib-devel openssl openssl-devel

下载安装

[root@caochenlei ~]# wget http://nginx.org/download/nginx-1.18.0.tar.gz

[root@caochenlei ~]# tar -zxvf nginx-1.18.0.tar.gz

[root@caochenlei ~]# cd nginx-1.18.0

[root@caochenlei nginx-1.18.0]# ./configure --prefix=/usr/local/nginx

[root@caochenlei nginx-1.18.0]# make && make install

Nginx命令

普通启动服务:/usr/local/nginx/sbin/nginx

配置文件启动:/usr/local/nginx/sbin/nginx -c /usr/local/nginx/conf/nginx.conf

暴力停止服务:/usr/local/nginx/sbin/nginx -s stop

优雅停止服务:/usr/local/nginx/sbin/nginx -s quit

检查配置文件:/usr/local/nginx/sbin/nginx -t

重新加载配置:/usr/local/nginx/sbin/nginx -s reload

查看相关进程:ps -ef | grep nginx

启动Nginx服务后,在浏览器中输入虚拟机IP地址并回车即可打开Nginx欢迎页。

防火墙配置

开放防火墙

[root@caochenlei ~]# /sbin/iptables -I INPUT -p tcp --dport 80 -j ACCEPT

[root@caochenlei ~]# /etc/rc.d/init.d/iptables save

iptables:将防火墙规则保存到 /etc/sysconfig/iptables:[确定]

或者:firewall-cmd --zone=public --add-port=80/tcp --permanent

如果要关闭防火墙:systemctl stop firewalld.service

如果要禁止防火墙开机启动:systemctl disable firewalld.service

如果要重启防火墙:firewall-cmd --reload

查看Nginx进程

ps -ef|grep nginx

启动后:

root      14016      1  0 11:19 ?        00:00:00 nginx: master process ./nginx

nobody    14017  14016  0 11:19 ?        00:00:00 nginx: worker process

root      14098   1262  0 14:24 pts/2    00:00:00 grep --color=auto nginx

停止后:

root      14101   1262  0 14:25 pts/2    00:00:00 grep --color=auto nginx

注册系统服务、开机启动

通过系统服务的方式启动Nginx

vi /usr/lib/systemd/system/nginx.service

内容如下(注意路径):

[Unit]

Description=nginx

After=network.target remote-fs.target nss-lookup.target

[Service]

Type=forking

PIDFile=/usr/local/nginx/logs/nginx.pid

ExecStartPre=/usr/local/nginx/sbin/nginx -t -c /usr/local/nginx/conf/nginx.conf

ExecStart=/usr/local/nginx/sbin/nginx -c /usr/local/nginx/conf/nginx.conf

ExecReload=/usr/local/nginx/sbin/nginx -s reload

ExecStop=/usr/local/nginx/sbin/nginx -s stop

ExecQuit=/usr/local/nginx/sbin/nginx -s quit

PrivateTmp=true

   

[Install]   

WantedBy=multi-user.target

重新加载系统服务

systemctl daemon-reload

使用系统服务启动Nginx(若之前用./nginx启动了Nginx,先停止Nginx)

systemctl start nginx

查看Nginx状态

systemctl status nginx

设置开机启动

systemctl enable nginx.service

conf 配置文件

|- nginx.conf  主配置文件

|- 其他配置文件,都被引入到了nginx.conf

html 静态页面

logs

|- access.log 访问日志(每次访问都会记录)

|- error.log 错误日志

|- nginx.pid 进程号

sbin

|- nginx 主进程文件

*_temp 运行时生成的临时文件夹

    1. 运行原理

Nginx的线程模型

Nginx默认采用多进程工作方式,Nginx启动后,会运行一个master进程和多个worker进程。其中master充当整个进程组与用户的交互接口,同时对进程进行监护,管理worker进程来实现重启服务、平滑升级、更换日志文件、配置文件实时生效等功能。worker用来处理基本的网络事件,worker之间是平等的,他们共同竞争来处理来自客户端的请求。

Nginx启动-》启动主进程(Master)-》Master进程读取并校验配置文件nginx.conf-》开启若干子进程(Worker)接收用户请求-》Worker子进程解析请求URL,根据配置文件中的映射关系找到对应资源。

worker的工作模式

worker对于连接是采用争抢的模式,谁先抢到就先交给谁处理,如果想要重新更新配置,由于已经抢到任务的worker不会参与争抢,那些空闲的worker就会去争抢连接,拿到连接后会自动更新配置信息,当那些有任务的worker完成任务后,会自动更新配置,这样就实现了无缝热部署。由于每个worker是独立的进程,如果有其中的一个worker出现问题,并不会影响其它worker继续进行争抢,在实现请求的过程,不会造成服务中断,建议worker数和服务器的cpu数相等是最为适宜的。

如何计算worker连接数?

    如果只访问nginx的静态资源,一个发送请求会占用了 woker 的 2 个连接数

    而如果是作为反向代理服务器,一个发送请求会占用了 woker 的 4 个连接数

如何计算最大的并发数?

    如果只访问nginx的静态资源,最大并发数量应该是: worker_connections * worker_processes / 2

    而如果是作为反向代理服务器,最大并发数量应该是:worker_connections * worker_processes / 4

    1. 详解

每次修改配置文件,都要重载或重启Nginx才能生效

systemctl reload nginx

最简配置

worker_processes  1;                              #启动的worker进程数,通常设为等于CPU内核数

events {

worker_connections  1024;                     #每个worker进程的连接数

}

http {

    include       mime.types;                     #设定mime类型(请求返回的content-type),类型由mime.type文件定义

    default_type  application/octet-stream;       #mime.type文件未定义时,使用此处定义的mime类型

    sendfile        on;                           #是否零拷贝输出文件(不经Nginx内存),下载等重磁盘IO应用可设为on

    keepalive_timeout  65;                        #连接超时时间

    server {                                      #一个nginx可以启用多个server(虚拟服务器/虚拟主机)

        listen       80;                          #监听端口

        server_name  localhost;                   #定义使用www.xx.com访问

        location / {

            root   html;                          #定义服务器的默认网站根目录位置

            index  index.html index.htm;          #定义首页索引文件的名称

        }

        error_page   500 502 503 504  /50x.html;  #遇到指定错误码时转到指定页面如“域名/50x.html”

        location = /50x.html {                    #指定到root文件夹下找/50x.htm

            root   html;

        }

    }

}

超全配置切勿直接用于生产环境

#全局指令配置

user www-data;                              #worker进程运行用户(组),一般用于启动程序,没有密码

worker_processes 1;                         #启动的worker进程数,通常设为等于CPU内核数

error_log  /var/log/nginx/error.log;        #全局错误日志及类型(debug|info|notice|warn|error|crit|alert|emerg),默认error

#error_log /var/log/nginx/error.log info;

pid        /var/run/nginx.pid;              #进程PID文件

worker_rlimit_nofile 65535;                 #worker进程最大打开文件数,默认为系统上限值ulimit -n

#网络连接配置

events {

    use epoll;                                      #参考事件模型(kqueue|rtsig|epoll|select|poll)注1

    worker_connections 1024;                        #每个worker进程的连接数

    # multi_accept on;

}

#配置代理,缓存,日志第三方模块等绝大多数功能

http {

    resolver          192.168.2.11 valid=30s;       #全局域名解析服务器地址、DNS缓存更新间隔

    resolver_timeout  10s;                          #域名解析超时时间

    include           /etc/nginx/mime.types;        #设定mime类型(请求返回的content-type),类型由mime.type文件定义

    default_type      application/octet-stream;     #mime.type文件未定义时,使用此处定义的mime类型

    charset           utf-8;                        #默认编码

    access_log        /var/log/nginx/access.log;    #设定日志格式

    sendfile                on;                     #是否零拷贝输出文件(不经Nginx内存),下载等重磁盘IO应用可设为on

    autoindex               on;                     #开启目录列表访问,适合下载服务器,默认关闭

    tcp_nopush              on;                     #防止网络阻塞

    tcp_nodelay             on;                     #防止网络阻塞

    keepalive_timeout       65;                     #连接超时时间(秒)

    variables_hash_max_size          1024;          #Nginx变量的哈希表大小

    variables_hash_bucket_size       64;            #Nginx变量的哈希桶大小

    types_hash_max_size              1024;          #MIME类型映射表的哈希表大小

    types_hash_bucket_size           64;            #MIME类型映射表的哈希桶大小

    server_names_hash_max_size       1024;          #服务主机名哈希表大小

    server_names_hash_bucket_size    128;           #服务主机名哈希桶大小

    client_header_buffer_size        1k;            #客户请求头缓冲区大小

    large_client_header_buffers      4 4k;          #超大客户请求头缓冲区大小

    client_max_body_size 8m;                        #设定请求缓冲?

    ignore_invalid_headers on; # 忽略请求头中无效的属性名

    underscores_in_headers on; # 允许请求头的属性名中有下划线“_”

    client_header_timeout 30s; # 读取客户请求头的超时时间是30s

    request_pool_size 4k; # 请求池的大小是4K

    merge_slashes on; # 当URI中有连续的斜线时做合并处理

    server_tokens off; # 当返回错误信息时,不显示Nginx服务的版本号信息

    msie_padding on; # 当客户端请求出错时,在响应数据中添加注释

    subrequest_output_buffer_size 8k; # 子请求响应报文缓冲区大小为8KB

    lingering_close on; # Nginx主动关闭连接时启用延迟关闭

    lingering_time 60s; # 延迟关闭的处理数据的最长时间是60s

    lingering_timeout 5s; # 延迟关闭的超时时间是5s

    reset_timedout_connection on; # 当Nginx主动关闭连接而客户端无响应时,在连接超时后进行关闭

    log_not_found on; # 将未找到文件的错误信息记录到日志中

    log_subrequest on; # 将子请求的访问日志记录到访问日志中

    error_page 404 /404.html; # 所有请求的404状态码返回404.html文件的数据

    error_page 500 502 503 504 /50x.html; # 所有请求的500、502、503、504状态码返回50×.html文件的数据

    include /etc/nginx/conf.d/*.conf;

    include /etc/nginx/sites-enabled/*;

    #FastCGI相关参数是为了改善网站的性能:减少资源占用,提高访问速度。

    fastcgi_connect_timeout 300;

    fastcgi_send_timeout 300;

    fastcgi_read_timeout 300;

    fastcgi_buffer_size 64k;

    fastcgi_buffers 4 64k;

    fastcgi_busy_buffers_size 128k;

    fastcgi_temp_file_write_size 128k;

    #gzip模块设置

    gzip on;                                        #开启gzip压缩输出

    gzip_disable "MSIE [1-6]\.(?!.*SV1)";

    gzip_min_length 1k;                             #最小压缩文件大小

    gzip_buffers 4 16k;                             #压缩缓冲区

    gzip_http_version 1.0;                          #压缩版本(默认1.1,前端如果是squid2.5请使用1.0)

    gzip_comp_level 2;                              #压缩等级

    gzip_types text/plain application/x-javascript text/css application/xml; #压缩类型

    gzip_vary on;                                   #增加响应头'Vary: Accept-Encoding'

    limit_zone crawler $binary_remote_addr 10m;     #开启限制IP连接数的时候需要使用

    #设定负载均衡的服务器列表,可设置多组给不用的server使用

    upstream mysvr {

        server 192.168.8.1:3128 weight=5;

        server 192.168.8.2:80  weight=1;

        server 192.168.8.3:80  weight=6;

    }

    #配置虚拟主机一个http中可以有多个server

    server {

        listen        80;         #监听端口注2

        server_name   www.xx.com; #服务名,多个服务名用空格隔开,匹配规则:完整匹配、通配符匹配(前匹配、后匹配)、正则匹配

        charset       utf-8;                                 #字符集

        access_log    logs/www.xx.com.access.log  main;      #本虚拟主机的访问日志

        # 保持链接配置

        keepalive_disable msie6;     # 对MSIE6版本的客户端关闭保持连接机制

        keepalive_requests 1000;     # 保持连接可复用的HTTP连接为1000个

        keepalive_timeout 60s;       # 保持连接空置超时时间为60s

        tcp_nodelay on;              # 当处于保持连接状态时,以最快的方式发送数据包

        # 本地文件相关配置

        root /data/website;          # 当前服务对应本地文件访问的根目录是/data/website

        disable_symlinks off;        # 对本地文件路径中的符号链接不做检测

        #默认请求

        location / {

            root /root;                                             #定义网站根目录,默认为nginx安装主目录下的html目录

            index index.html index.htm;                             #定义首页文件名称

            fastcgi_pass  www.xx.com;

            fastcgi_param  SCRIPT_FILENAME  $document_root/$fastcgi_script_name;

            include /etc/nginx/fastcgi_params;

        }

        #配置错误跳转页面

        error_page 404             /404.html;

        error_page 500 502 503 504 /50x.html;

        #指定到root文件夹下找错误跳转页面

        location = /404.html {

            root   /root;

        }

        location = /50x.html {

            root   /root;

        }

        #@用来定义一个命名location。主要用于内部重定向,不能用来处理正常的请求

        location @nofile {

            index nofile.html

        }

        #静态文件,Nginx自己处理

        location ~ ^/(images|JavaScript|js|css|flash|media|static)/ {

            root /var/www/virtual/htdocs;

            expires 30d; #静态文件过期时间

        }

        # 静态文件场景

        location /static {

            server_name_in_redirect on; # 在重定向时,拼接服务主机名

            port_in_redirect on; # 在重定向时,拼接服务主机端口

            if_modified_since exact; # 当请求头中有if_modified_since属性时,与被请求的本地文件修改时间做精确匹配处理

            etag on; #启用etag功能

            msie_refresh on; # 当客户端是msie时,以添加HTML头信息的方式执行跳转

            open_file_cache max=1000 inactive=20s;# 对被打开文件启用缓存支持,缓存元素数最大为1000个,不活跃的缓存元素保存20s

            open_file_cache_errors on; #对无法找到文件的错误元素也进行缓存

            open_file_cache_min_uses 2; #缓存中的元素至少要被访问两次才为活跃

            open_file_cache_valid 60s; #每60s对缓存元素与本地文件进行一次检查

        }

        # 上传场景

        location /upload {

            alias /data/upload #将upload的请求重定位到目录/data/upload

            limit_except GET { #对除GET以外的所有方法进行限制

                allow 192.168.100.1; #允许192.168.100.1执行所有请求方法

                deny all; #其他IP只允许执行GET方法

            }

            client_max_body_size 200m;# 允许上传的最大文件大小是200MB

            client_body_buffer_size 16k;# 上传缓冲区的大小是16KB

            client_body_in_single_buffer on;# 上传文件完整地保存在临时文件中

            client_body_in_file_only off;# 不禁用上传缓冲区

            client_body_temp_path /tmp/upload 1 2;# 设置请求体临时文件存储目录

            client_body_timeout 120s;# 请求体接收超时时间为120s

        }

        # 下载场景

        location /download {

            alias /data/upload; #将download的请求重定位到目录/data/upload

            default_type application/octet-stream; # 设置当前目录所有文件默认MIME类型为application/octet-stream

            try_files $uri @nofile; #当文件不存在时,跳转到location @nofile

            sendfile on; #开启零复制文件传输功能

            sendfile_max_chunk 1M; #每个sendfile调用的最大传输量为1MB

            tcp_nopush on; #启用最小传输限制功能

            aio on; #启用异步传输

            directio 5M; #当文件大于5MB时以直接读取磁盘方式读取文件

            directio_alignment 4096; #与磁盘的文件系统对齐

            output_buffers 4 32k; #文件输出的缓冲区为128KB

            limit_rate 1m; #限制下载速度为1MB

            limit_rate_after 2m; #当客户端下载速度达到2MB时,进入限速模式

            max_ranges 4096; #客户端执行范围读取的最大值是4096B

            send_timeout 20s; #客户端引发传输超时时间为20s

            postpone_output 2048; #当缓冲区的数据达到2048B时再向客户端发送

            chunked_transfer_encoding on; #启用分块传输标识

        }

        #php 脚本请求全部转发到 FastCGI处理. 使用FastCGI默认配置

        location ~ \.php$ {

            root /root;

            fastcgi_pass 127.0.0.1:9000;

            fastcgi_index index.php;

            fastcgi_param SCRIPT_FILENAME /home/www/www$fastcgi_script_name;

            include fastcgi_params;

        }

        #设定查看Nginx状态的地址

        location /NginxStatus {

            stub_status            on;

            access_log              on;

            auth_basic              "NginxStatus";

            auth_basic_user_file  conf/htpasswd;

        }

        #设定反向代理

        location ~ .*\.aspx$ {

            root  /root;                            #定义网站根目录,默认为nginx安装主目录下的html目录

            index index.php index.html index.htm;   #定义首页文件名称

            proxy_pass  http://mysvr ;              #请求跳转地址(要反向代理的地址)

            proxy_redirect off;                     #是否开启重定向

            proxy_set_header Host $host;

            proxy_set_header X-Real-IP $remote_addr;

            proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; #后端服务器可通过X-Forwarded-For获取用户真实IP

            client_max_body_size 10m;               #允许客户端请求的最大单文件字节数

            client_body_buffer_size 128k;           #缓冲区代理缓冲用户端请求的最大字节数,

            proxy_connect_timeout 90;               #nginx跟后端服务器连接超时时间(代理连接超时)

            proxy_send_timeout 90;                  #后端服务器数据回传时间(代理发送超时)

            proxy_read_timeout 90;                  #连接成功后,后端服务器响应时间(代理接收超时)

            proxy_buffer_size 4k;                   #设置代理服务器(nginx)保存用户头信息的缓冲区大小

            proxy_buffers 4 32k;                    #proxy_buffers缓冲区,网页平均在32k以下的话,这样设置

            proxy_busy_buffers_size 64k;            #高负荷下缓冲大小(proxy_buffers*2)

            proxy_temp_file_write_size 64k;         #设定缓存文件夹大小,大于这个值,将从upstream服务器传

        }

        #禁止访问 .htxxx 文件

        location ~ /\.ht {

            deny all;

        }

     }

    #配置https服务,安全的网络传输协议,加密传输,端口443

    server {

        listen       443 ssl;

        server_name  localhost;

        ssl_certificate      cert.pem;

        ssl_certificate_key  cert.key;

        ssl_session_cache    shared:SSL:1m;

        ssl_session_timeout  5m;

        ssl_ciphers  HIGH:!aNULL:!MD5;

        ssl_prefer_server_ciphers  on;

        location / {

            root   html;

            index  index.html index.htm;

        }

    }

}

注:

  1. epoll模型是Linux 2.6以上版本内核中的多路复用I/O模型,如果跑在FreeBSD上面,就用kqueue模型。
  2. listen指令可添加一些参数如:
    listen *:8000 default_server fastopen=30 deferred reuseport backlog=1024 so_keepalive=on;
    参数含义:
    default_server 设为主服务
    fastopen=30 开启fastopen功能并限定最大队列数
    deferred 拒绝空数据连接
    reuseport 工作进程共享socket监听端口
    backlog=1024 请求阻塞时挂起队列数
    so_keepalive=on socket为保持连接时开启状态检测功能
  3.  

需求1:访问http://www.123.com,跳转到 Liunx 系统 Tomcat 主页面中。

实现思路:请求www.123.com-》hosts文件域名映射表中查到对应IP-》IP+端口号80查到Nginx虚拟主机-》Nginx将请求发送给Tomcat

实现步骤:

  1. 修改hosts文件添加IP域名映射:

192.168.206.128 www.123.com

  1. 修改Nginx中的配置文件,然后启动Nginx:

[root@caochenlei ~]# vi /usr/local/nginx/conf/nginx.conf

添加:

    server {

        listen       80;

        server_name  192.168.206.128;

        #charset koi8-r;

        #access_log  logs/host.access.log  main;

        location / {

            proxy_pass http:127.0.0.1:8080;

            root   html;

            index  index.html index.htm;

        }

    }

[root@caochenlei ~]# /usr/local/nginx/sbin/nginx

[root@caochenlei ~]# /usr/local/tomcat/bin/startup.sh

  1. 关闭服务:

[root@caochenlei ~]# /usr/local/nginx/sbin/nginx -s quit

[root@caochenlei ~]# /usr/local/tomcat/bin/shutdown.sh

需求2:使用 nginx 反向代理,根据访问的路径跳转到不同端口的服务中。

访问http://192.168.206.128/edu/a.html,跳转到8080端口服务

访问http://192.168.206.128/vod/a.html,跳转到8081端口服务

实现思路:

请求www.123.com/edu/a.html-》hosts中查到域名对应IP-》IP+端口号80查到Nginx虚拟主机-》路径edu匹配location查到proxy_pass;

请求www.123.com/vod/a.html-》hosts中查到域名对应IP-》IP+端口号80查到Nginx虚拟主机-》路径vod匹配location查到proxy_pass;

实现步骤:

  1. 拷贝两个Tomcat,将其中一个的端口修改为8081并开放防火墙,各自添加测试页面,各自启动Tomcat:
    [root@caochenlei ~]# /sbin/iptables -I INPUT -p tcp --dport 8081 -j ACCEPT

[root@caochenlei ~]# /etc/rc.d/init.d/iptables save

[root@caochenlei ~]# mkdir -p /usr/local/tomcat1/webapps/edu

[root@caochenlei ~]# echo "<h1>This is 8080 Port</h1>" > /usr/local/tomcat1/webapps/edu/a.html

[root@caochenlei ~]# mkdir -p /usr/local/tomcat2/webapps/vod

[root@caochenlei ~]# echo "<h1>This is 8081 Port</h1>" > /usr/local/tomcat2/webapps/vod/a.html

[root@caochenlei ~]# /usr/local/tomcat1/bin/startup.sh

[root@caochenlei ~]# /usr/local/tomcat2/bin/startup.sh

  1. 修改hosts文件添加IP域名映射(前例已做)
  2. 修改Nginx中的配置文件并启动:

[root@caochenlei ~]# vi /usr/local/nginx/conf/nginx.conf

添加:

    server {

        listen       80;

        server_name  192.168.206.128;

        #charset koi8-r;

        #access_log  logs/host.access.log  main;

        location ~ /edu/ {

            proxy_pass http://127.0.0.1:8080;

        }

        location ~ /vod/ {

            proxy_pass http://127.0.0.1:8081;

        }

    }

[root@caochenlei ~]# /usr/local/nginx/sbin/nginx

  1. 关闭服务:

[root@caochenlei ~]# /usr/local/nginx/sbin/nginx -s quit

[root@caochenlei ~]# /usr/local/tomcat1/bin/shutdown.sh

[root@caochenlei ~]# /usr/local/tomcat2/bin/shutdown.sh

location通配符说明

= :用于不含正则表达式的 uri 前,要求请求字符串与 uri 严格匹配,如果匹配成功,就停止继续向下搜索并立即处理该请求。

~ :用于表示 uri 包含正则表达式,并且区分大小写。

~* :用于表示 uri 包含正则表达式,不区分大小写。

^~ :用于不含正则表达式的 uri 前,要求当找到 uri 和请求字符串匹配度最高的 location 后,立即使用此 location 处理请求,而不再使用 location 块中的正则 uri 和请求字符串做匹配。

注意:如果 uri 包含正则表达式,则必须要有 ~ 或者 ~* 标识。

需求:将请求 http://192.168.206.128/edu/a.html平均到 8080 和 8081 端口中

实现步骤:

  1. 修改Nginx中的配置文件,然后启动Nginx:

[root@caochenlei ~]# vi /usr/local/nginx/conf/nginx.conf

增加、修改黄色标内容:

    upstream myserver {

        server 192.168.206.128:8080;

        server 192.168.206.128:8081;

    }

    server {

        listen       80;

        server_name  192.168.206.128;

        #charset koi8-r;

        #access_log  logs/host.access.log  main;

        location / {

            proxy_pass http://myserver;

        }

    }

[root@caochenlei ~]# /usr/local/nginx/sbin/nginx

2)在Tomcat2添加页面并启动两个Tomcat

[root@caochenlei ~]# mkdir -p /usr/local/tomcat2/webapps/edu

[root@caochenlei ~]# echo "<h1>This is 8081 Port</h1>" > /usr/local/tomcat2/webapps/edu/a.html

[root@caochenlei ~]# /usr/local/tomcat1/bin/startup.sh

[root@caochenlei ~]# /usr/local/tomcat2/bin/startup.sh

3)测试效果

浏览器请求并多次刷新查看页面效果:http://192.168.206.128/edu/a.html

4)关闭服务

[root@caochenlei ~]# /usr/local/nginx/sbin/nginx -s quit

[root@caochenlei ~]# /usr/local/tomcat1/bin/shutdown.sh

[root@caochenlei ~]# /usr/local/tomcat2/bin/shutdown.sh

分配策略(负载均衡算法)

算法

描述

配置示例

轮询(默认)

每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除

upstream myserver {

    server 192.168.0.14:88;

    server 192.168.0.15:80;

}

随机

加权轮询

指定轮询几率,用于后端服务器性能不均的情况。

weight默认为1。

upstream myserver {

    server 192.168.0.14 weight=10;

    server 192.168.0.15 weight=10;

}

加权随机

ip_hash

每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题

缺点:如果某些ip请求太多,导致负载不均衡

upstream myserver {

    ip_hash;

    server 192.168.0.14:88;

    server 192.168.0.15:80;

}

url_hash(第三方)

按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存时比较有效

upstream myserver {

    server squid1:3128;

    server squid2:3128;

    hash $request_uri;

    hash_method crc32;

}

最少响应时间

fair(第三方)

按后端服务器的响应时间来分配请求,响应时间短的优先分配

upstream myserver {

    server server1;

    server server2;

    fair;

}

最少连接数(Least Connections)

容错机制

max_fails :允许请求失败的次数,默认为1。超过限制时,返回proxy_next_upstream定义的错误

fail_timeout:max_fails次失败后,暂停的时间

upstream myserver {

    # 10s内出现3次错误,该服务器将被熔断10s

    server 192.168.2.154:8080 max_fails=3 fail_timeout=10s;

    server 192.168.2.109:8080 max_fails=3 fail_timeout=10s;

    server 192.168.2.108:8080 max_fails=3 fail_timeout=10s;

    server 192.168.2.107:8080 max_fails=3 fail_timeout=10s;

}

其他配置

down 表示单前的server暂时不参与负载

backup: 其它所有的非backup机器down或者忙的时候,请求backup机器。所以这台机器压力会最轻。

upstream myserver {

    server 127.0.0.1:9090 down;

    server 127.0.0.1:8080;

    server 127.0.0.1:6060;

    server 127.0.0.1:7070 backup;

}

Nginx 动静分离简单来说就是把动态跟静态请求分开,不能理解成只是单纯的把动态页面和静态页面物理分离。严格意义上说应该是动态请求跟静态请求分开,可以理解成使用 Nginx 处理静态页面,Tomcat 处理动态页面。

动静分离从目前实现角度来讲大致分为两种:

  1. 一种是纯粹把静态文件独立成单独的域名,放在独立的服务器上,也是目前主流推崇的方案;
  2. 另一种是动态跟静态文件混合在一起发布,通过 Nginx 来分开。

实现效果

如果不设置动静分离,默认会通过Nginx的反向代理去找Tomcat对应的资源,现在我们在根目录下创建一个/data/www/文件夹,里边放上静态资源,比如一个html页面,在8080的那台Tomcat的webapps下也创建一个www目录,同样是放一个静态资源,当输入这个静态资源的请求时,访问到的是/data/www中的数据

实现步骤

第一步:创建静态资源文件,为了对比,tomcat中也放一个

[root@caochenlei ~]# mkdir -p /data/www/

[root@caochenlei ~]# mkdir -p /usr/local/tomcat/webapps/ROOT/www

[root@caochenlei ~]# echo "<h1>/data/www/a.html</h1>" > /data/www/a.html

[root@caochenlei ~]# echo "<h1>/usr/local/tomcat/webapps/ROOT/www/a.html</h1>" > /usr/local/tomcat/webapps/ROOT/www/a.html

第二步:修改Nginx的配置文件,然后启动Nginx

[root@caochenlei ~]# vi /usr/local/nginx/conf/nginx.conf

增加黄色标内容:

    server {

        listen       80;

        server_name  192.168.206.128;

        #charset koi8-r;

        #access_log  logs/host.access.log  main;

        location /www/ {

            root /data/;

            index index.html index.htm;

        }

    }

[root@caochenlei ~]# /usr/local/nginx/sbin/nginx

第三步:启动Tomcat

[root@caochenlei ~]# /usr/local/tomcat/bin/startup.sh

第四步:启动浏览器进行测试

打开浏览器输入: http://192.168.206.128/www/a.html

将输出:/data/www/a.html

第五步:关闭服务

[root@caochenlei ~]# /usr/local/nginx/sbin/nginx -s quit

[root@caochenlei ~]# /usr/local/tomcat/bin/shutdown.sh

实现步骤:

第〇步:准备一台全新的虚拟机,安装Nginx(参考单实例安装部分)。

第一步:修改节点上的Nginx的配置文件,然后启动Nginx

[root@caochenlei ~]# vi /usr/local/nginx/conf/nginx.conf

修改:

    upstream myserver {

        server 192.168.206.128:8080;

        server 192.168.206.128:8081;

    }

    server {

        listen       80;

        server_name  192.168.206.128;

        #charset koi8-r;

        #access_log  logs/host.access.log  main;

        location / {

            proxy_pass http://myserver;

        }

    }

[root@caochenlei ~]# /usr/local/nginx/sbin/nginx

第二步:启动主节点上的两台Tomcat

[root@caochenlei ~]# /usr/local/tomcat1/bin/startup.sh

[root@caochenlei ~]# /usr/local/tomcat2/bin/startup.sh

第三步:节点安装keepalived

安装keepalived:

[root@caochenlei ~]# yum install -y keepalived

删除keepalived的配置文件:

[root@caochenlei ~]# rm -f /etc/keepalived/keepalived.conf

新增keepalived的配置文件:

[root@caochenlei ~]# vi /etc/keepalived/keepalived.conf

注意:一定要注意主备节点区分router_id、state、interface的值,以下为主节点配置:

! Configuration File for keepalived

global_defs {

   notification_email {

     acassen@firewall.loc

     failover@firewall.loc

     sysadmin@firewall.loc

   }

   notification_email_from Alexandre.Cassen@firewall.loc

   #邮件服务器通知地址(暂不配置,默认即可)

   smtp_server 192.168.200.1

   #邮件服务器超时时间(暂不配置,默认即可)

   smtp_connect_timeout 30

   #当前虚拟机的IP地址(备份节点为:192.168.206.129)

   router_id 192.168.206.128

}

vrrp_script Monitor_Nginx {

 script "/etc/keepalived/nginx_check.sh"    #检测脚本执行的路径

 interval 2                                 #检测脚本执行的间隔

 weight 2                                   #检测脚本执行的权重

}

vrrp_instance VI_1 {

    state MASTER         #标识这个机器是MASTER还是BACKUP(备份节点为:BACKUP)

    interface eth0       #当前机器的网卡名称(备份节点ifconfig命令自行查询)  

    virtual_router_id 51 #虚拟路由的编号,主备必须一致

    priority 100         #主、备机取不同的优先级,主机值较大,备份机值较小

    advert_int 1         #(VRRP Multicast广播周期秒数)

    authentication {

        auth_type PASS   #(VRRP认证方式)

        auth_pass 1111   #(密码)

    }

    track_script {

Monitor_Nginx #(调用nginx进程检测脚本)

}

    virtual_ipaddress {

        192.168.206.50  #虚拟IP地址

    }

}

新增keepalived的检测脚本:

[root@caochenlei ~]# vi /etc/keepalived/nginx_check.sh

#!/bin/bash

if [ "$(ps -ef | grep "nginx: master process" | grep -v grep )" == "" ]

 then

 killall keepalived

fi

启动keepalived服务:

[root@caochenlei ~]# service keepalived start

第四步:测试效果

测试两个Nginx是否能正确的将请求分发到不同的Tomcat(负载均衡),浏览器请求并多次刷新查看页面效果:

http://192.168.206.128/edu/a.html

http://192.168.206.129/edu/a.html

测试虚拟IP能不能实现负载均衡,浏览器请求并多次刷新查看页面效果:

http://192.168.206.50/edu/a.html

测试主节点挂掉,从节点会不会自动顶上:打开主节点机器,查看相关进程,杀死Nginx,然后浏览器从虚拟IP访问页面:

http://192.168.206.50/edu/a.html

如果负载均衡的效果还在,说明配置成功了。

第五步:关闭服务

主机节点

[root@caochenlei ~]# service keepalived stop

[root@caochenlei ~]# /usr/local/nginx/sbin/nginx -s quit

[root@caochenlei ~]# /usr/local/tomcat1/bin/shutdown.sh

[root@caochenlei ~]# /usr/local/tomcat2/bin/shutdown.sh

备份节点

[root@caochenlei ~]# service keepalived stop

[root@caochenlei ~]# /usr/local/nginx/sbin/nginx -s quit

keepalived VS zookeeper

两者都可以做高可用HA,那么有什么区别呢?

1.从主被动的角度考虑

我们知道,nginx server通常和keepalived进行结合,那么keepalived是怎么知道nginx是否存活呢?是nginx主动向keepalived汇报信息?不是的。keepalived是主动向nginx发送请求,如果有响应,那么则nginx可用。

对于zookeeper而言,HDFS,HBase,Yarn基于zookeeper做高可用,这里的zookeeper就是被动的,也就是说HDFS,HBase,Yarn主动向zookeeper中写数据。

2.从负载的角度来考虑

keepalived可以帮助我们做到主从,主从的划分是通过配置文件(主从的priority之差>50)指定的,如果主没有挂掉,那么大量的请求通过主然后负载到后端的nginx,而从如果想要起作用只有等到主挂掉。
而利用zookeeper做HA,zookeeper中可以说是“人人平等”,客户端无论访问follower,还是observer,异或是leader,都能给我们返回相应的结果,可以很好的实现了负载均衡,这也可以说是zookeeper的一个优点。

3.从存储数据的角度

keepalived不可以存储数据,假设keepalived的主现在有50个连接,如果没有外部数据库存储这些连接的信息,主挂了的话,连接信息也就丢了,所以使用keepalived需要一个外部的数据库,但是如果主挂了的同时数据库也挂了,那么就over了,信息就会丢失,或者从起来后,连不上数据库,那么之前的连接信息也会丢失。

zookeeper可以存储数据,zookeeper中可以创建一个zNode,里面存放数据,zookeeper可以做到一个分布式数据的一致性,zookeeper中每个节点的视图是一致的,数据本身可以做到最终一致性,也就是说其中一个server挂了,其他的server还有存的数据,那么这样的话就不需要额外的数据库,zookeeper本身就可以存储一定量的信息。这也可以说是zookeeper的另一个优点。

4.从业务的角度

keepalived可以说比较简单,只需要简单的配置一下就可以了,使用keepalived的场景:如果我们只需要简单的知道当前的业务中哪个是主,哪个是从,那么可以选用keepalived。

如果除了高可用以外,比如kafka,storm等还要想zookeeper中写一些数据,这时候就需要zookeeper。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值