1.简介
Nginx (“engine x”) 是一个高性能的 HTTP 和反向代理服务器,特点是占有内存少,并发能力强,事实上 nginx 的并发能力确实在同类型的网页服务器中表现较好。
Nginx 可以作为静态页面的 web 服务器,同时还支持 CGI 协议的动态语言,比如 perl、php等。但是不支持 java。Java 程序只能通过与 tomcat 配合完成。Nginx 专为性能优化而开发,性能是其最重要的考量,实现上非常注重效率 ,能经受高负载的考验,有报告表明能支持高达 50,000 个并发连接数。
Nginx 不仅可以做反向代理,实现负载均衡。还能用作正向代理来进行上网等功能。
2.相关概念
-
正向代理:如果把局域网外的 Internet 想象成一个巨大的资源库,则局域网中的客户端要访问 Internet,则需要通过代理服务器来访问,这种代理服务就称为正向代理。(即:需要在客户端配置代理服务器进行指定网站访问)
-
反向代理:其实客户端对代理是无感知的,因为客户端不需要任何配置就可以访问,我们只需要将请求发送到反向代理服务器,由反向代理服务器去选择目标服务器获取数据后,在返回给客户端,此时反向代理服务器和目标服务器对外就是一个服务器,暴露的是代理服务器地址,隐藏了真实服务器 IP 地址。(即:暴露的是代理服务器地址,隐藏了真实服务器IP地址)
-
负载均衡:并发请求量大时,增加服务器的数量,然后将请求分发到各个服务器上,将原先请求集中到单个服务器上的情况改为将请求分发到多个服务器上,将负载分发到不同的服务器。(即:增加服务器的数量,然后将请求分发到各个服务器上,将原先请求集中到单个服务器上的情况改为将请求分发到多个服务器上,将负载分发到不同的服务器,也就是我们所说的负载均衡)
-
动静分离:为了加快网站的解析速度,可以把动态页面和静态页面由不同的服务器来解析,加快解析速度。降低原来单个服务器的压力。
3.安装运行
- 安装pcre(依赖)
#将安装包放入 usr/src 目录下
[root@devops src]# ls
debug kernels nginx-1.12.2.tar.gz pcre-8.37.tar.gz
#解压该压缩文件
[root@devops src]# tar -xvf pcre-8.37.tar.gz
[root@devops src]# cd pcre-8.37/
[root@devops pcre-8.37]# ./configure
#编译
[root@devops pcre-8.37]# make && make install
#验证是否安装成功
[root@devops pcre-8.37]# pcre-config --version
8.37
- 安装其他依赖
[root@devops ~]# yum -y install make zlib zlib-devel gcc-c++ libtool openssl openssl-devel
- 安装nginx
#将安装包放入 /src目录下
[root@devops src]# ls
daemonize nginx-1.12.2.tar.gz prometheus-2.17.1.linux-amd64 pushgateway-1.2.0.linux-amd64.tar.gz
#解压该压缩文件
[root@devops src]# tar -vxf nginx-1.12.2.tar.gz
[root@devops src]# cd nginx-1.12.2/
[root@devops nginx-1.12.2]# ./configure
#编译
[root@devops src]# make && make install
#验证是否安装成功
[root@devops sbin]# ls
nginx
[root@devops sbin]# pwd
/usr/local/nginx/sbin
#启动nginx
[root@devops sbin]# ./nginx
[root@devops sbin]# ps -ef | grep nginx
root 3196 1 0 22:28 ? 00:00:00 nginx: master process ./nginx
nobody 3198 3196 0 22:28 ? 00:00:00 nginx: worker process
root 3219 2996 0 22:29 pts/0 00:00:00 grep --color=auto nginx
#查看配置文件
[root@devops ~]# cd /usr/local/nginx/conf/
[root@devops conf]# ls
fastcgi.conf koi-utf nginx.conf uwsgi_params
fastcgi.conf.default koi-win nginx.conf.default uwsgi_params.default
fastcgi_params mime.types scgi_params win-utf
fastcgi_params.default mime.types.default scgi_params.default
[root@devops conf]# vim nginx.conf
#查看已开发的端口
[root@devops conf]# firewall-cmd --list-all
public (active)
target: default
icmp-block-inversion: no
interfaces: ens33
sources:
services: dhcpv6-client ssh
ports:
protocols:
masquerade: no
forward-ports:
source-ports:
icmp-blocks:
rich rules:
#添加开放端口
[root@devops conf]# firewall-cmd --add-port=80/tcp --permanent
success
#重启防火墙
[root@devops conf]# firewall-cmd --reload
success
#查看防火墙开放的端口
[root@devops conf]# firewall-cmd --list-all
public (active)
target: default
icmp-block-inversion: no
interfaces: ens33
sources:
services: dhcpv6-client ssh
ports: 80/tcp
protocols:
masquerade: no
forward-ports:
source-ports:
icmp-blocks:
rich rules:
验证是否安装成功
默认启动端口为80
4.常见命令
#使用nginx的时候必须进入该目录
[root@devops sbin]# cd /usr/local/nginx/sbin/
#查看nginx版本
[root@devops sbin]# ./nginx -v
nginx version: nginx/1.12.2
#启动nginx
[root@devops sbin]# ./nginx
#停止nginx
[root@devops sbin]# ./nginx -s stop
#重新加载nginx
[root@devops sbin]# ./nginx -s reload
5.配置文件
#配置文件中的内容,包含三部分
#1、全局块:配置服务器整体运行的配置指令(比如 worker_processes 1;处理并发数的配置)
#2、events块:影响 Nginx 服务器与用户的网络连接(比如 worker_connections 1024; 支持的最大连接数为 1024)
#3、http块:包含 http 全局块和 server 块两部分
#配置文件位置
[root@devops conf]# vim /usr/local/nginx/conf/nginx.conf
#从配置文件开始到 events 块之间的内容,主要会设置一些影响 nginx 服务器整体运行的配置指令,主要包括配置运行 Nginx 服务器的用户(组)、允许生成的 worker process 数,进程 PID 存放路径、日志存放路径和类型以及配置文件的引入等。
#user nobody;
#服务器并发处理服务的关键配置,worker_processes 值越大,可以支持的并发处理量也越多,但是会受到硬件、软件等设备的制约
worker_processes 1;
#error_log logs/error.log;
#error_log logs/error.log notice;
#error_log logs/error.log info;
#pid logs/nginx.pid;
#events 块涉及的指令主要影响 Nginx 服务器与用户的网络连接,常用的设置包括是否开启对多 work process 下的网络连接进行序列化,是否允许同时接收多个网络连接,选取哪种事件驱动模型来处理连接请求,每个 word process 可以同时支持的最大连接数等
events {
worker_connections 1024;
}
#上述例子就表示每个 work process 支持的最大连接数为 1024
#这部分的配置对 Nginx 的性能影响较大,在实际中应该灵活配置
#这算是 Nginx 服务器配置中最频繁的部分,代理、缓存和日志定义等绝大多数功能和第三方模块的配置都在这里。需要注意的是:http 块也可以包括 http 全局块、server 块。
http {
#http 全局块配置的指令包括文件引入、MIME-TYPE 定义、日志自定义、连接超时时间、单链接请求数上限等。
include mime.types;
default_type application/octet-stream;
#log_format main '$remote_addr - $remote_user [$time_local] "$request" '
# '$status $body_bytes_sent "$http_referer" '
# '"$http_user_agent" "$http_x_forwarded_for"';
#access_log logs/access.log main;
sendfile on;
#tcp_nopush on;
#keepalive_timeout 0;
keepalive_timeout 65;
#gzip on;
#这块和虚拟主机有密切关系,虚拟主机从用户角度看,和一台独立的硬件主机是完全一样的,该技术的产生是为了节省互联网服务器硬件成本。每个 http 块可以包括多个 server 块,而每个 server 块就相当于一个虚拟主机。而每个 server 块也分为全局 server 块,以及可以同时包含多个 locaton 块。
server {
#全局 server 块,常见的配置是本虚拟机主机的监听配置和本虚拟主机的名称或 IP 配置。
listen 80;
server_name localhost;
#charset koi8-r;
#access_log logs/host.access.log main;
#一个 server 块可以配置多个 location 块。这块的主要作用是基于 Nginx 服务器接收到的请求字符串(例如 server_name/uri-string),对虚拟主机名称(也可以是 IP 别名)之外的字符串(例如 前面的 /uri-string)进行匹配,对特定的请求进行处理。地址定向、数据缓存和应答控制等功能,还有许多第三方模块的配置也在这里进行。
location / {
root html;
index index.html index.htm;
}
#error_page 404 /404.html;
# redirect server error pages to the static page /50x.html
#
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root html;
}
# proxy the PHP scripts to Apache listening on 127.0.0.1:80
#
#location ~ \.php$ {
# proxy_pass http://127.0.0.1;
#}
# pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000
#
#location ~ \.php$ {
# root html;
# fastcgi_pass 127.0.0.1:9000;
# fastcgi_index index.php;
# fastcgi_param SCRIPT_FILENAME /scripts$fastcgi_script_name;
# include fastcgi_params;
#}
# deny access to .htaccess files, if Apache's document root
# concurs with nginx's one
#
#location ~ /\.ht {
# deny all;
#}
}
# another virtual host using mix of IP-, name-, and port-based configuration
#
#server {
# listen 8000;
# listen somename:8080;
# server_name somename alias another.alias;
# location / {
# root html;
# index index.html index.htm;
# }
#}
# HTTPS server
#
#server {
# listen 443 ssl;
# server_name localhost;
# ssl_certificate cert.pem;
# ssl_certificate_key cert.key;
# ssl_session_cache shared:SSL:1m;
# ssl_session_timeout 5m;
# ssl_ciphers HIGH:!aNULL:!MD5;
# ssl_prefer_server_ciphers on;
# location / {
# root html;
# index index.html index.htm;
# }
#}
}
6.配置实例
- 反向代理实例一
实现效果:使用 nginx 反向代理,访问 www.123.com 直接跳转到 127.0.0.1:8080
准备工作:将tomcat放入linux的/usr/src目录下
#解压tomcat
[root@devops src]# tar -xvf apache-tomcat-7.0.70.tar.gz
#安装tomcat前应该先装jdk,一般系统中会自带
[root@devops src]# java -version
#启动tomcat
[root@devops bin]# cd /usr/src/apache-tomcat-7.0.70/bin
[root@devops bin]# ./startup.sh
#查看启动日志
[root@devops logs]# tail -f /usr/src/apache-tomcat-7.0.70/logs/catalina.out
四月 11, 2020 11:59:52 下午 org.apache.catalina.startup.HostConfig deployDirectory
信息: Deploying web application directory /usr/src/apache-tomcat-7.0.70/webapps/manager
四月 11, 2020 11:59:52 下午 org.apache.catalina.startup.HostConfig deployDirectory
信息: Deployment of web application directory /usr/src/apache-tomcat-7.0.70/webapps/manager has finished in 154 ms
四月 11, 2020 11:59:52 下午 org.apache.coyote.AbstractProtocol start
信息: Starting ProtocolHandler ["http-bio-8080"]
四月 11, 2020 11:59:52 下午 org.apache.coyote.AbstractProtocol start
信息: Starting ProtocolHandler ["ajp-bio-8009"]
四月 11, 2020 11:59:52 下午 org.apache.catalina.startup.Catalina start
信息: Server startup in 2818 ms
#对外开放8080端口
[root@devops logs]# firewall-cmd --add-port=8080/tcp --permanent
success
[root@devops logs]# firewall-cmd --reload
success
- 访问过程
- windows服务器浏览器输入www.123.com
- 浏览器先找host文件查找域名映射的ip地址,若无则在网络DNS域名解析器映射的ip
- 在host文件找到映射地址为192.168.17.129:80进行访问到nginx服务器
- nginx服务器进行反向代理到127.0.0.1:8080访问到tomcat
- 具体配置
- 在 windows 系统的 host 文件进行域名和 ip 对应关系的配置
- 在 windows 系统的 host 文件进行域名和 ip 对应关系的配置
- 在 nginx 进行请求转发的配置(反向代理配置)
[root@devops logs]# vim /usr/local/nginx/conf/nginx.conf
- 测试
修改配置文件后,重启nignx服务器[root@devops sbin]# ./nginx
- 反向代理实例二
实现效果:nginx 监听端口为 9001,访问 http://192.168.17.129:9001/edu/ 直接跳转到 127.0.0.1:8080,访问 http:// 192.168.17.129:9001/vod/ 直接跳转到 127.0.0.1:8081
准备工作:准备两个 tomcat 服务器,一个 8080 端口,一个 8081 端口。创建文件夹和测试页面
#进入安装包存放目录
[root@devops ~]# cd /usr/local/src
#新建tomcat8080和8081文件夹
[root@devops src]# mkdir tomcat8080
[root@devops src]# mkdir tomcat8081
[root@devops src]# cd tomcat8080
[root@devops tomcat8080]# rz -E
rz waiting to receive.
[root@devops tomcat8080]# cd /usr/local/src/tomcat8081
[root@devops tomcat8081]# rz -E
rz waiting to receive.
#显示正在运行的tomcat
[root@devops ~]# ps -ef | grep tomcat
root 5049 1 0 18:47 ? 00:00:32 /usr/bin/java -Djava.util.logging.config.file=/usr/src/apache-tomcat-7.0.70/conf/logging.properties -Djava.util.logging.manager=org.apache.juli.ClassLoaderLogManager -Djdk.tls.ephemeralDHKeySize=2048 -Djava.endorsed.dirs=/usr/src/apache-tomcat-7.0.70/endorsed -classpath /usr/src/apache-tomcat-7.0.70/bin/bootstrap.jar:/usr/src/apache-tomcat-7.0.70/bin/tomcat-juli.jar -Dcatalina.base=/usr/src/apache-tomcat-7.0.70 -Dcatalina.home=/usr/src/apache-tomcat-7.0.70 -Djava.io.tmpdir=/usr/src/apache-tomcat-7.0.70/temp org.apache.catalina.startup.Bootstrap start
root 12307 12196 0 22:54 pts/2 00:00:00 grep --color=auto tomcat
#通过ID杀掉这个进程
[root@devops ~]# kill -9 5049
#可看到进程已经处理
[root@devops ~]# ps -ef | grep tomcat
root 12342 12196 0 22:57 pts/2 00:00:00 grep --color=auto tomcat
#解压端口为8080的tomcat
[root@devops ~]# cd /usr/local/src/tomcat8080
[root@devops tomcat8080]# tar -xvf apache-tomcat-9.0.33.tar.gz
#启动8080tomcat
[root@devops tomcat8080]# cd apache-tomcat-9.0.33/bin/
[root@devops bin]# ./startup.sh
Using CATALINA_BASE: /usr/local/src/tomcat8080/apache-tomcat-9.0.33
Using CATALINA_HOME: /usr/local/src/tomcat8080/apache-tomcat-9.0.33
Using CATALINA_TMPDIR: /usr/local/src/tomcat8080/apache-tomcat-9.0.33/temp
Using JRE_HOME: /usr
Using CLASSPATH: /usr/local/src/tomcat8080/apache-tomcat-9.0.33/bin/bootstrap.jar:/usr/local/src/tomcat8080/apache-tomcat-9.0.33/bin/tomcat-juli.jar
Tomcat started.
#解压端口为8081的tomcat
[root@devops ~]# cd /usr/local/src/tomcat8081
[root@devops tomcat8081]# tar -xvf apache-tomcat-9.0.33.tar.gz
#修改端口为8081
[root@devops conf]# vim /usr/local/src/tomcat8081/apache-tomcat-9.0.33/conf/server.xml
...
<Server port="8015" shutdown="SHUTDOWN">
...
<Connector port="8081" protocol="HTTP/1.1"
connectionTimeout="20000"
redirectPort="8443" />
...
#启动
[root@devops bin]# cd /usr/local/src/tomcat8081/apache-tomcat-9.0.33/bin
[root@devops bin]# ./startup.sh
#防火墙开放8081端口
[root@devops bin]# firewall-cmd --add-port=8080/tcp --permanent
#重启防火墙
[root@devops bin]# firewall-cmd --reload
[root@devops tomcat8080]# cd apache-tomcat-9.0.33/
[root@devops apache-tomcat-9.0.33]# cd webapps/
[root@devops webapps]# mkdir edu
[root@devops webapps]# cd edu
[root@devops edu]# vim a.html
<h1>8080!</h1>
[root@devops tomcat8081]# cd apache-tomcat-9.0.33/
[root@devops apache-tomcat-9.0.33]# cd webapps/
[root@devops webapps]# mkdir vod
[root@devops webapps]# cd vod
[root@devops vod]# vim a.html
<h1>8081!</h1>
- 具体配置:找到 nginx 配置文件,进行反向代理配置
[root@devops sbin]# vim /usr/local/nginx/conf/nginx.conf
...
# another virtual host using mix of IP-, name-, and port-based configuration
#
server {
listen 9001;
server_name 192.168.172.156;
#用正则表达式形式,只要包含/edu/就跳转
location ~ /edu/ {
proxy_pass http://127.0.0.1:8080;
}
location ~ /vod/ {
proxy_pass http://127.0.0.1:8081;
}
}
...
#此时需要保证9001、8080、8081端口都开放
[root@devops conf]# firewall-cmd --list-all
public (active)
target: default
icmp-block-inversion: no
interfaces: ens33
sources:
services: dhcpv6-client ssh
ports: 80/tcp 8080/tcp 8081/tcp
protocols:
masquerade: no
forward-ports:
source-ports:
icmp-blocks:
rich rules:
#开放9001端口
[root@devops conf]# firewall-cmd --add-port=9001/tcp --permanent
success
[root@devops conf]# firewall-cmd --reload
success
#重启nginx
[root@devops conf]# cd /usr/local/nginx/sbin/
[root@devops sbin]# ./nginx -s stop
[root@devops sbin]# ./nginx
- 负载均衡
实现效果:浏览器地址栏输入地址 http://192.168.172.156/edu/a.html,负载均衡效果,平均 8080和 8081 端口中
[root@devops tomcat8081]#cd webapps
[root@devops webapps]# mkdir edu
#创建不同地址服务器的相同文件路径
[root@devops edu]# vim a.html
<h1>8081!</h1>
#对nginx配置文件进行修改
[root@devops edu]# vim /usr/local/nginx/conf/nginx.conf
#在 nginx 的配置文件中进行负载均衡的配置
#重启nginx
[root@devops nginx]# cd /usr/local/nginx/sbin/
[root@devops sbin]# ./nginx -s stop
[root@devops sbin]# ./nginx
实验结果:
随着互联网信息的爆炸性增长,负载均衡(load balance)已经不再是一个很陌生的话题,顾名思义,负载均衡即是将负载分摊到不同的服务单元,既保证服务的可用性,又保证响应足够快,给用户很好的体验。快速增长的访问量和数据流量催生了各式各样的负载均衡产品,很多专业的负载均衡硬件提供了很好的功能,但却价格不菲,这使得负载均衡软件大受欢迎,nginx 就是其中的一个,在 linux 下有 Nginx、LVS、Haproxy 等等服务可以提供负载均衡服务,而且 Nginx 提供了几种分配方式(策略):
- 1、轮询(默认)
每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器 down 掉,能自动剔除。 - 2、weight
weight 代表权,重默认为 1,权重越高被分配的客户端越多
指定轮询几率,weight 和访问比率成正比,用于后端服务器性能不均的情况。 例如:
upstream server_pool{
server 192.168.5.21 weight=10;
server 192.168.5.22 weight=10;
} - 3、ip_hash
每个请求按访问 ip 的 hash 结果分配,这样每个访客固定访问一个后端服务器,可以解决 session 的问题。 例如:
upstream server_pool{
ip_hash;
server 192.168.5.21:80;
server 192.168.5.22:80;
} - 4、fair(第三方)
按后端服务器的响应时间来分配请求,响应时间短的优先分配。
upstream server_pool{
server 192.168.5.21:80; server 192.168.5.22:80;fair;
}
- 动静分离
简介解释:Nginx 动静分离简单来说就是把动态跟静态请求分开,不能理解成只是单纯的把动态页面和静态页面物理分离。严格意义上说应该是动态请求跟静态请求分开,可以理解成使用 Nginx 处理静态页面,Tomcat 处理动态页面。动静分离从目前实现角度来讲大致分为两种,一种是纯粹把静态文件独立成单独的域名,放在独立的服务器上,也是目前主流推崇的方案;另外一种方法就是动态跟静态文件混合在一起发布,通过 nginx 来分开。通过 location 指定不同的后缀名实现不同的请求转发。通过 expires 参数设置,可以使浏览器缓存过期时间,减少与服务器之前的请求和流量。具体 Expires 定义:是给一个资源设定一个过期时间,也就是说无需去服务端验证,直接通过浏览器自身确认是否过期即可,所以不会产生额外的流量。此种方法非常适合不经常变动的资源。(如果经常更新的文件,不建议使用 Expires 来缓存),我这里设置 3d,表示在这 3 天之内访问这个 URL,发送一个请求,比对服务器该文件最后更新时间没有变化,则不会从服务器抓取,返回状态码304,如果有修改,则直接从服务器重新下载,返回状态码 200。
实验准备:
[root@devops /]# mkdir data
[root@devops /]# cd data
[root@devops data]# mkdir www
[root@devops data]# mkdir image
[root@devops data]# ls
image www
[root@devops data]# cd www
[root@devops image]# vim a.html
<h1>test html !!</h1>
[root@devops image]# cd ..
[root@devops data]# cd image/
[root@devops image]# rz -E
rz waiting to receive.
[root@devops image]# ls
n.png
[root@devops image]# cd /usr/local/nginx/sbin/
[root@devops sbin]# ./nginx
[root@devops sbin]# vim ../conf/nginx.conf
#配置nginx
[root@devops ~]# cd /usr/local/nginx/conf/
[root@devops conf]# vim nginx.conf
...
server {
listen 80;
server_name 192.168.172.158;
#access_log logs/host.access.log main;
location /www/ {
root /data/;
index index.html index.htm;
}
location /image/ {
root /data/;
}
...
#重启nginx
[root@devops conf]# cd /usr/local/nginx/sbin/
[root@devops sbin]# ./nginx -s stop
[root@devops sbin]# ./nginx
测试
7.高可用集群-主从模式
痛点:nginx可能会存在宕机的情况,这时请求无法实现效果
解决:配置主从服务器,其中需要两台nginx服务器、keepalived和虚拟ip
两天机器都需要安装nginx
两台服务器安装keepalived
#安装
[root@devops sbin]# yum install keepalived -y
#检查安装成功与否
[root@devops sbin]# rpm -q -a keepalived
keepalived-1.3.5-16.el7.x86_64
进行主从高可用配置
#对主服务器进行相关配置
[root@devops keepalived]# vim /etc/keepalived/keepalived.conf
global_defs { # 全局配置
notification_email {
acassen@firewall.loc
failover@firewall.loc
sysadmin@firewall.loc
}
notification_email_from Alexandre.Cassen@firewall.loc
smtp_server 192.168.17.129
smtp_connect_timeout 30
router_id LVS_DEVEL # 通过这个名字能访问到主机/服务器,对应/etc/hosts文件
}
vrrp_script chk_http_port { # 脚本配置
script "/usr/local/src/nginx_check.sh"
interval 2 #(检测脚本执行的间隔),单位秒
weight 2 # 权重,当脚本成立当前主机权重+var
}
vrrp_instance VI_1 { # 虚拟IP配置
state MASTER # 主服务器上将 MASTER
interface ens33 # 网卡
virtual_router_id 51 # 主、备机的 virtual_router_id 必须相同
priority 100 # 主、备机取不同的优先级,主机值较大,备份机值较小
advert_int 1 # 检测心跳间隔时间
authentication { # 权限校验方式
auth_type PASS # 方式是密码
auth_pass 1111
}
virtual_ipaddress {
192.168.17.50 # VRRP H 虚拟地址,可绑定多个虚拟ip
}
}
#对从服务器进行配置
global_defs {
notification_email {
acassen@firewall.loc
failover@firewall.loc
sysadmin@firewall.loc
}
notification_email_from Alexandre.Cassen@firewall.loc
smtp_server 192.168.17.129
smtp_connect_timeout 30
router_id LVS_DEVEL
}
vrrp_script chk_http_port {
script "/usr/local/src/nginx_check.sh"
interval 2 #(检测脚本执行的间隔)
weight 2
}
vrrp_instance VI_1 {
state BACKUP # 主服务器上将 MASTER
interface ens33 //网卡
virtual_router_id 51 # 主、备机的 virtual_router_id 必须相同
priority 90 # 主、备机取不同的优先级,主机值较大,备份机值较小
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
192.168.17.50 // VRRP H 虚拟地址
}
}
#自动检测脚本,分别放在主从服务器的/usr/local/src/目录下,其名称为nginx_check.sh
#!/bin/bash
A=`ps -C nginx –no-header |wc -l`
if [ $A -eq 0 ];then
/usr/local/nginx/sbin/nginx
sleep 2
if [ `ps -C nginx --no-header |wc -l` -eq 0 ];then
killall keepalived
fi
fi
两台服务器上nginx和keepalived启动,即可
[root@devops sbin]# ./nginx
[root@devops sbin]# systemctl start keepalived.service
[root@devops sbin]# ps -ef | grep keepalived
最后测试,浏览器输入192.168.17.50
发现可以访问,在主服务器中输入命令ip a
发现ens33中inet 192.168.17.50/32 ens33
,表示它现在已经绑定了这个虚拟ip。之后将主服务器nginx和keepalived停止
[root@devops sbin]# ./nginx -s stop
[root@devops sbin]# systemctl stop keepalived.service
[root@devops sbin]# ps -ef | grep keepalived
再继续访问192.168.17.50
,发现页面内容没变,依然能够正常访问。并且在从服务器中输入命令ip a
发现ens33中inet 192.168.17.50/32 ens33
,表示它现在也已经绑定了这个虚拟ip
8.Nginx 原理解析
一个 master 和多个 woker 有好处:
- 可以使用 nginx –s reload 热部署,利用 nginx 进行热部署操作
- 每个 woker 是独立的进程,如果有其中的一个 woker 出现问题,其他 woker 独立的,继续进行争抢,实现请求过程,不会造成服务中断
发送请求,占用了 woker 的几个连接数?2 或者 4 个
nginx 有一个 master,有四个 woker,每个 woker 支持最大的连接1024,支持的最大并发数是多少?普通的静态访问最大并发数是: worker_connections * worker_processes /2,而如果是 HTTP 作 为反向代理来说,最大并发数量应该是 worker_connections * worker_processes/4。