笔记主要来源:
-
- 简介
Nginx(发音同“engine x”)是一个高性能的反向代理和Web服务器软件,由俄罗斯人Igor Sysoev开发(2004),被F5收购(2019)。有报告表明单节点的Nginx同时支持5W并发连接。
版本对比
版本 | 官网 | 说明 | 功能 |
Nginx开源版 | 可编程:支持使用Perl、JavaScript、Lua等脚本实现功能增强 两个分支: mainline(主线分支,版本号第二位为奇数) stable(稳定分支,版本号第二位为偶数) | 访问路由:通过访问路径、URL关键字、客户端IP、灰度分流等多种手段实现访问路由分配 反向代理:支持HTTP、HTTPS、HTTP/2、FastCGI、uWSGI、 SCGI、gRPC及TCP/UDP等目前大部分协议的反向代理 负载均衡:支持多种负载均衡算法: 内容缓存:可以缓存静态文件、响应内容 访问安全 带宽控制 | |
Nginx plus商业版 | F5出品,增强对Nginx的管理和监控功能 | 在开源版本功能基础上增加: 基于cookies的会话保持 基于响应状态码和响应体的主动健康监测 支持DNS动态更新 支持通过API清除内容缓存 可通过API动态管理上游的后端服务器列表 JWT身份认证 Nginx WAF动态模块 状态监控 支持Kubernetes集群Pod的会话保持和主动健康监测 支持自适性串流ABS、媒体技术HLS和HDS 支持对MP4媒体流进行带宽控制 | |
Openresty | 免费开源,是基于Nginx与Lua的高性能Web平台 | ||
Tengine | http://tengine.taobao.org | 免费开源,淘宝出品 | 增强功能: 支持HTTP的CONNECT方法,可用于正向代理 支持异步OpenSSL,可使用硬件(如QAT)进行HTTPS的加速与卸载 增强相关运维、监控能力,如异步打印日志及 回滚、本地DNS缓存、内存监控等 ...... |
-
- 单实例安装(Linux环境)
环境准备
模拟工具:VMware-workstation-full-15.5.6-16341506.exe
操作系统:CentOS-6.10-x86_64-bin-DVD1.iso、纯净安装、桌面版
设置网卡随系统启动、使用静态IP(本文档向上搜索本行关键字)
编译安装
安装依赖
[root@caochenlei ~]# yum install -y gcc gcc-c++ make libtool wget pcre pcre-devel zlib zlib-devel openssl openssl-devel
下载安装
[root@caochenlei ~]# wget http://nginx.org/download/nginx-1.18.0.tar.gz
[root@caochenlei ~]# tar -zxvf nginx-1.18.0.tar.gz
[root@caochenlei ~]# cd nginx-1.18.0
[root@caochenlei nginx-1.18.0]# ./configure --prefix=/usr/local/nginx
[root@caochenlei nginx-1.18.0]# make && make install
Nginx命令
普通启动服务:/usr/local/nginx/sbin/nginx
配置文件启动:/usr/local/nginx/sbin/nginx -c /usr/local/nginx/conf/nginx.conf
暴力停止服务:/usr/local/nginx/sbin/nginx -s stop
优雅停止服务:/usr/local/nginx/sbin/nginx -s quit
检查配置文件:/usr/local/nginx/sbin/nginx -t
重新加载配置:/usr/local/nginx/sbin/nginx -s reload
查看相关进程:ps -ef | grep nginx
启动Nginx服务后,在浏览器中输入虚拟机IP地址并回车即可打开Nginx欢迎页。
防火墙配置
开放防火墙
[root@caochenlei ~]# /sbin/iptables -I INPUT -p tcp --dport 80 -j ACCEPT
[root@caochenlei ~]# /etc/rc.d/init.d/iptables save
iptables:将防火墙规则保存到 /etc/sysconfig/iptables:[确定]
或者:firewall-cmd --zone=public --add-port=80/tcp --permanent
如果要关闭防火墙:systemctl stop firewalld.service
如果要禁止防火墙开机启动:systemctl disable firewalld.service
如果要重启防火墙:firewall-cmd --reload
查看Nginx进程
ps -ef|grep nginx
启动后:
root 14016 1 0 11:19 ? 00:00:00 nginx: master process ./nginx
nobody 14017 14016 0 11:19 ? 00:00:00 nginx: worker process
root 14098 1262 0 14:24 pts/2 00:00:00 grep --color=auto nginx
停止后:
root 14101 1262 0 14:25 pts/2 00:00:00 grep --color=auto nginx
注册系统服务、开机启动
通过系统服务的方式启动Nginx
vi /usr/lib/systemd/system/nginx.service
内容如下(注意路径):
[Unit]
Description=nginx
After=network.target remote-fs.target nss-lookup.target
[Service]
Type=forking
PIDFile=/usr/local/nginx/logs/nginx.pid
ExecStartPre=/usr/local/nginx/sbin/nginx -t -c /usr/local/nginx/conf/nginx.conf
ExecStart=/usr/local/nginx/sbin/nginx -c /usr/local/nginx/conf/nginx.conf
ExecReload=/usr/local/nginx/sbin/nginx -s reload
ExecStop=/usr/local/nginx/sbin/nginx -s stop
ExecQuit=/usr/local/nginx/sbin/nginx -s quit
PrivateTmp=true
[Install]
WantedBy=multi-user.target
重新加载系统服务
systemctl daemon-reload
使用系统服务启动Nginx(若之前用./nginx启动了Nginx,先停止Nginx)
systemctl start nginx
查看Nginx状态
systemctl status nginx
设置开机启动
systemctl enable nginx.service
conf 配置文件
|- nginx.conf 主配置文件
|- 其他配置文件,都被引入到了nginx.conf
html 静态页面
logs
|- access.log 访问日志(每次访问都会记录)
|- error.log 错误日志
|- nginx.pid 进程号
sbin
|- nginx 主进程文件
*_temp 运行时生成的临时文件夹
-
- 运行原理
Nginx的线程模型
Nginx默认采用多进程工作方式,Nginx启动后,会运行一个master进程和多个worker进程。其中master充当整个进程组与用户的交互接口,同时对进程进行监护,管理worker进程来实现重启服务、平滑升级、更换日志文件、配置文件实时生效等功能。worker用来处理基本的网络事件,worker之间是平等的,他们共同竞争来处理来自客户端的请求。
Nginx启动-》启动主进程(Master)-》Master进程读取并校验配置文件nginx.conf-》开启若干子进程(Worker)接收用户请求-》Worker子进程解析请求URL,根据配置文件中的映射关系找到对应资源。
worker的工作模式
worker对于连接是采用争抢的模式,谁先抢到就先交给谁处理,如果想要重新更新配置,由于已经抢到任务的worker不会参与争抢,那些空闲的worker就会去争抢连接,拿到连接后会自动更新配置信息,当那些有任务的worker完成任务后,会自动更新配置,这样就实现了无缝热部署。由于每个worker是独立的进程,如果有其中的一个worker出现问题,并不会影响其它worker继续进行争抢,在实现请求的过程,不会造成服务中断,建议worker数和服务器的cpu数相等是最为适宜的。
如何计算worker连接数?
如果只访问nginx的静态资源,一个发送请求会占用了 woker 的 2 个连接数
而如果是作为反向代理服务器,一个发送请求会占用了 woker 的 4 个连接数
如何计算最大的并发数?
如果只访问nginx的静态资源,最大并发数量应该是: worker_connections * worker_processes / 2
而如果是作为反向代理服务器,最大并发数量应该是:worker_connections * worker_processes / 4
-
- 详解
每次修改配置文件,都要重载或重启Nginx才能生效
systemctl reload nginx
最简配置
worker_processes 1; #启动的worker进程数,通常设为等于CPU内核数
events {
worker_connections 1024; #每个worker进程的连接数
}
http {
include mime.types; #设定mime类型(请求返回的content-type),类型由mime.type文件定义
default_type application/octet-stream; #mime.type文件未定义时,使用此处定义的mime类型
sendfile on; #是否零拷贝输出文件(不经Nginx内存),下载等重磁盘IO应用可设为on
keepalive_timeout 65; #连接超时时间
server { #一个nginx可以启用多个server(虚拟服务器/虚拟主机)
listen 80; #监听端口
server_name localhost; #定义使用www.xx.com访问
location / {
root html; #定义服务器的默认网站根目录位置
index index.html index.htm; #定义首页索引文件的名称
}
error_page 500 502 503 504 /50x.html; #遇到指定错误码时转到指定页面如“域名/50x.html”
location = /50x.html { #指定到root文件夹下找/50x.htm
root html;
}
}
}
超全配置(切勿直接用于生产环境)
#全局指令配置
user www-data; #worker进程运行用户(组),一般用于启动程序,没有密码
worker_processes 1; #启动的worker进程数,通常设为等于CPU内核数
error_log /var/log/nginx/error.log; #全局错误日志及类型(debug|info|notice|warn|error|crit|alert|emerg),默认error
#error_log /var/log/nginx/error.log info;
pid /var/run/nginx.pid; #进程PID文件
worker_rlimit_nofile 65535; #worker进程最大打开文件数,默认为系统上限值ulimit -n
#网络连接配置
events {
use epoll; #参考事件模型(kqueue|rtsig|epoll|select|poll)注1
worker_connections 1024; #每个worker进程的连接数
# multi_accept on;
}
#配置代理,缓存,日志,第三方模块等绝大多数功能
http {
resolver 192.168.2.11 valid=30s; #全局域名解析服务器地址、DNS缓存更新间隔
resolver_timeout 10s; #域名解析超时时间
include /etc/nginx/mime.types; #设定mime类型(请求返回的content-type),类型由mime.type文件定义
default_type application/octet-stream; #mime.type文件未定义时,使用此处定义的mime类型
charset utf-8; #默认编码
access_log /var/log/nginx/access.log; #设定日志格式
sendfile on; #是否零拷贝输出文件(不经Nginx内存),下载等重磁盘IO应用可设为on
autoindex on; #开启目录列表访问,适合下载服务器,默认关闭
tcp_nopush on; #防止网络阻塞
tcp_nodelay on; #防止网络阻塞
keepalive_timeout 65; #连接超时时间(秒)
variables_hash_max_size 1024; #Nginx变量的哈希表大小
variables_hash_bucket_size 64; #Nginx变量的哈希桶大小
types_hash_max_size 1024; #MIME类型映射表的哈希表大小
types_hash_bucket_size 64; #MIME类型映射表的哈希桶大小
server_names_hash_max_size 1024; #服务主机名哈希表大小
server_names_hash_bucket_size 128; #服务主机名哈希桶大小
client_header_buffer_size 1k; #客户请求头缓冲区大小
large_client_header_buffers 4 4k; #超大客户请求头缓冲区大小
client_max_body_size 8m; #设定请求缓冲?
ignore_invalid_headers on; # 忽略请求头中无效的属性名
underscores_in_headers on; # 允许请求头的属性名中有下划线“_”
client_header_timeout 30s; # 读取客户请求头的超时时间是30s
request_pool_size 4k; # 请求池的大小是4K
merge_slashes on; # 当URI中有连续的斜线时做合并处理
server_tokens off; # 当返回错误信息时,不显示Nginx服务的版本号信息
msie_padding on; # 当客户端请求出错时,在响应数据中添加注释
subrequest_output_buffer_size 8k; # 子请求响应报文缓冲区大小为8KB
lingering_close on; # Nginx主动关闭连接时启用延迟关闭
lingering_time 60s; # 延迟关闭的处理数据的最长时间是60s
lingering_timeout 5s; # 延迟关闭的超时时间是5s
reset_timedout_connection on; # 当Nginx主动关闭连接而客户端无响应时,在连接超时后进行关闭
log_not_found on; # 将未找到文件的错误信息记录到日志中
log_subrequest on; # 将子请求的访问日志记录到访问日志中
error_page 404 /404.html; # 所有请求的404状态码返回404.html文件的数据
error_page 500 502 503 504 /50x.html; # 所有请求的500、502、503、504状态码返回50×.html文件的数据
include /etc/nginx/conf.d/*.conf;
include /etc/nginx/sites-enabled/*;
#FastCGI相关参数是为了改善网站的性能:减少资源占用,提高访问速度。
fastcgi_connect_timeout 300;
fastcgi_send_timeout 300;
fastcgi_read_timeout 300;
fastcgi_buffer_size 64k;
fastcgi_buffers 4 64k;
fastcgi_busy_buffers_size 128k;
fastcgi_temp_file_write_size 128k;
#gzip模块设置
gzip on; #开启gzip压缩输出
gzip_disable "MSIE [1-6]\.(?!.*SV1)";
gzip_min_length 1k; #最小压缩文件大小
gzip_buffers 4 16k; #压缩缓冲区
gzip_http_version 1.0; #压缩版本(默认1.1,前端如果是squid2.5请使用1.0)
gzip_comp_level 2; #压缩等级
gzip_types text/plain application/x-javascript text/css application/xml; #压缩类型
gzip_vary on; #增加响应头'Vary: Accept-Encoding'
limit_zone crawler $binary_remote_addr 10m; #开启限制IP连接数的时候需要使用
#设定负载均衡的服务器列表,可设置多组给不用的server使用
upstream mysvr {
server 192.168.8.1:3128 weight=5;
server 192.168.8.2:80 weight=1;
server 192.168.8.3:80 weight=6;
}
#配置虚拟主机,一个http中可以有多个server
server {
listen 80; #监听端口注2
server_name www.xx.com; #服务名,多个服务名用空格隔开,匹配规则:完整匹配、通配符匹配(前匹配、后匹配)、正则匹配
charset utf-8; #字符集
access_log logs/www.xx.com.access.log main; #本虚拟主机的访问日志
# 保持链接配置
keepalive_disable msie6; # 对MSIE6版本的客户端关闭保持连接机制
keepalive_requests 1000; # 保持连接可复用的HTTP连接为1000个
keepalive_timeout 60s; # 保持连接空置超时时间为60s
tcp_nodelay on; # 当处于保持连接状态时,以最快的方式发送数据包
# 本地文件相关配置
root /data/website; # 当前服务对应本地文件访问的根目录是/data/website
disable_symlinks off; # 对本地文件路径中的符号链接不做检测
#默认请求
location / {
root /root; #定义网站根目录,默认为nginx安装主目录下的html目录
index index.html index.htm; #定义首页文件名称
fastcgi_pass www.xx.com;
fastcgi_param SCRIPT_FILENAME $document_root/$fastcgi_script_name;
include /etc/nginx/fastcgi_params;
}
#配置错误跳转页面
error_page 404 /404.html;
error_page 500 502 503 504 /50x.html;
#指定到root文件夹下找错误跳转页面
location = /404.html {
root /root;
}
location = /50x.html {
root /root;
}
#@用来定义一个命名location。主要用于内部重定向,不能用来处理正常的请求
location @nofile {
index nofile.html
}
#静态文件,Nginx自己处理
location ~ ^/(images|JavaScript|js|css|flash|media|static)/ {
root /var/www/virtual/htdocs;
expires 30d; #静态文件过期时间
}
# 静态文件场景
location /static {
server_name_in_redirect on; # 在重定向时,拼接服务主机名
port_in_redirect on; # 在重定向时,拼接服务主机端口
if_modified_since exact; # 当请求头中有if_modified_since属性时,与被请求的本地文件修改时间做精确匹配处理
etag on; #启用etag功能
msie_refresh on; # 当客户端是msie时,以添加HTML头信息的方式执行跳转
open_file_cache max=1000 inactive=20s;# 对被打开文件启用缓存支持,缓存元素数最大为1000个,不活跃的缓存元素保存20s
open_file_cache_errors on; #对无法找到文件的错误元素也进行缓存
open_file_cache_min_uses 2; #缓存中的元素至少要被访问两次才为活跃
open_file_cache_valid 60s; #每60s对缓存元素与本地文件进行一次检查
}
# 上传场景
location /upload {
alias /data/upload #将upload的请求重定位到目录/data/upload
limit_except GET { #对除GET以外的所有方法进行限制
allow 192.168.100.1; #允许192.168.100.1执行所有请求方法
deny all; #其他IP只允许执行GET方法
}
client_max_body_size 200m;# 允许上传的最大文件大小是200MB
client_body_buffer_size 16k;# 上传缓冲区的大小是16KB
client_body_in_single_buffer on;# 上传文件完整地保存在临时文件中
client_body_in_file_only off;# 不禁用上传缓冲区
client_body_temp_path /tmp/upload 1 2;# 设置请求体临时文件存储目录
client_body_timeout 120s;# 请求体接收超时时间为120s
}
# 下载场景
location /download {
alias /data/upload; #将download的请求重定位到目录/data/upload
default_type application/octet-stream; # 设置当前目录所有文件默认MIME类型为application/octet-stream
try_files $uri @nofile; #当文件不存在时,跳转到location @nofile
sendfile on; #开启零复制文件传输功能
sendfile_max_chunk 1M; #每个sendfile调用的最大传输量为1MB
tcp_nopush on; #启用最小传输限制功能
aio on; #启用异步传输
directio 5M; #当文件大于5MB时以直接读取磁盘方式读取文件
directio_alignment 4096; #与磁盘的文件系统对齐
output_buffers 4 32k; #文件输出的缓冲区为128KB
limit_rate 1m; #限制下载速度为1MB
limit_rate_after 2m; #当客户端下载速度达到2MB时,进入限速模式
max_ranges 4096; #客户端执行范围读取的最大值是4096B
send_timeout 20s; #客户端引发传输超时时间为20s
postpone_output 2048; #当缓冲区的数据达到2048B时再向客户端发送
chunked_transfer_encoding on; #启用分块传输标识
}
#php 脚本请求全部转发到 FastCGI处理. 使用FastCGI默认配置
location ~ \.php$ {
root /root;
fastcgi_pass 127.0.0.1:9000;
fastcgi_index index.php;
fastcgi_param SCRIPT_FILENAME /home/www/www$fastcgi_script_name;
include fastcgi_params;
}
#设定查看Nginx状态的地址
location /NginxStatus {
stub_status on;
access_log on;
auth_basic "NginxStatus";
auth_basic_user_file conf/htpasswd;
}
#设定反向代理
location ~ .*\.aspx$ {
root /root; #定义网站根目录,默认为nginx安装主目录下的html目录
index index.php index.html index.htm; #定义首页文件名称
proxy_pass http://mysvr ; #请求跳转地址(要反向代理的地址)
proxy_redirect off; #是否开启重定向
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; #后端服务器可通过X-Forwarded-For获取用户真实IP
client_max_body_size 10m; #允许客户端请求的最大单文件字节数
client_body_buffer_size 128k; #缓冲区代理缓冲用户端请求的最大字节数,
proxy_connect_timeout 90; #nginx跟后端服务器连接超时时间(代理连接超时)
proxy_send_timeout 90; #后端服务器数据回传时间(代理发送超时)
proxy_read_timeout 90; #连接成功后,后端服务器响应时间(代理接收超时)
proxy_buffer_size 4k; #设置代理服务器(nginx)保存用户头信息的缓冲区大小
proxy_buffers 4 32k; #proxy_buffers缓冲区,网页平均在32k以下的话,这样设置
proxy_busy_buffers_size 64k; #高负荷下缓冲大小(proxy_buffers*2)
proxy_temp_file_write_size 64k; #设定缓存文件夹大小,大于这个值,将从upstream服务器传
}
#禁止访问 .htxxx 文件
location ~ /\.ht {
deny all;
}
}
#配置https服务,安全的网络传输协议,加密传输,端口443
server {
listen 443 ssl;
server_name localhost;
ssl_certificate cert.pem;
ssl_certificate_key cert.key;
ssl_session_cache shared:SSL:1m;
ssl_session_timeout 5m;
ssl_ciphers HIGH:!aNULL:!MD5;
ssl_prefer_server_ciphers on;
location / {
root html;
index index.html index.htm;
}
}
}
注:
- epoll模型是Linux 2.6以上版本内核中的多路复用I/O模型,如果跑在FreeBSD上面,就用kqueue模型。
- listen指令可添加一些参数如:
listen *:8000 default_server fastopen=30 deferred reuseport backlog=1024 so_keepalive=on;
参数含义:
default_server 设为主服务
fastopen=30 开启fastopen功能并限定最大队列数
deferred 拒绝空数据连接
reuseport 工作进程共享socket监听端口
backlog=1024 请求阻塞时挂起队列数
so_keepalive=on socket为保持连接时开启状态检测功能 -
需求1:访问http://www.123.com,跳转到 Liunx 系统 Tomcat 主页面中。
实现思路:请求www.123.com-》hosts文件域名映射表中查到对应IP-》IP+端口号80查到Nginx虚拟主机-》Nginx将请求发送给Tomcat
实现步骤:
- 修改hosts文件添加IP域名映射:
192.168.206.128 www.123.com
- 修改Nginx中的配置文件,然后启动Nginx:
[root@caochenlei ~]# vi /usr/local/nginx/conf/nginx.conf
添加:
server { listen 80; server_name 192.168.206.128; #charset koi8-r; #access_log logs/host.access.log main; location / { proxy_pass http:127.0.0.1:8080; root html; index index.html index.htm; } } |
[root@caochenlei ~]# /usr/local/nginx/sbin/nginx
[root@caochenlei ~]# /usr/local/tomcat/bin/startup.sh
- 关闭服务:
[root@caochenlei ~]# /usr/local/nginx/sbin/nginx -s quit
[root@caochenlei ~]# /usr/local/tomcat/bin/shutdown.sh
需求2:使用 nginx 反向代理,根据访问的路径跳转到不同端口的服务中。
访问http://192.168.206.128/edu/a.html,跳转到8080端口服务
访问http://192.168.206.128/vod/a.html,跳转到8081端口服务
实现思路:
请求www.123.com/edu/a.html-》hosts中查到域名对应IP-》IP+端口号80查到Nginx虚拟主机-》路径edu匹配location查到proxy_pass;
请求www.123.com/vod/a.html-》hosts中查到域名对应IP-》IP+端口号80查到Nginx虚拟主机-》路径vod匹配location查到proxy_pass;
实现步骤:
- 拷贝两个Tomcat,将其中一个的端口修改为8081并开放防火墙,各自添加测试页面,各自启动Tomcat:
[root@caochenlei ~]# /sbin/iptables -I INPUT -p tcp --dport 8081 -j ACCEPT
[root@caochenlei ~]# /etc/rc.d/init.d/iptables save
[root@caochenlei ~]# mkdir -p /usr/local/tomcat1/webapps/edu
[root@caochenlei ~]# echo "<h1>This is 8080 Port</h1>" > /usr/local/tomcat1/webapps/edu/a.html
[root@caochenlei ~]# mkdir -p /usr/local/tomcat2/webapps/vod
[root@caochenlei ~]# echo "<h1>This is 8081 Port</h1>" > /usr/local/tomcat2/webapps/vod/a.html
[root@caochenlei ~]# /usr/local/tomcat1/bin/startup.sh
[root@caochenlei ~]# /usr/local/tomcat2/bin/startup.sh
- 修改hosts文件添加IP域名映射(前例已做)
- 修改Nginx中的配置文件并启动:
[root@caochenlei ~]# vi /usr/local/nginx/conf/nginx.conf
添加:
server { listen 80; server_name 192.168.206.128; #charset koi8-r; #access_log logs/host.access.log main; location ~ /edu/ { proxy_pass http://127.0.0.1:8080; } location ~ /vod/ { proxy_pass http://127.0.0.1:8081; } } |
[root@caochenlei ~]# /usr/local/nginx/sbin/nginx
- 关闭服务:
[root@caochenlei ~]# /usr/local/nginx/sbin/nginx -s quit
[root@caochenlei ~]# /usr/local/tomcat1/bin/shutdown.sh
[root@caochenlei ~]# /usr/local/tomcat2/bin/shutdown.sh
location通配符说明
= :用于不含正则表达式的 uri 前,要求请求字符串与 uri 严格匹配,如果匹配成功,就停止继续向下搜索并立即处理该请求。
~ :用于表示 uri 包含正则表达式,并且区分大小写。
~* :用于表示 uri 包含正则表达式,不区分大小写。
^~ :用于不含正则表达式的 uri 前,要求当找到 uri 和请求字符串匹配度最高的 location 后,立即使用此 location 处理请求,而不再使用 location 块中的正则 uri 和请求字符串做匹配。
注意:如果 uri 包含正则表达式,则必须要有 ~ 或者 ~* 标识。
需求:将请求 http://192.168.206.128/edu/a.html平均到 8080 和 8081 端口中
实现步骤:
- 修改Nginx中的配置文件,然后启动Nginx:
[root@caochenlei ~]# vi /usr/local/nginx/conf/nginx.conf
增加、修改黄色标内容:
upstream myserver { server 192.168.206.128:8080; server 192.168.206.128:8081; } server { listen 80; server_name 192.168.206.128; #charset koi8-r; #access_log logs/host.access.log main; location / { proxy_pass http://myserver; } } |
[root@caochenlei ~]# /usr/local/nginx/sbin/nginx
2)在Tomcat2添加页面并启动两个Tomcat
[root@caochenlei ~]# mkdir -p /usr/local/tomcat2/webapps/edu
[root@caochenlei ~]# echo "<h1>This is 8081 Port</h1>" > /usr/local/tomcat2/webapps/edu/a.html
[root@caochenlei ~]# /usr/local/tomcat1/bin/startup.sh
[root@caochenlei ~]# /usr/local/tomcat2/bin/startup.sh
3)测试效果
浏览器请求并多次刷新查看页面效果:http://192.168.206.128/edu/a.html
4)关闭服务
[root@caochenlei ~]# /usr/local/nginx/sbin/nginx -s quit
[root@caochenlei ~]# /usr/local/tomcat1/bin/shutdown.sh
[root@caochenlei ~]# /usr/local/tomcat2/bin/shutdown.sh
分配策略(负载均衡算法)
算法 | 描述 | 配置示例 |
轮询(默认) | 每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除 | upstream myserver { server 192.168.0.14:88; server 192.168.0.15:80; } |
随机 | ||
加权轮询 | 指定轮询几率,用于后端服务器性能不均的情况。 weight默认为1。 | upstream myserver { server 192.168.0.14 weight=10; server 192.168.0.15 weight=10; } |
加权随机 | ||
ip_hash | 每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题 缺点:如果某些ip请求太多,导致负载不均衡 | upstream myserver { ip_hash; server 192.168.0.14:88; server 192.168.0.15:80; } |
url_hash(第三方) | 按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存时比较有效 | upstream myserver { server squid1:3128; server squid2:3128; hash $request_uri; hash_method crc32; } |
最少响应时间 fair(第三方) | 按后端服务器的响应时间来分配请求,响应时间短的优先分配 | upstream myserver { server server1; server server2; fair; } |
最少连接数(Least Connections) | ||
容错机制 | max_fails :允许请求失败的次数,默认为1。超过限制时,返回proxy_next_upstream定义的错误 fail_timeout:max_fails次失败后,暂停的时间 | upstream myserver { # 10s内出现3次错误,该服务器将被熔断10s server 192.168.2.154:8080 max_fails=3 fail_timeout=10s; server 192.168.2.109:8080 max_fails=3 fail_timeout=10s; server 192.168.2.108:8080 max_fails=3 fail_timeout=10s; server 192.168.2.107:8080 max_fails=3 fail_timeout=10s; } |
其他配置 | down 表示单前的server暂时不参与负载 backup: 其它所有的非backup机器down或者忙的时候,请求backup机器。所以这台机器压力会最轻。 | upstream myserver { server 127.0.0.1:9090 down; server 127.0.0.1:8080; server 127.0.0.1:6060; server 127.0.0.1:7070 backup; } |
Nginx 动静分离简单来说就是把动态跟静态请求分开,不能理解成只是单纯的把动态页面和静态页面物理分离。严格意义上说应该是动态请求跟静态请求分开,可以理解成使用 Nginx 处理静态页面,Tomcat 处理动态页面。
动静分离从目前实现角度来讲大致分为两种:
- 一种是纯粹把静态文件独立成单独的域名,放在独立的服务器上,也是目前主流推崇的方案;
- 另一种是动态跟静态文件混合在一起发布,通过 Nginx 来分开。
实现效果
如果不设置动静分离,默认会通过Nginx的反向代理去找Tomcat对应的资源,现在我们在根目录下创建一个/data/www/文件夹,里边放上静态资源,比如一个html页面,在8080的那台Tomcat的webapps下也创建一个www目录,同样是放一个静态资源,当输入这个静态资源的请求时,访问到的是/data/www中的数据
实现步骤
第一步:创建静态资源文件,为了对比,tomcat中也放一个
[root@caochenlei ~]# mkdir -p /data/www/
[root@caochenlei ~]# mkdir -p /usr/local/tomcat/webapps/ROOT/www
[root@caochenlei ~]# echo "<h1>/data/www/a.html</h1>" > /data/www/a.html
[root@caochenlei ~]# echo "<h1>/usr/local/tomcat/webapps/ROOT/www/a.html</h1>" > /usr/local/tomcat/webapps/ROOT/www/a.html
第二步:修改Nginx的配置文件,然后启动Nginx
[root@caochenlei ~]# vi /usr/local/nginx/conf/nginx.conf
增加黄色标内容:
server { listen 80; server_name 192.168.206.128; #charset koi8-r; #access_log logs/host.access.log main; location /www/ { root /data/; index index.html index.htm; } } |
[root@caochenlei ~]# /usr/local/nginx/sbin/nginx
第三步:启动Tomcat
[root@caochenlei ~]# /usr/local/tomcat/bin/startup.sh
第四步:启动浏览器进行测试
打开浏览器输入: http://192.168.206.128/www/a.html
将输出:/data/www/a.html
第五步:关闭服务
[root@caochenlei ~]# /usr/local/nginx/sbin/nginx -s quit
[root@caochenlei ~]# /usr/local/tomcat/bin/shutdown.sh
实现步骤:
第〇步:准备一台全新的虚拟机,安装Nginx(参考单实例安装部分)。
第一步:修改主备节点上的Nginx的配置文件,然后启动Nginx
[root@caochenlei ~]# vi /usr/local/nginx/conf/nginx.conf
修改:
upstream myserver { server 192.168.206.128:8080; server 192.168.206.128:8081; } server { listen 80; server_name 192.168.206.128; #charset koi8-r; #access_log logs/host.access.log main; location / { proxy_pass http://myserver; } } |
[root@caochenlei ~]# /usr/local/nginx/sbin/nginx
第二步:启动主节点上的两台Tomcat
[root@caochenlei ~]# /usr/local/tomcat1/bin/startup.sh
[root@caochenlei ~]# /usr/local/tomcat2/bin/startup.sh
第三步:主备节点安装keepalived
安装keepalived:
[root@caochenlei ~]# yum install -y keepalived
删除keepalived的配置文件:
[root@caochenlei ~]# rm -f /etc/keepalived/keepalived.conf
新增keepalived的配置文件:
[root@caochenlei ~]# vi /etc/keepalived/keepalived.conf
注意:一定要注意主备节点区分router_id、state、interface的值,以下为主节点配置:
! Configuration File for keepalived global_defs { notification_email { acassen@firewall.loc failover@firewall.loc sysadmin@firewall.loc } notification_email_from Alexandre.Cassen@firewall.loc #邮件服务器通知地址(暂不配置,默认即可) smtp_server 192.168.200.1 #邮件服务器超时时间(暂不配置,默认即可) smtp_connect_timeout 30 #当前虚拟机的IP地址(备份节点为:192.168.206.129) router_id 192.168.206.128 } vrrp_script Monitor_Nginx { script "/etc/keepalived/nginx_check.sh" #检测脚本执行的路径 interval 2 #检测脚本执行的间隔 weight 2 #检测脚本执行的权重 } vrrp_instance VI_1 { state MASTER #标识这个机器是MASTER还是BACKUP(备份节点为:BACKUP) interface eth0 #当前机器的网卡名称(备份节点ifconfig命令自行查询) virtual_router_id 51 #虚拟路由的编号,主备必须一致 priority 100 #主、备机取不同的优先级,主机值较大,备份机值较小 advert_int 1 #(VRRP Multicast广播周期秒数) authentication { auth_type PASS #(VRRP认证方式) auth_pass 1111 #(密码) } track_script { Monitor_Nginx #(调用nginx进程检测脚本) } virtual_ipaddress { 192.168.206.50 #虚拟IP地址 } } |
新增keepalived的检测脚本:
[root@caochenlei ~]# vi /etc/keepalived/nginx_check.sh
#!/bin/bash if [ "$(ps -ef | grep "nginx: master process" | grep -v grep )" == "" ] then killall keepalived fi |
启动keepalived服务:
[root@caochenlei ~]# service keepalived start
第四步:测试效果
测试两个Nginx是否能正确的将请求分发到不同的Tomcat(负载均衡),浏览器请求并多次刷新查看页面效果:
http://192.168.206.128/edu/a.html
http://192.168.206.129/edu/a.html
测试虚拟IP能不能实现负载均衡,浏览器请求并多次刷新查看页面效果:
http://192.168.206.50/edu/a.html
测试主节点挂掉,从节点会不会自动顶上:打开主节点机器,查看相关进程,杀死Nginx,然后浏览器从虚拟IP访问页面:
http://192.168.206.50/edu/a.html
如果负载均衡的效果还在,说明配置成功了。
第五步:关闭服务
主机节点
[root@caochenlei ~]# service keepalived stop
[root@caochenlei ~]# /usr/local/nginx/sbin/nginx -s quit
[root@caochenlei ~]# /usr/local/tomcat1/bin/shutdown.sh
[root@caochenlei ~]# /usr/local/tomcat2/bin/shutdown.sh
备份节点
[root@caochenlei ~]# service keepalived stop
[root@caochenlei ~]# /usr/local/nginx/sbin/nginx -s quit
keepalived VS zookeeper
两者都可以做高可用HA,那么有什么区别呢?
1.从主被动的角度考虑
我们知道,nginx server通常和keepalived进行结合,那么keepalived是怎么知道nginx是否存活呢?是nginx主动向keepalived汇报信息?不是的。keepalived是主动向nginx发送请求,如果有响应,那么则nginx可用。
对于zookeeper而言,HDFS,HBase,Yarn基于zookeeper做高可用,这里的zookeeper就是被动的,也就是说HDFS,HBase,Yarn主动向zookeeper中写数据。
2.从负载的角度来考虑
keepalived可以帮助我们做到主从,主从的划分是通过配置文件(主从的priority之差>50)指定的,如果主没有挂掉,那么大量的请求通过主然后负载到后端的nginx,而从如果想要起作用只有等到主挂掉。
而利用zookeeper做HA,zookeeper中可以说是“人人平等”,客户端无论访问follower,还是observer,异或是leader,都能给我们返回相应的结果,可以很好的实现了负载均衡,这也可以说是zookeeper的一个优点。
3.从存储数据的角度
keepalived不可以存储数据,假设keepalived的主现在有50个连接,如果没有外部数据库存储这些连接的信息,主挂了的话,连接信息也就丢了,所以使用keepalived需要一个外部的数据库,但是如果主挂了的同时数据库也挂了,那么就over了,信息就会丢失,或者从起来后,连不上数据库,那么之前的连接信息也会丢失。
zookeeper可以存储数据,zookeeper中可以创建一个zNode,里面存放数据,zookeeper可以做到一个分布式数据的一致性,zookeeper中每个节点的视图是一致的,数据本身可以做到最终一致性,也就是说其中一个server挂了,其他的server还有存的数据,那么这样的话就不需要额外的数据库,zookeeper本身就可以存储一定量的信息。这也可以说是zookeeper的另一个优点。
4.从业务的角度
keepalived可以说比较简单,只需要简单的配置一下就可以了,使用keepalived的场景:如果我们只需要简单的知道当前的业务中哪个是主,哪个是从,那么可以选用keepalived。
如果除了高可用以外,比如kafka,storm等还要想zookeeper中写一些数据,这时候就需要zookeeper。