简介
nginx官网
Nginx (engine x) 是一个高性能的HTTP和反向代理web服务器,同时也提供了IMAP/POP3/SMTP服务。
1.推荐版本
访问地址:http://nginx.org/en/download.html
- Mainline version:nginx主力版本,为开发版
- Stable version:稳定版,在实际生产过程中选择此版本进行安装
- Legacy version:历史版本
生产环境建议安装Stable 版本
2.安装
2.1.window版本安装
下载完,解压,然后启动nginx.exe就行了。
http://nginx.org/en/download.html
2.2.linux版本安装包方式安装
2.2.1.安装依赖和下载文件
#安装nginx依赖文件
yum -y install gcc zlib zlib-devel pcre-devel openssl openssl-deve
#安装wget
yum install wget
#下载nginx
wget -c https://nginx.org/download/nginx-1.18.0.tar.gz
#解压
tar -zxvf nginx-1.18.0.tar.gz
#切换路径
cd nginx-1.18.0
2.2.2.配置和编译
一般情况默认配置就行,如果默认配置满足不了,可以自定义配置安装
- 默认配置
./configure
- 自定义配置
./configure \
--prefix=/usr/local/nginx \
--conf-path=/usr/local/nginx/conf/nginx.conf \
--pid-path=/usr/local/nginx/logs/nginx.pid \
--lock-path=/usr/local/nginx/logs/nginx.lock \
--error-log-path=/usr/local/nginx/logs/error.log \
--http-log-path=/usr/local/nginx/logs/access.log \
--http-client-body-temp-path=/usr/local/nginx/client \
--http-proxy-temp-path=/usr/local/nginx/proxy \
--http-fastcgi-temp-path=/usr/local/nginx/fastcgi \
--http-uwsgi-temp-path=/usr/local/nginx/uwsgi \
--http-scgi-temp-path=/usr/local/nginx/scgi \
--with-http_gzip_static_module \
--with-http_ssl_module \
--with-http_realip_module
- 编译
make && make install
2.2.3.执行命令
nginx默认安装是在/usr/local/目录下
whereis nginx
cd /usr/local/nginx/sbin
- 默认配置文件启动
/usr/local/nginx/sbin/nginx
- 指定配置文件目录启动
/usr/local/nginx/sbin/nginx -c /usr/local/nginx/conf/nginx.conf
- 停止
/usr/local/nginx/sbin/nginx -s stop
- 热加载配置(不需要停止服务即可以刷新配置)
/usr/local/nginx/sbin/nginx -s reload
2.3.linux版本yum安装
2.3.1.添加源
默认情况Centos7中无Nginx的源,最近发现Nginx官网提供了Centos的源地址。因此可以如下执行命令添加源:
sudo rpm -Uvh http://nginx.org/packages/centos/7/noarch/RPMS/nginx-release-centos-7-0.el7.ngx.noarch.rpm
2.3.2.安装Nginx
sudo yum install -y nginx
2.3.3.安装后的配置文件目录
文件描述 | 路径 |
---|---|
配置文件路径 | /etc/nginx/nginx.conf |
命令存放路径 | /etc/sysconfig/nginx |
默认访问的html页面存放路径 | /usr/share/nginx/ |
pid文件存储路径 | /var/run/nginx.pid |
2.3.4.执行命令
#启动
sudo systemctl start nginx.service
#停止
sudo systemctl start nginx.service
#设置开机自启动
sudo systemctl enable nginx.service
3.配置web服务
nginx.conf配置文件如下
3.1.创建http协议服务,并设置上游服务器连接池
http{
#上游服务器集群
upstream tomcatServer{
server 192.168.52.130:8080;
server 192.168.52.131:8080;
}
server {
listen 8081;
server_name test;
location / {
#设置代理地址为tomcatServer名称的上游服务器集群
proxy_pass http://tomcatServer;
#默认访问欢迎页
index index.html;
}
}
}
3.2.创建https协议服务
需要配置ssl证书文件的路径,访问的时候需要通过https协议访问
server {
#启动监听的端口
listen 9443 ssl;
#服务的名称
server_name sslserver1;
#配置ssl证书的路径
ssl_certificate /usr/local/nginx/ssl/test.pem;
ssl_certificate_key /usr/local/nginx/ssl/test.key;
#设置支持的Http协议,此处是默认配置
ssl_protocols TLSv1 TLSv1.1 TLSv1.2; # don’t use SSLv3 ref: POODLE
location / {
#设置代理的上游服务连接池
proxy_pass http://tomcatServer/;
#开启对http1.1支持
proxy_http_version 1.1;
proxy_set_header X-Nginx-Proxy true;
}
}
3.3.部署vue应用
需要在vue.config.js里面配置代理,我这里配置的以api开头的接口会转发到后台服务。
const localPath = 'http://127.0.0.1:4712'; //服务器地址
//const localPath = 'http://192.168.0.111:4712'; //服务器地址
//vue.config.js
module.exports = {
devServer : {
open: true,
port: 8088,
proxy: {
'/api': {
timeout: 60000, //超时时间
target: localPath, // 接口域名
changeOrigin: true, //是否跨域
pathRewrite: {
'^/api': '/' //需要rewrite重写的,去自动去掉/api前缀再访问后台。
}
},
}
},
//其它的配置省略。。。
}
以上的配置在开发环境没有问题,但是部署到nginx容器里就不行了,需要在nginx.conf配置 location ^~ /api/ {} 这块的内容
http{
#vue应用需要访问的后台服务地址
upstream tomcatServer{
server 192.168.52.130:8080;
server 192.168.52.131:8080;
}
server {
listen 8081;
server_name test;
location / {
#root /usr/local/nginx/html/;
#默认访问欢迎页
index index.html;
#防止路由模式为history刷新页面出现404情况
try_files $uri $uri/ /index.html;
}
# 配置所有以api开头的请求转发到后台服务上
location ^~ /api/ {
#设置后台服务的地址
proxy_pass http://tomcatServer/;
add_header 'Access-Control-Allow-Origin' '*';
add_header 'Access-Control-Allow-Method' 'GET,POST,DELETE,PUT';
add_header 'Access-Control-Allow-Header' 'Content-Type,*';
proxy_redirect off;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
}
}
}
3.4.负载均衡算法
3.4.1.轮询
nginx默认使用的负载均衡算法就是轮询
upstream tomcatServer{
server 192.168.52.130:8080 fail_timeout=30s max_fails=2 weight=2;
server 192.168.52.131:8081 fail_timeout=30s max_fails=2;
server 192.168.52.132:8081 back;
}
参数 | 说明 |
---|---|
fail_timeout | 与max_fails配合使用 |
max_fails | 置在fail_timeout参数设置的时间内最大失败次数,如果在这个时间内,所有针对该服务器的请求都失败了,那么认为该服务器会被认为是停机 |
fail_time | 服务器会被认为停机的时间长度,默认为10s |
weight | 权重设置, weight默认是1,如果设置一个为2的话,那么请求的次数会是另外一个的2倍,此策略可以与least_conn和ip_hash结合使用。 |
backup | 标记该服务器为备用服务器。当主服务器都停止时,请求会被发送到它这里 |
3.4.2.最少连接least_conn
least_conn把请求转发给连接数较少的后端服务器
upstream tomcatServer{
least_conn;
server 192.168.31.139:8080 weight=2;
server 192.168.31.139:8081;
}
3.4.3.ip_hash
ip_hash保证每个访客固定访问一个后端服务器,可以解决session一致性的问题
upstream tomcatServer{
ip_hash;
server 192.168.31.139:8080 weight=2;
server 192.168.31.139:8081;
}
3.4.4.url_hash
按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,要配合缓存命中来使用。同一个资源多次请求,可能会到达不同的服务器上,导致不必要的多次下载,缓存命中率不高,以及一些资源时间的浪费。而使用url_hash,可以使得同一个url(也就是同一个资源请求)会到达同一台服务器,一旦缓存住了资源,再此收到请求,就可以从缓存中读取。
upstream tomcatServer{
hash $request_uri consistent;
server 192.168.31.139:8080 weight=2;
server 192.168.31.139:8081;
}
3.4.5.最短时间least_time
最短时间(仅NGINX 商业版)–对于每个请求,NGINX Plus选择具有最低平均延迟和最低活动连接数的服务器,其中最低平均延迟是根据包含在指令中以下参数中的哪个来计算的
参数 | 说明 |
---|---|
header | 从服务器接收第一个字节的时间 |
last_byte | 是时候从服务器接收完整响应了 |
last_byte inflight | 考虑到请求不完整的时间,可以从服务器接收完整的响应 |
upstream tomcatServer{
least_time header;
server 192.168.31.139:8080 weight=2;
server 192.168.31.139:8081;
}
3.4.6.随机
每个请求将传递到随机选择的服务器。如果two指定了参数,首先,NGINX考虑服务器权重随机选择两个服务器,然后使用指定的方法选择这些服务器之一:
参数 | 说明 |
---|---|
least_conn | 活动连接数最少 |
least_time=header(NGINX 商业版) | 从服务器接收响应标头的最短平均时间($upstream_header_time) |
least_time=last_byte(NGINX 商业版) | 从服务器接收完整响应的最短平均时间($upstream_response_time) |
upstream tomcatServer{
random two least_time=last_byte;
server 192.168.31.139:8080;
server 192.168.31.139:8081;
}
4.nginx.conf其他配置详细概况
#user nobody;
#nginx工作进程数,一般情况下一个进程足够,不能超过CPU的内核数
worker_processes 4;
#error_log logs/error.log;
#error_log logs/error.log notice;
#error_log logs/error.log info;
#pid logs/nginx.pid;
# 设置 nginx 最大文件描述符打开限制
# 在 Linux 系统中,每建立一个连接都是打开一个文件描述符(作为反向代理或负载均衡连接数量会翻倍,因为内外各一个)
# 所以文件的打开限制决定了 nginx 的最大连接数(应大于 worker_processes * worker_connections)
# 此处配置需要参考系统的限制(ulimit -n),不能超过系统的最大限制
worker_rlimit_nofile 65535;
events {
# epoll是多路复用IO(I/O Multiplexing)中的一种方式
use epoll;
# 设置每个工作进程可处理的最大连接数量
# 此设置将直接影响工作进程的内存固定占用,每个连接大概占用内存 0.4~0.5KB 左右
# 此值应小于 worker_rlimit_nofile / worker_processes
worker_connections 4096;
}
http {
include mime.types;
default_type application/octet-stream;
# 设置请求头缓冲区大小,超过后会使用下面的配置大小
client_header_buffer_size 2k;
large_client_header_buffers 4 4k;
# 设置请求体最大大小(此项影响上传文件的最大大小)
client_max_body_size 50m;
#日志输出格式
#log_format main '$remote_addr - $remote_user [$time_local] "$request" '
# '$status $body_bytes_sent "$http_referer" '
# '"$http_user_agent" "$http_x_forwarded_for"';
#access_log logs/access.log main;
# 提供了一种减少拷贝次数,提升文件传输性能的方法。(静态文件由内核直接发送给 socket,而不是由进程读取到内存再发送)
sendfile on;
#tcp_nopush必须和sendfile配合使用。在 nginx中它不是按时间累计0.2 秒后发送包,而是当包累计到一定大小后就发送。
tcp_nopush on;
#Nginx 使用 keepalive_timeout 来指定 KeepAlive 的超时时间(timeout)。指定每个 TCP 连接最多可以保持多长时间。Nginx 的默认值是 75 秒,有些浏览器最多只保持 60 秒,所以可以设定为 60 秒。若将它设置为 0,就禁止了 keepalive 连接。
keepalive_timeout 65;
#该指令开启从后端被代理服务器的响应body缓冲。
proxy_buffering on;
#Nginx使用该大小申请read_buf,即大小指定了 upstream header 最大长度,如果响应头超过了这个长度,Nginx会报upstream sent too big header错误,然后client收到的是502
proxy_buffer_size 128k;
#设置存储被代理服务器响应的body所占用的buffer个数和每个buffer大小
proxy_buffers 8 128k;
# 默认值 proxy_buffer_size*2
proxy_busy_buffers_size 256k;
#设置缓存存储的大小
proxy_max_temp_file_size 1024m;
#指定设置了发送请求给upstream服务器的超时时间。
proxy_send_timeout 60s; #默认60s
#该指令设置与代理服务器的读取超时时间
proxy_read_timeout 60s; #默认60s
#下面这个参数将为打开文件指定缓存,默认是没有启用的,max指定缓存数量,建议和打开文件数一致,inactive是指经过多长时间文件没被请求后删除缓存。
open_file_cache max=204800 inactive=20s;
#如果有一个文件在inactive时间内一次没被使用,它将被移除。
open_file_cache_min_uses 1;
#下面这个是指多长时间检查一次缓存的有效信息
open_file_cache_valid 30s;
#真实服务器上一级代理的IP地址或者IP段,多个写多行
set_real_ip_from 127.0.0.1;
set_real_ip_from 192.168.52.120;
#从哪个header头检索出要的IP地址
real_ip_header X-Forwarded-For;
# 递归排除IP地址,ip串从右到左开始排除set_real_ip_from里面出现的IP,如果出现了未出现这些ip段的IP,那么这个IP将被认为是用户的IP
real_ip_recursive on;
#上游服务器集群
upstream tomcatServer{
server 192.168.52.130:8080 fail_timeout=30s max_fails=2 weight=2;
server 192.168.52.131:8081 fail_timeout=30s max_fails=2;
#需要搭配proxy_set_header Connection参数使用
keepalive 120;
}
server {
#启动监听的端口
listen 8881;
#服务的名称
server_name server1;
location / {
#root /usr/local/nginx/html/;
index index.html;
#默认10天缓存
expires 3d;
#vue项目如果路由使用的history模式需要用到这个配置
try_files $uri $uri/ /index.html;
#设置代理的上游服务连接池
proxy_pass http://tomcatServer;
#HTTP1.1之后,HTTP协议支持持久连接,也就是长连接,优点在于在一个TCP连接上可以传送多个HTTP请求和响应,减少了建立和关闭连接的消耗和延迟。
proxy_http_version 1.1;
# 设置Connection为长连接(默认为no)
proxy_set_header Connection "";
#设置允许跨域
add_header 'Access-Control-Allow-Origin' '*';
#设置应答中明确了客户端所要访问的资源允许使用的方法或方法列表,下面列出了RESTful常用的几种
add_header 'Access-Control-Allow-Method' 'GET,POST,DELETE,PUT';
#设置请求头的Content-Type允许接收的格式,一般常用的有application/x-www-form-urlencoded,application/json
add_header 'Access-Control-Allow-Header' 'Content-Type,*';
#关闭url重定向设置
proxy_redirect off;
#把原http请求的Header中的Host字段也放到转发的请求里
proxy_set_header Host $http_host;
#记录客户端请求的真实IP
proxy_set_header X-Real-IP $remote_addr;
#用于记录代理信息的,每经过一级代理(匿名代理除外),代理服务器都会把这次请求的来源IP追加在X-Forwarded-For中
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
#报头是用于识别协议(HTTP 或 HTTPS)
proxy_set_header X-Forwarded-Proto $scheme;
#客户端浏览器的主机名
proxy_set_header REMOTE-HOST $remote_addr;
}
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root html;
}
}
# ssl服务,需要用https协议访问
server {
#启动监听的端口
listen 9443 ssl;
#服务的名称
server_name sslserver1;
#配置ssl证书的路径
ssl_certificate /usr/local/nginx/ssl/test.pem;
ssl_certificate_key /usr/local/nginx/ssl/test.key;
#设置支持的Http协议,此处是默认配置
ssl_protocols TLSv1 TLSv1.1 TLSv1.2; # don’t use SSLv3 ref: POODLE
location / {
#设置代理的上游服务连接池
proxy_pass http://tomcatServer/;
#开启对http1.1支持
proxy_http_version 1.1;
proxy_set_header X-Nginx-Proxy true;
#把原http请求的Header中的Host字段也放到转发的请求里
proxy_set_header Host $http_host;
#记录客户端请求的真实IP
proxy_set_header X-Real-IP $remote_addr;
#用于记录代理信息的,每经过一级代理(匿名代理除外),代理服务器都会把这次请求的来源IP追加在X-Forwarded-For中
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
#报头是用于识别协议(HTTP 或 HTTPS)
proxy_set_header X-Forwarded-Proto http;
#客户端浏览器的主机名
proxy_set_header REMOTE-HOST $remote_addr;
#关闭url重定向设置
proxy_redirect off;
}
}
}