Nginx 初学者指南
什么是Nginx?
Nginx是一个 轻量级/高性能的反向代理Web服务器,他实现非常高效的反向代理、负载平衡,他 可以处理2-3万并发连接数,官方监测能支持5万并发,现在中国使用nginx网站用户有很多,例 如:新浪、网易、 腾讯等。
为什么要用Nginx?
跨平台、配置简单、方向代理、高并发连接:处理2-3万并发连接数,官方监测能支持5万并发, 内存消耗小:开启10个nginx才占150M内存 ,nginx处理静态文件好,耗费内存少,
而且Nginx内置的健康检查功能:如果有一个服务器宕机,会做一个健康检查,再发送的请求就不 会发送到宕机的服务器了。重新将请求提交到其他的节点上。
使用Nginx的话还能:
- 节省宽带:支持GZIP压缩,可以添加浏览器本地缓存
- 稳定性高:宕机的概率非常小
- 接收用户请求是异步的
Nginx怎么处理请求的?
nginx接收一个请求后,首先由listen和server_name指令匹配server模块,再匹配server模块里的 location,location就是实际地址
server { # 第一个Server区块开始,表示一个独立的虚拟主机站点
listen 80; # 提供服务的端口,默认80
server_name localhost; # 提供服务的域名主机名
location / { # 第一个location区块开始 root html; # 站点的根目录,相当于Nginx的安装目录
index index.html index.htm; # 默认的首页文件,多个用空格分开
} # 第一个location区块结果
}
Nginx应用场景?
- http服务器。Nginx是一个http服务可以独立提供http服务。可以做网页静态服务器。
- 虚拟主机。可以实现在一台服务器虚拟出多个网站,例如个人网站使用的虚拟机。
- 反向代理,负载均衡。当网站的访问量达到一定程度后,单台服务器不能满足用户的请求时,需要 用多台服务器集群可以使用nginx做反向代理。并且多台服务器可以平均分担负载,不会应为某台 服务器负载高宕机而某台服务器闲置的情况。
- nginx 中也可以配置安全管理、比如可以使用Nginx搭建API接口网关,对每个接口服务进行拦截。
Nginx目录结构有哪些?
[root@localhost ~]# tree /usr/local/nginx
/usr/local/nginx
├── client_body_temp
├── conf # Nginx所有配置文件的目录
│ ├── fastcgi.conf # fastcgi相关参数的配置文件
│ ├── fastcgi.conf.default # fastcgi.conf的原始备份文件
│ ├── fastcgi_params # fastcgi的参数文件
│ ├── fastcgi_params.default
│ ├── koi-utf
│ ├── koi-win
│ ├── mime.types # 媒体类型
│ ├── mime.types.default
│ ├── nginx.conf # Nginx主配置文件
│ ├── nginx.conf.default
│ ├── scgi_params # scgi相关参数文件
│ ├── scgi_params.default
│ ├── uwsgi_params # uwsgi相关参数文件
│ ├── uwsgi_params.default
│ └── win-utf
├── fastcgi_temp # fastcgi临时数据目录
├── html # Nginx默认站点目录
│ ├── 50x.html # 错误页面优雅替代显示文件,例如当出现502错误时会调 用此页面
│ └── index.html # 默认的首页文件
├── logs # Nginx日志目录
│ ├── access.log # 访问日志文件
│ ├── error.log # 错误日志文件
│ └── nginx.pid # pid文件,Nginx进程启动后,会把所有进程的ID号写 到此文件
├── proxy_temp # 临时目录
├── sbin # Nginx命令目录
│ └── nginx # Nginx的启动命令
├── scgi_temp # 临时目录
└── uwsgi_temp # 临时
Nginx配置文件nginx.conf有哪些属性模块?
worker_processes 1; # worker进程的数量
events { # 事件区块开始
worker_connections 1024; # 每个worker进程支持的最大连接数
} # 事件区块结束
http { # HTTP区块开始
include mime.types; # Nginx支持的媒体类型库文件
default_type application/octet-stream; # 默认的媒体类型
sendfile on; # 开启高效传输模式
keepalive_timeout 65; # 连接超时
server { # 第一个Server区块开始,表示一个独立的虚拟 主机站点
listen 80; # 提供服务的端口,默认80
server_name localhost; # 提供服务的域名主机名
location / { # 第一个location区块开始
root html; # 站点的根目录,相当于Nginx的安装目录
index index.html index.htm; # 默认的首页文件,多个用空格分开
} # 第一个location区块结果
error_page 500502503504 /50x.html; # 出现对应的http状态码时,使用50x.html回应客户
location = /50x.html { # location区块开始,访问50x.html
root html; # 指定对应的站点目录为html
}
}
…
Nginx 基本操作
作为系统服务运行(需要root):
可能有不同的安装方式,这里是用yum安装的。
ssh root@15.116.76.126
[root@mpc ~]# systemctl status nginx
● nginx.service - The nginx HTTP and reverse proxy server
Loaded: loaded (/usr/lib/systemd/system/nginx.service; enabled; vendor preset: disabled)
Active: active (running) since Mon 2021-10-18 09:07:20 CST; 1 years 5 months ago
Process: 5352 ExecStart=/usr/sbin/nginx (code=exited, status=0/SUCCESS)
Process: 5166 ExecStartPre=/usr/sbin/nginx -t (code=exited, status=0/SUCCESS)
Process: 5160 ExecStartPre=/usr/bin/rm -f /run/nginx.pid (code=exited, status=0/SUCCESS)
Main PID: 5355 (nginx)
CGroup: /system.slice/nginx.service
├─ 5355 nginx: master process /usr/sbin/nginx
├─11615 nginx: worker process #工作进程
├─11616 nginx: worker process
├─11617 nginx: worker process
└─11618 nginx: worker process
启动/停止
[root@mpc ~]# systemctl start nginx
[root@mpc ~]# systemctl stop nginx
[root@mpc ~]# systemctl restart nginx
配置
配置目录可能在/etc/nginx(也有可能1.5上面那样)
[root@mpc ~]# tree -A /etc/nginx
/etc/nginx
├── conf.d #子配置
│ ├── jenkins-jira.conf
│ ├── mpc.cn.hpecorp.net.crt
│ └── mpc.cn.hpecorp.net.key
├── default.d
├── fastcgi.conf
├── fastcgi.conf.default
├── fastcgi_params
├── fastcgi_params.default
├── koi-utf
├── koi-win
├── mime.types
├── mime.types.default
├── nginx.conf #主要配置
├── nginx.conf.default
├── scgi_params
├── scgi_params.default
├── uwsgi_params
├── uwsgi_params.default
└── win-utf
HTML and files
[root@mpc ~]# tree -A /usr/share/nginx
/usr/share/nginx
├── html
│ ├── 404.html
│ ├── 50x.html
│ ├── index.html
│ ├── nginx-logo.png
│ └── poweredby.png
└── modules
├── mod-http-geoip.conf
├── mod-http-image-filter.conf
├── mod-http-perl.conf
├── mod-http-xslt-filter.conf
├── mod-mail.conf
└── mod-stream.conf
检查配置
[root@mpc ~]# nginx -t
nginx: the configuration file /etc/nginx/nginx.conf syntax is ok
nginx: configuration file /etc/nginx/nginx.conf test is successful
修改配置以后需要让更新配置生效
[root@mpc ~]# nginx -s reload
查看 Log
具体配置在nginx.conf或子配置里面,可重载,一般在/var/log/nginx里面(1.5不是)
error_log /var/log/nginx/error.log;
access_log /var/log/nginx/access.log main;
Nginx虚拟主机怎么配置?
1、基于域名的虚拟主机,通过域名来区分虚拟主机——应用:外部网站
2、基于端口的虚拟主机,通过端口来区分虚拟主机——应用:公司内部网站,外部网站的管理后 台
3、基于ip的虚拟主机。
基于虚拟主机配置域名
需要建立/data/www /data/bbs目录,windows本地hosts添加虚拟机ip地址对应的域名解析;对 应域名网站目录下新增index.html文件;
当客户端访问www.lijie.com,监听端口号为80,直接跳转到data/www目录下文件
server {
listen 80;
server_name www.lijie.com;
location / {
root data/www;
index index.html index.htm;
}
}
当客户端访问www.lijie.com,监听端口号为80,直接跳转到data/bbs目录下文件
server {
listen 80;
server_name bbs.lijie.com;
location / {
root data/bbs;
index index.html index.htm;
}
}
基于端口的虚拟主机
使用端口来区分,浏览器使用域名或ip地址:端口号 访问
当客户端访问www.lijie.com,监听端口号为8080,直接跳转到data/www目录下文件
server {
listen 8080;
server_name www.lijie.com;
location / {
root data/www;
index index.html index.htm;
}
}
当客户端访问www.lijie.com,监听端口号为80直接跳转到真实ip服务器地址127.0.0.1:8080
server {
listen 80;
server_name www.lijie.com;
location / {
proxy_pass http://127.0.0.1:8080;
index index.html index.htm;
}
}
限流怎么做的?
Nginx限流就是限制用户请求速度,防止服务器受不了
限流有3种
- 正常限制访问频率(正常流量)
- 突发限制访问频率(突发流量)
- 限制并发连接数
Nginx的限流都是基于漏桶流算法
正常限制访问频率(正常流量):
限制一个用户发送的请求,我Nginx多久接收一个请求。
Nginx中使用ngx_http_limit_req_module模块来限制的访问频率,限制的原理实质是基于漏桶算 法原理来实现的。在nginx.conf配置文件中可以使用limit_req_zone命令及limit_req命令限制单个 IP的请求处理频率。
NGINX Rate Limiting
#定义限流维度,一个用户一分钟一个请求进来,多余的全部漏掉
limit_req_zone $binary_remote_addr zone=one:10m rate=1r/m;
#绑定限流维度
server{
location /seckill.html{
limit_req zone=one;
proxy_pass http://lj_seckill;
}
}
1r/s代表1秒一个请求,1r/m一分钟接收一个请求, 如果Nginx这时还有别人的请求没有处理完,
Nginx就会拒绝处理该用户请求。
突发限制访问频率(突发流量):
限制一个用户发送的请求,我Nginx多久接收一个。
上面的配置一定程度可以限制访问频率,但是也存在着一个问题:如果突发流量超出请求被拒绝处 理,无法处理活动时候的突发流量,这时候应该如何进一步处理呢?
Nginx提供burst参数结合 nodelay参数可以解决流量突发的问题,可以设置能处理的超过设置的请求数外能额外处理的请求 数。我们可以将之前的例子添加burst参数以及nodelay参数:
#定义限流维度,一个用户一分钟一个请求进来,多余的全部漏掉
limit_req_zone $binary_remote_addr zone=one:10m rate=1r/m;
#绑定限流维度
server{
location /seckill.html {
limit_req zone=zone burst=5 nodelay;
proxy_pass http://lj_seckill;
}
}
为什么就多了一个 burst=5 nodelay; 呢,多了这个可以代表Nginx对于一个用户的请求会立即处 理前五个,多余的就慢慢来落,没有其他用户的请求我就处理你的,有其他的请求的话我Nginx就 漏掉不接受你的请求
限制并发连接数
Nginx中的ngx_http_limit_conn_module模块提供了限制并发连接数的功能,可以使用 limit_conn_zone指令以及limit_conn执行进行配置。接下来我们可以通过一个简单的例子来看 下:
http {
limit_conn_zone $binary_remote_addr zone=myip:10m;
limit_conn_zone $server_name zone=myServerName:10m;
}
server {
location / {
limit_conn myip 10;
limit_conn myServerName 100;
rewrite / http://www.lijie.net permanent;
}
}
上面配置了单个IP同时并发连接数最多只能10个连接,并且设置了整个虚拟服务器同时最大并发 数最多只能100个链接。当然,只有当请求的header被服务器处理后,虚拟服务器的连接数才会 计数。刚才有提到过Nginx是基于漏桶算法原理实现的,实际上限流一般都是基于漏桶算法和令牌 桶算法实现的。
Nginx负载均衡的算法怎么实现的?策略有哪些?
为了避免服务器崩溃,大家会通过负载均衡的方式来分担服务器压力。将对台服务器组成一个集 群,当用户访问时,先访问到一个转发服务器,再由转发服务器将访问分发到压力更小的服务器。 Nginx负载均衡实现的策略有以下五种:
轮询(默认)
每个请求按时间顺序逐一分配到不同的后端服务器,如果后端某个服务器宕机,能自动剔除故障系 统。
upstream backserver {
server 192.168.0.12;
server 192.168.0.13;
}
权重 weight
weight的值越大分配 到的访问概率越高,主要用于后端每台服务器性能不均衡的情况下。其次是为在主从的情况下设置 不同的权值,达到合理有效的地利用主机资源。
upstream backserver {
server 192.168.0.12 weight=2;
server 192.168.0.13 weight=8;
}
权重越高,在被访问的概率越大,如上例,分别是20%,80%。
ip_hash( IP绑定)
每个请求按访问IP的哈希结果分配,使来自同一个IP的访客固定访问一台后端服务器, 并且可以有 效解决动态网页存在的session共享问题
upstream backserver {
ip_hash;
server 192.168.0.12:88;
server 192.168.0.13:80;
}
fair(第三方插件)
必须安装upstream_fair模块。
对比 weight、ip_hash更加智能的负载均衡算法,fair算法可以根据页面大小和加载时间长短智能 地进行负载均衡,响应时间短的优先分配。
upstream backserver {
server server1;
server server2;
fair;
}
哪个服务器的响应速度快,就将请求分配到那个服务器上。
url_hash(第三方插件)
必须安装Nginx的hash软件包 按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,可以进一步提高后端缓存 服务器的效率。
upstream backserver {
server squid1:3128;
server squid2:3128;
hash $request_uri;
hash_method crc32;
}
Nginx的性能调优参数有哪些?
Nginx是一款高性能、高并发、低内存占用的Web服务器,其性能调优参数较多,下面列举一些常用的性能调优参数:
- worker_processes:Nginx启动进程数,一般设置为CPU核心数的倍数。
- worker_connections:Nginx每个进程最大连接数,一般设置为1024或2048。
- keepalive_timeout:客户端与Nginx之间的连接保持时间,默认为75s,可以根据实际情况进行调整。
- sendfile:开启文件的零拷贝技术,可以提高文件传输速度。
- tcp_nopush:开启tcp_nopush选项,可以减少网络包的传输次数,提高传输效率。
- tcp_nodelay:开启tcp_nodelay选项,可以禁用Nagle算法,减少网络延迟。
- worker_rlimit_nofile:Nginx进程允许打开的最大文件描述符数,一般设置为最大文件描述符数的一半。
- proxy_buffering:开启proxy_buffering选项,可以启用反向代理的缓存功能,减少对后端服务器的请求次数。
- client_body_buffer_size和client_header_buffer_size:限制请求头和请求体的大小,避免恶意攻击。
- fastcgi_buffer_size和fastcgi_buffers:限制FastCGI缓存的大小,提高FastCGI传输速度。
- gzip:启用gzip压缩功能,减小传输数据大小,提高传输效率。
这些参数可以通过修改Nginx的配置文件进行调整。调优参数的具体设置需要根据实际情况进行测试和调整,以达到最佳的性能表现。