Nginx (engine x)简介
Nginx 是一个高性能的HTTP和反向代理的web服务器,也提供了IMAP/POP3/SMTP服务。Nginx第一个公开版本0.1.0发布于2004年10月4日
- 反向代理,将多台服务器代理成一台服务器
- 负载均衡,将多个请求均匀的分配到多台服务器上,减轻每台服务器的压力,提高服务的吞吐量
- 动静分离,nginx可以用作静态文件的缓存服务器,提高访问速度
Nginx在做反向代理时,提供性能稳定,并且能够提供配置灵活的转发功能。Nginx可以根据不同的正则匹配,采取不同的转发策略,比如图片文件结尾的走文件服务器,动态页面走web服务器,只要你正则写的没问题,又有相对应的服务器解决方案,你就可以随心所欲的玩。并且Nginx对返回结果进行错误页跳转,异常判断等。如果被分发的服务器存在异常,他可以将请求重新转发给另外一台服务器,然后自动去除异常服务器。
Nginx 特点:
- 占用内存少:
- 并发能力强:能够支持5W并发链接相应
- 支持负载均衡:支持4种负载策略
- 安装简单配置简洁
正向代理服务器:
是位于客户端和原始服务器的一台中间服务器,为了从原始服务器获取到内容,客户端向代理服务器发送一个请求并带上目标服务器(原始服务器),代理服务器在接收到请求后就会将请求转发给原始服务器,并将从原始服务器上获取到的数据返回给客户端,代理服务器是代理的客户端,所以一般客户端是知道代理服务器的存在的,比如翻墙就用了代理服务器。主要作用
- 访问原来无法访问的资源
- 用作缓存,加速访问速度
- 对客户端访问授权,上网进行认证
- 代理可以记录用户访问记录(上网行为管理),对外隐藏用户信息
反向代理服务器:
是位于原始服务器端的服务器,反向代理服务器接受来自互联网的请求,然后将这些请求发送给内网的服务器,并将从内网的服务器获取结果返回给互联网上的客户端,反向代理服务器是代理的服务端,所以客户端是不知道反向代理服务器的存在的,服务端是知道反向代理服务器的。主要作用
- 保护内网安全
- 负载均衡
- 缓存,减少服务器的压力
Nginx 原理
工作过程
在nginx启动后,会有一个master进程和多个worker进程
master进程:
master进程主要用来管理worker进程,包括:接受信号,将信号分发给worker进程,监听worker进程工作状态,当worker进程退出时(非正常),启动新的worker进程。基本的网络事件会交给worker进程处理。多个worker进程之间是对等的,他们同等竞争来自客户端的请求,各进程互相之间是独立的 。独立的进程,不需要加锁,所以省掉了锁带来的开销,一个请求,只可能在一个worker进程中处理,一个worker进程,不可能处理其它进程的请求。 worker进程的个数是可以设置的,一般我们会设置与机器cpu核数一致,这里面的原因与nginx的进程模型以及事件处理模型是分不开的 。
当master接收到重新加载的信号会怎么处理(./nginx -s reload)?,master会重新加载配置文件,然后启动新的进程,使用的新的worker进程来接受请求,并告诉老的worker进程他们可以退休了,老的worker进程将不会接受新的,老的worker进程处理完手中正在处理的请求就会退出。
worker进程: 共享锁避免惊群事件
worker进程是如何处理用户的请求呢?首先master会根据配置文件生成一个监听相应端口的socket,然后再faster出多个worker进程,这样每个worker就可以接受从socket过来的消息(其实这个时候应该是每一个worker都有一个socket,只是这些socket监听的地址是一样的)。当一个连接过来的时候,每一个worker都能接收到通知,但是只有一个worker能和这个连接建立关系,其他的worker都会连接失败,这就是所谓的惊群现在,为了解决这个问题,nginx提供一个共享锁accept_mutex,有了这个共享锁后,就会只有一个worker去接收这个连接。当一个worker进程在accept这个连接之后,就开始读取请求,解析请求,处理请求,产生数据后,再返回给客户端,最后才断开连接,这样一个完整的请求就是这样的了。
事件驱动模型:异步阻塞机制
为什么几个worker进程(每一个worker进程里面其实只有一个主线程)能同时接收上万的请求呢?这是因为nginx事件处理机制是异步非阻塞的。nginx将一个请求划分为多个阶段来异步处理模块,每个阶段只是处理请求的一部分,如果请求的这一部分发生阻塞,nginx不会等待,它会处理其他的请求的某一部分。传统web服务器的每个事件消费者独占一个进程(线程)资源,这种情况对于用户规模较小的情况来说,用户响应速度快,但是当并发规模达到数十万上百万的时候,由于线程(进程)数目过多,会频繁的切换,而且当线程阻塞的时候会进行睡眠,也会造成资源的浪费,这样服务器就会产生瓶颈.
nginx服务器采用的事件驱动机制不同,他不会为每个消费事件创建一个进程或线程,这样就不会产生由于进程间频繁切换占用cpu而产生的瓶颈,而且nginx不会让事件阻塞,即采用无阻塞事件驱动模型,这样就不会因为事件阻塞使进程睡眠而造成的资源浪费.
nginx将一个请求划分成多个阶段异步处理,每个阶段仅仅完成一个请求中的一部分,当本阶段任务完成后进入下一阶段.等待事件发生不是阻塞的等待,等待事件发生时候内。
Nginx -Windows 使用及常用命令
- start nginx : 启动
- nginx -s stop: 快速退出,快速停止nginx
- nginx -s quit:优雅退出,完整有序的停止nginx)
- nginx -s reload: 更换配置后不需要重新启动nginx,使用本命令可以让变动生效
- nginx -s reopen: 打开日志
- tasklist /fi "imagename eq nginx.exe" 查看
D:\>cd D:\Soft\nginx-1.14.2
D:\Soft\nginx-1.14.2>start nginx
D:\Soft\nginx-1.14.2>tasklist /fi "imagename eq nginx.exe"
映像名称 PID 会话名 会话# 内存使用
========================= ======== ================ =========== ============
nginx.exe 8184 Console 1 7,868 K
nginx.exe 1100 Console 1 26,344 K
nginx.exe 11412 Console 1 26,348 K
nginx.exe 13148 Console 1 26,340 K
nginx.exe 13592 Console 1 26,324 K
nginx.exe 11776 Console 1 26,320 K
nginx.exe 12712 Console 1 26,352 K
nginx.exe 13760 Console 1 26,220 K
nginx.exe 10368 Console 1 26,308 K
D:\Soft\nginx-1.14.2>nginx -s stop
D:\Soft\nginx-1.14.2>tasklist /fi "imagename eq nginx.exe"
信息: 没有运行的任务匹配指定标准。
D:\Soft\nginx-1.14.2>
启动方式有两种
(1)直接双击nginx.exe,双击后一个黑色的弹窗一闪而过
(2)打开cmd命令窗口,切换到nginx解压目录下,输入命令 nginx.exe 或者 start nginx ,回车即可
检查nginx是否启动成功: 在浏览器地址栏输入网址 http://localhost:80,回车
Nginx -Linux 使用及常用命令
Nginx 配置文件说明
配置文件位置:nginx\conf\nginx.conf
配置文件格式
配置文件包括3部分, 全局块、事件块和http全局块
- 全局块:worker_processes 1; 表示并发处理配置,值越到并发能力越强
- event块: 配置影响nginx服务器或与用户的网络连接。有每个进程的最大连接数,选取哪种事件驱动模型处理连接请求,是否允许同时接受多个网路连接,开启多个网络连接序列化等。 例如:worker_connections 1024; 表示支持的最大连接数
- http全局块: nginx 的http配置处理信息, 其又分http块和server块,一个http全局快可以嵌套多个 server块, server 块配置虚拟主机的参数例如: listen 80 表示监听端口为80,一个http全局块中可以有多个server块,localtion块配置请求路由以及各页面处理情况
网上有同学对配置信息做了详细说明, 详细配置信息如下:
########### 每个指令必须有分号结束。#################
#user administrator administrators; #配置用户或者组,默认为nobody nobody。
#worker_processes 2; #允许生成的进程数,默认为1
#pid /nginx/pid/nginx.pid; #指定nginx进程运行文件存放地址
error_log log/error.log debug; #制定日志路径,级别。这个设置可以放入全局块,http块,server块,级别以此为:debug|info|notice|warn|error|crit|alert|emerg
events {
accept_mutex on; #设置网路连接序列化,防止惊群现象发生,默认为on
multi_accept on; #设置一个进程是否同时接受多个网络连接,默认为off
#use epoll; #事件驱动模型,select|poll|kqueue|epoll|resig|/dev/poll|eventport
worker_connections 1024; #最大连接数,默认为512
}
http {
include mime.types; #文件扩展名与文件类型映射表
default_type application/octet-stream; #默认文件类型,默认为text/plain
#access_log off; #取消服务日志
log_format myFormat '$remote_addr–$remote_user [$time_local] $request $status $body_bytes_sent $http_referer $http_user_agent $http_x_forwarded_for'; #自定义格式
access_log log/access.log myFormat; #combined为日志格式的默认值
sendfile on; #允许sendfile方式传输文件,默认为off,可以在http块,server块,location块。
sendfile_max_chunk 100k; #每个进程每次调用传输数量不能大于设定的值,默认为0,即不设上限。
keepalive_timeout 65; #连接超时时间,默认为75s,可以在http,server,location块。
upstream mysvr {
server 127.0.0.1:7878;
server 192.168.10.121:3333 backup; #热备
}
error_page 404 https://www.baidu.com; #错误页
server {
keepalive_requests 120; #单连接请求上限次数。
listen 4545; #监听端口
server_name 127.0.0.1; #监听地址
location ~*^.+$ { #请求的url过滤,正则匹配,~为区分大小写,~*为不区分大小写。
#root path; #根目录
#index vv.txt; #设置默认页
proxy_pass http://mysvr; #请求转向mysvr 定义的服务器列表
deny 127.0.0.1; #拒绝的ip
allow 172.18.5.54; #允许的ip
}
}
}
nginx请求转发处理
增加代理,访问http://localhost:80 时候,转发到 http://127.0.0.1:8081
worker_processes 1;
events {
worker_connections 1024;
}
http {
include mime.types;
default_type application/octet-stream;
sendfile on;
keepalive_timeout 65;
server {
listen 80;
server_name localhost;
location / {
root html;
proxy_pass http://127.0.0.1:8081;
index index.html index.htm;
}
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root html;
}
}
}
根据请求后缀分发
worker_processes 1;
events {
worker_connections 1024;
}
http {
include mime.types;
default_type application/octet-stream;
sendfile on;
keepalive_timeout 65;
server {
listen 70;
server_name localhost;
location ~/dev/ {
proxy_pass http://127.0.0.1:8080;
}
location ~/prod/ {
proxy_pass http://127.0.0.1:8081;
}
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root html;
}
}
}
其中,配置转发的时候用到了~,其含义内容如下:
- = 严格匹配。如果这个查询匹配,那么将停止搜索并立即处理此请求。
- ~ 为区分大小写匹配(可用正则表达式)
- !~为区分大小写不匹配
- ~* 为不区分大小写匹配(可用正则表达式)
- !~*为不区分大小写不匹配
- ^~ 如果把这个前缀用于一个常规字符串,那么告诉nginx如果路径匹配那么不测试正则表达式
apache-tomcat-8.5.39_8080\webapps\ROOT下创建dev文件夹,并创建一个a.html ,里面随便写些内容用于区分,比如端口号8080
apache-tomcat-8.5.39_8081\webapps\ROOT下创建prod文件夹,并创建一个a.html,里面随便写些内容用于区分,比如端口号8081
访问:http://localhost:70/dev/a.html 转发到http://127.0.0.1:8080/dev/a.html
访问:http://localhost:70/dev/a.html 转发到http://127.0.0.1:8080/dev/a.html
Nginx配置负载均衡
负载均衡(Load Balance),意思是将负载(工作任务,访问请求)进行平衡、分摊到多个操作单元(服务器,组件)上进行执行。是解决高性能,单点故障(高可用),扩展性(水平伸缩)的终极解决方案。
worker_processes 1;
events {
worker_connections 1024;
}
http {
include mime.types;
default_type application/octet-stream;
sendfile on;
keepalive_timeout 65;
upstream myserver{
server 127.0.0.1:8080;
server 127.0.0.1:8081;
}
server {
listen 60;
server_name localhost;
location / {
root html;
proxy_pass http://myserver;
index index.html index.htm;
}
}
}
当访问 http://127.0.0.1:60的时候,经过 nginx 转发=调用 http://127.0.0.1:8080 或者 http://127.0.0.1:8081
当前使用的是顺序轮询策略, 8080和8081交替调用,第一次调用8080,第二次就调用9090 ,可以通过配置修改负载策略
负载策略
1. 按照顺序轮询: 依次访问
upstream myserver{
server 127.0.0.1:8080;
server 127.0.0.1:8081;
}
2. 按照配置的权重,默认值是1, 权重值越高调用的次数也就越多, 按照1:3的配置,大概调用1次8080后调用3次8081
upstream myserver{
server 127.0.0.1:8080 weight=1;
server 127.0.0.1:8081 weight=3;
}
3. 按照ip hash,每次请求按照访问iphash结果分配,这样访客固定访问一个后台服务器
upstream myserver{
ip_hash;
server 127.0.0.1:8080;
server 127.0.0.1:8081;
}
4. 按fair(第三方): 按后端相应时间分配,越短分配越多
upstream myserver{
server 127.0.0.1:8080;
server 127.0.0.1:8081;
fair;
}
问题列表
1. 错误: The system cannot find the file specified
D:\Soft\nginx-1.14.2>nginx -s quit
nginx: [error] CreateFile() "D:\Soft\nginx-1.14.2/logs/nginx.pid" failed (2: The system cannot find the file specified)
有可能是nginx路径不正确
2. 配置文件配置错误
Nginx 配置都需要以分号结尾
3. 启动2个tomcat的时候发现端口被占用
通过server.xml配置中可以看到tomcat 默认会占用8005, 8080 ,8009 三个端口,因此同服务器上启动多个tomcat的时候,这3个端口需要同步修改,避免重复占用端口
文章参考:
https://blog.csdn.net/wangbiao007/article/details/82910709