主要内容:
- 第一部分:Nginx基础回顾(Nginx是什么?能做什么事情(应用在什么场合)?常用命令是什么?)
- 第二部分:Nginx核心配置文件解读
- 第三部分:Nginx应用场景之反向代理
- 第四部分:Nginx应用场景之负载均衡
- 第五部分:Nginx应用场景之动静分离
- 第六部分:Nginx底层进程机制剖析
第一部分 Nginx基础回顾
百度百科Nginx介绍:
- Nginx (engine x) 是一个高性能的
HTTP
和反向代理
web服务器,同时也提供了IMAP/POP3/SMTP服务。 - Nginx是一款轻量级的Web 服务器/反向代理服务器及电子邮件(IMAP/POP3)代理服务器,在BSD-like 协议下发行。其特点是占有内存少,并发能力强,事实上nginx的并发能力在同类型的网页服务器中表现较好,使用nginx网站用户有:百度、京东、新浪、网易、腾讯、淘宝等。
1.1 Nginx 到底是什么?
Nginx 是⼀个高性能的HTTP
和反向代理
web服务器,核心特点是占有内存少
,并发能力强
1.2 Nginx 又能做什么事情(应用场景)
(1)Http服务器(Web服务器)
- 性能非常高,非常注重效率,能够经受高负载的考验。
- 支持50000个并发连接数,不仅如此,CPU和内存的占用也非常的低,10000个没有活动的连
接才占用2.5M的内存。
(2)反向代理服务器
正向代理:在浏览器中配置代理服务器的相关信息,通过代理服务器访问目标网站,代理服务器收到目标网站的响应之后,会把响应信息返回给我们自己的浏览器客户端
反向代理:浏览器客户端发送请求到反向代理服务器(比如Nginx),由反向代理服务器选择原始服务器提供服务获取结果响应,最终再返回给客户端浏览器。
正向代理和反向代理最大的区别就是访问的时候知不知道具体访问的目标服务器地址,知道目标地址是正向代理,不知道目标地址是反向代理。
(3)负载均衡服务器
负载均衡,当一个请求到来的时候(结合上图),Nginx反向代理服务器根据请求去寻找一个原始服务器来处理当前请求,那么这叫做反向代理。那么,如果目标服务器有多台(比如上图中的tomcat1,tomcat2,tomcat3…),找哪一个目标服务器来处理当前请求呢,这样一个寻找确认的过程就叫做负载均衡。
生活中也有很多这样的例子,比如,我们去银行,可以处理业务的窗口有多个,那么我们会被分配到哪个窗口呢,这样的一个过程就叫做负载均衡。
负载均衡就是为了解决单台服务器高负载的问题。
(4)动静分离
1.3 Nginx的特点
- 跨平台:Nginx可以在大多数类unix操作系统上编译运行,而且也有windows版本
- Nginx上手非常容易,配置也比较简单
- 高并发,性能好
- 稳定性也特别好,宕机概率很低
1.4 Nginx的安装
- 上传nginx安装包到linux服务器,nginx安装包(.tar文件)下载地址
- 安装Nginx依赖,pcre、openssl、gcc、zlib(推荐使用yum源自动安装)
yum -y install gcc zlib zlib-devel pcre-devel openssl openssl-devel - 解包Nginx软件包
tar -xvf nginx-1.17.8.tar - 进⼊解压之后的目录 nginx-1.17.8
cd nginx-1.17.8 - 命令执行 ./configure
- 命令执行 make
- 命令执行 make install,完毕之后在/usr/local/下会产生一个nginx目录
- 进⼊sbin目录中,执行启动nginx命令
cd nginx/sbin
./nginx
1.5 Nginx主要命令
- ./nginx 启动nginx
- ./nginx -s stop 终止nginx(当然也可以找到nginx进程号,然后使用 kill -9 杀掉nginx进程)
- ./nginx -s reload (重新加载nginx.conf配置文件)
第二部分 Nginx核心配置文件解读
Nginx的核心配置文件conf/nginx.conf包含三块内容:全局块、events块、http块
(1)全局块
从配置文件开始到events块之间的内容,此处的配置影响nginx服务器整体的运行,比如 worker 进程的数量、错误日志的位置等。
(2)events块
events块主要影响nginx服务器与用户的网络连接,比如 worker_connections 1024,标识每个 workderprocess 支持的最大连接数为1024。
(3)http块
http块是配置最频繁的部分,虚拟主机的配置,监听端口的配置,请求转发、反向代理、负载均衡等
第三部分 Nginx应用场景之反向代理
需求:
(1)需求⼀完成
- 部署tomcat,保持默认监听8080端口
- 修改nginx配置,并重新加载
- 修改nginx配置
- 重新加载nginx配置
./nginx -s reload
- 修改nginx配置
- 测试,访问http://111.229.248.243:9003,返回tomcat的页面
(2)需求二完成
- 再部署⼀台tomcat,保持默认监听8081端口
- 修改nginx配置,并重新加载
- 这里主要就是多 location 的使用,这里的 nginx 中 server/location 就好比 tomcat 中的 Host/Context
- location 语法如下:
location [=|~|~*|^~] /uri/ { … }
在nginx配置文件中,location主要有这几种形式:
1)正则匹配 location ~ /hello { }
2)不区分大小写的正则匹配 location ~* /hello { }
3)匹配路径的前缀 location ^~ /hello { }
4)精确匹配 location = /hello { }
5)普通路径前缀匹配 location /hello { }
优先级:4 > 3 > 2 > 1 > 5
第四部分 Nginx应用场景之负载均衡
Nginx负载均衡策略
(1)轮询
默认策略,每个请求按时间顺序逐⼀分配到不同的服务器,如果某⼀个服务器下线,能自动剔除
upstream cydServer{
server 111.229.248.243:8080;
server 111.229.248.243:8082;
}
location /abc {
proxy_pass http://cydServer/;
}
(2)weight
weight 代表权重,默认每⼀个负载的服务器都为1,权重越高那么被分配的请求越多(用于服务器性能不均衡的场景)
upstream cydServer{
server 111.229.248.243:8080 weight=1;
server 111.229.248.243:8082 weight=2;
}
(3)ip_hash
每个请求按照ip的hash结果分配,每⼀个客户端的请求会固定分配到同⼀个目标服务器处理,可以解决session共享问题。
upstream cydServer{
ip_hash;
server 111.229.248.243:8080;
server 111.229.248.243:8082;
}
第五部分 Nginx应用场景之动静分离
动静分离就是讲动态资源和静态资源的请求处理分配到不同的服务器上,比较经典的组合就是Nginx+Tomcat架构(Nginx处理静态资源请求,Tomcat处理动态资源请求),那么其实之前的讲解中,Nginx反向代理目标服务器Tomcat,我们能看到目标服务器ROOT项目的index.jsp,这本身就是Tomcat在处理动态资源请求了。
所以,我们只需要配置静态资源访问即可。
Nginx配置
第六部分 Nginx底层进程机制剖析
Nginx启动后,以daemon
多进程方式在后台运行,包括⼀个Master进程
和多个Worker进程
,Master进程是领导,是老大,Worker进程是干活的小弟。
这里worker只有一个,是因为配置文件中 worker_processes
等于 1。
(1)master进程:主要是管理worker进程,比如:
- 接收外界信号向各worker进程发送信号(./nginx -s reload)
- 监控worker进程的运行状态,当worker进程异常退出后Master进程会自动重新启动新的worker进程等。
(2)worker进程
worker进程具体处理网络请求。多个worker进程之间是对等的,他们同等竞争来自客户端的请求,各进程互相之间是独立的。⼀个请求,只可能在⼀个worker进程中处理,⼀个worker进程,不可能处理其它进程的请求。worker进程的个数是可以设置的,⼀般设置与机器cpu核数⼀致。
(3)Nginx进程模型示意图如下
以 ./nginx -s reload 来说明nginx信号处理这部分
- master进程对配置文件进行语法检查
- 尝试配置(比如修改了监听端口,那就尝试分配新的监听端口)
- 尝试成功则使用新的配置,新建worker进程
- 新建成功,给旧的worker进程发送关闭消息
- 旧的worker进程收到信号会继续服务,直到把当前进程接收到的请求处理完毕后关闭
所以reload之后worker进程pid是发生了变化的
worker进程处理请求部分的说明
例如,我们监听9003端口,⼀个请求到来时,如果有多个worker进程,那么每个worker进程都有可能处理这个链接。
- master进程创建之后,会建立好需要监听的的socket,然后从master进程再fork出多个worker进程。所以,所有worker进程的监听描述符listenfd在新连接到来时都变得可读。
- nginx使用互斥锁来保证只有⼀个workder进程能够处理请求,拿到互斥锁的那个进程注册listenfd读事件,在读事件里调用accept接受该连接,然后解析、处理、返回客户端
nginx多进程模型好处
- 每个worker进程都是独立的,不需要加锁,节省开销
- 每个worker进程都是独立的,互不影响,⼀个异常结束,其他的照样能提供服务
- 多进程模型为 reload 热部署机制提供了支撑
第七部分 扩展
7.1 惊群效应
(1)什么是惊群效应
Nginx为了充分发挥性能,使用了多个worker子进程监听相同端口的设计,这样多个子进程在accept建立连接时会有争抢,这会带来著名的“惊群”问题,子进程数量越多越明显,这会照成系统性能的下降。
(2)Nginx如何解决惊群效应?
通过加锁 nginx_accept_mutex
未加锁前:
- 一个master和多个worker,worker需要干活(处理请求),所以就先需要连接到master
- master接收到一个请求,所有worker都争抢这个请求,所以就造成master非常繁忙,造成Nginx整体性能下降,worker数量越多影响越大。
加锁解决惊群效应:
- 一个master和多个worker
- 现在worker不直接去连接master了
- 增加了一个锁
- 这些小弟worker先去争抢这个锁,谁抢到了锁就去处理这个请求。
7.2 四层和七层负载均衡
7.2.1 四层与七层负载均衡在原理上的区别
(1)图示
(2)概述
- 四层负载均衡工作在 OSI 模型中的四层,即
传输层
。四层负载均衡只能根据报文中目标地址和源地址对请求进行转发
,而无法修改或判断所请求资源的具体类型,然后经过负载均衡内部的调度算法转发至要处理请求的服务器。四层负载均衡单纯的提供了终端到终端的可靠连接,并将请求转发至后端,连接至始至终都是同一个。LVS 就是很典型的四层负载均衡。 - 七层负载均衡工作在 OSI 模型的第七层,即
应用层
,所以七层负载均衡可以基于请求的应用层信息进行负载均衡,例如根据请求的资源类型分配到后端服务器,而不再是根据IP和端口选择。七层负载均衡的功能更丰富更灵活,也能使整个网络更智能。如上图所示,在七层负载均衡两端(面向用户端和服务器端)的连接都是独立的。
简言之,四层负载均衡就是基于 IP+端口 实现的。七层负载均衡就是通过应用层资源实现的。
7.2.1 Nginx的四层与七层负载均衡
(1)四层负载均衡:针对TCP连接请求,如代理mysql、文件下载等。
(2)七层负载均衡:七层负载均衡可以对请求和响应进行一定的处理,比如Nginx可以对js、css等压缩、以及缓存等。
Nginx主要用作七层负载均衡
压缩:
缓存: