Nginx学习总结

前言

Nginx学完已经有一段时间了,现在有点忘记了,真的是鱼的记忆~~~于是今天把它总结一遍,就当作是复习。

一、Nginx的基本概念

Nginx是一个高性能的HTTP和反向代理web服务器,同时也提供了IMAP/POP3/SMTP服务。其特点是占有内存少,并发能力强,有报告表明能支持高达50000个并发连接数。

1、反向代理

说到反向代理,不得不说说正向代理,什么是正向代理,如果把局域网外的Internet想象成一个巨大的资源库,则局域网中的客户端要访问Internet,则需要通过代理服务器来访问,这种代理服务器就称为正向代理。简单来说,就是访问一个网址,先给浏览器配置代理服务器(区别与反向代理),通过代理服务器再去帮我们访问网址比如说:翻墙~~~


反向代理: 我们只需要将请求发送到反向代理服务器,由反向代理服务器去选择目标服务器,目标服务器处理完后返回数据,再返回给客户端,此时反向代理服务器和目标服务器对外就是一个服务器,暴露的是代理服务器地址,隐藏了真实服务器IP地址比如说Nginx。如图:

 

 

 正向代理和反向代理区别:

正向代理代理的是客户端,帮客户端发送请求给目标服务器,服务器响应后,由代理服务器将响应内容返回给客户端,使客户端对目标服务器不可见

反向代理代理的是目标服务器,负责收发请求,目标服务器对客户端来说是不可见的

2、负载均衡

在我们传统单一的web项目中,完整的一个过程是:客户端发起请求 --> 服务器 --> 数据库-->返回客户端,在并发量少时,这样是没问题的,但随着使用人群的增多,并发量变大,项目就会出现性能瓶颈,经常出现宕机的情况。为了解决这个问题,我们有许多解决方案,最直接的就是提高硬件设施的性能,但这样做不但成本高,而且随着项目的复杂度、访问量等继续增大,带来的问题也越来越多。我们打个比喻,开始2个人同时吃饭(并发),我们拿个小锅就可以解决,然后到10个,我们可以换成大一点的,如果到100个人,我们就不太可能买一口能够做100份食物的锅了,这时,我们可以买10口做10个人的饭的锅,这样也能满足我们的需求。负载均衡也一样,我们通过多台服务器(集群)来解决大并发的问题,Nginx自动帮我们将请求分配到各个服务器。

3、动静分离

用来加快网站的解析速度,可以把动态页面和静态页面由不同的服务器来解析,加快解析的速度,降低原来单个服务器的压力。如图:

 

二、Nginx在Linux下的安装

Nginx下载官网

这里附上Nginx的下载官网,网上的安装教程很多,大家可以自行选择版本进行安装,我就不赘述了。

三、Nginx的基本操作

1、基本命令

注意,使用Nginx操作命令的前提条件,必须进入到Nginx的目录--这里是我的安装目录,大家进入自己的安装目录即可

/usr/local/nginx/sbin

常用命令如下

# 查看版本号
./nginx -v
# 启动nginx
./nginx
# 关闭nginx
./nginx -s stop
# 重新加载nginx(修改配置文件使其生效)
./nginx -s reload

2、配置文件

Nginx的配置文件在Nginx目录下的conf目录,全名为nginx.conf
Nginx的配置文件由三部分组成

全局块

从配置文件开始到events块之间的内容,主要会设置一些影响Nginx服务器整体运行的配置指令

比如配置:worker_processes 1;
这是Nginx服务器并发处理服务的关键配置,它的值越大,可以支持的并发处理量也越多,但是会受到硬件、软件等设备的制约。

events块

events块涉及的指令主要影响Nginx服务器与用户的网络连接,常用的设置包括是否允许同时接收多个网络连接,选取哪种事件驱动模型来处理连接请求,每个worker process可以同时支持的最大连接数等

比如配置:worker_connections 1024;
单个worker进程支持的最大连接数为1024,这部分配置对于Nginx的性能影响较大,在实际中应灵活配置

http块

这是Nginx配置中最频繁的一部分,代理、缓存和日志定义等绝大多数功能和第三方模块的配置都在这里,需要注意的是,http块包括http全局块和server块

http全局块
这部分包括文件引入,MIME-TYPE定义,日志自定义、连接超时时间、单链接请求数上限等。

server块
这块和虚拟主机有密切关系,从用户角度看,虚拟主机和一台独立的硬件主机是完全一样的,该技术的产生是为了节省互联网服务器硬件成本。每个 http 块可以包括多个 server 块,而每个 server 块就相当于一个虚拟主机。而每个 server 块也分为全局 server 块,以及可以同时包含多个 locaton 块。


全局 server 块
最常见的配置是本虚拟主机的监听配置和本虚拟主机的名称或IP配置
比如配置监听80端口,服务名称为localhost

     listen  80;
     server_name  localhost;

location 块
一个 server 块可以配置多个 location 块。这块的主要作用是基于 Nginx 服务器接收到的请求字符串(例如 server_name/uri-string),对虚拟主机名称 (也可以是IP 别名)之外的字符串(例如 前面的 /uri-string)进行匹配,对特定的请求进行处理,包括地址定向、数据缓存和应答控制等功能,还有许多第三方模块也在这里配置。
比如如下配置:

location /{
    root    html;
    index   index.html main.html
}

用Word画了一张图帮大家更好地理解配置文件中的各个模块的关系

四、Nginx实例配置

(一)反向代理

1、准备工作
安装tomcat
 A 在linux系统安装tomcat,使用默认端口8080

(1)将tomcat的压缩包放到/usr/src目录下(可以使用filezilla工具通过拖动的方式来上传)

(2)进入目录,将tomcat解压,命令:tar -xvf 压缩包名称

(3)启动tomcat:进入tomcat目录,有一个startup.sh,执行命令:./startup.sh,启动成功后会看到 Tomcat started的提示,也可以通过日志查看启动效果,进入到 logs 目录下,输入命令:tail -f catalina.out 即可查看
B 对外开放访问的端口

在这里我们先添加开放的端口号:8080
# 添加开放端口:8080
firewall-cmd --add-port=8080/tcp --permanent
# 重新加载
firewall-cmd --reload
查看开放的端口号
firewall-cmd --list-all


C 在windows系统中通过浏览器访问tomcat

在浏览器输入:服务器ip:8080,如果访问到的是tomcat的主页面,则是成功了,我们进入下一步

2、实例实现
实现的效果为,在浏览器地址输入 www.666.com 就跳转到linux系统的tomcat主页面中

A 配置域名

先在C:\Windows\System32\drivers\etc目录下配置自己的域名(如果不是买的~~),这个域名可以随便取名,配置格式为:服务器ip+空格+域名,这样你的机子就知道这个域名对应的ip是啥了,不然就只有买一个,让你的机子去DNS服务器上找(大学生穷啊),例如:192.168.146.100 www.666.com,配置好后,我们可以通过 www.666.com:8080访问到tomcat

B Nginx请求转发的配置

进入到Nginx的配置文件,进行配置

server {
    #监听端口
    listen  80;
    #监听ip
    server_name 192.168.146.100;
    
    location / {
        root html;
        #代理的目标地址
        proxy_pass http://127.0.0.1:8080;
        index index.html main.html;
    }
}

修改后保存(esc键 :wq),并运行nginx:./nginx
C 验证是否生效
输入www.666.com,如果来到了tomcat的主页面,则是成功了

(二)负载均衡

实现效果,浏览器地址栏访问:http://192.168.146.100/edu/cs.html,负载均衡效果,平均到 8080端口和8081端口中

1、准备工作

准备两台tomcat服务器,一台8080,一台8081
在两台tomcat服务器的webapps目录中,创建名称是edu的文件夹,再创建不同的html页面(用于区分)

2、Nginx配置
进入到Nginx的配置文件,开始配置
配置后保存退出

upstream myserver {
    server 192.168.146.100:8080;
    server 192.168.146.100:8081;
}
server {
    listen 80;
    server_name 192.168.146.100;
    location / {
        #代理的目标地址就是我们前面配置的myserver
        proxy_pass http://myserver;
    }
}

3、 测试效果

保存配置文件后应重启Nginx,然后访问 http://192.168.146.100,请求多次,如果相应的结果是交替的(轮询),则是成功了

4、Nginx负载均衡策略
前面的测试中,我们发现Nginx的默认策略是轮询,那它还有哪些策略呢,这里我进行一些补充

weigh(权重)
默认值为1,权重越高的被分配的机会越大,被请求的次数也越多(成正比)
示例配置如下

upstream myserver {
    server 192.168.146.100:8080 weight=3;
    server 192.168.146.100:8081 weight=5;
}

ip_hash
每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题
示例配置如下

upstream myserver {
    ip_hash
    server 192.168.16.168:8881;
    server 192.168.16.168:9991;
}

fair(第三方)
按照后端服务器的响应时间来分配(服务器配置高的多接收点响应),响应时间短的优先分配
示例配置如下

upstream myserver {
    server 192.168.146.100:8080;
    server 192.168.146.100:8081;
    fair
}

(三)动静分离

在前面Nginx的介绍部分,我们讲到了什么是动静分离,从目前实现角度来讲,大致分为两种:
(1)将静态文件独立成单独的域名,放在独立的服务器上,这是主流的方案
(2)将静态和动态的文件放在一起,通过Nginx来分开。我们通过 location 指定不同的后缀名实现不同的请求转发。通过 expires 参数设置,可以使浏览器缓存过期时间,减少与服务器之前的请求和流量。具体 Expires 定义:是给一个资源设定一个过期时间,也就是说无需去服务端验证,直接通过浏览器自身确认是否过期即可, 所以不会产生额外的流量。此种方法非常适合不经常变动的资源。

 

 

 

五、Nginx基本原理

1、master&worker机制
Nginx 启动后,由两个进程组成,一个是master(管理者),一个是worker(工作者)
一个Nginx:master只有一个,worker可以有多个,master的工作包括:接受信号,将信号分发给worker进程,监听worker进程工作状态,当worker进程退出时(非正常),启动新的worker进程。

可以通过命令查看相关进程

ps -ef | grep nginx

master就相当于领导,不做实质工作,只分配工作,worker是员工,负责处理工作,当一个请求进来,master进行管理,worker通过争抢(妥妥的卷王)的方式去获取请求,图示:

 

2、master&worker机制的优势
(1)首先,每个 worker是独立的进程,不需要加锁,所以省掉了锁带来的开销,同时在编程以及问题查找时,也会方便很多
(2)可以使用 nginx –s reload 热部署(不需要停机,边工作,边加载新的配置)
(3)采用独立的进程,可以让互相之间不会影响,一个进程退出后,其它进程还在工作,服务不会中断,master 进程则很快启动新的 worker 进程


3、相关问题
worker的数量:
Nginx 同 redis 类似都采用了 io 多路复用机制,每个 worker 都是一个独立的进程,每个进程里只有一个主线程,通过异步非阻塞的方式来处理请求, 即使是千上万个请求也不在话下。每个 worker 的线程可以把一个 cpu 的性能发挥到极致。所以 worker 数和服务器的 cpu 数相等是最为适宜的。设少了会浪费 cpu,设多了会造成 cpu 频繁切换上下文带来的损耗


连接数worker_connection
发送一个请求需要占用两个或者四个worker,静态资源为两个(一来一回),动态资源(服务器)为四个(Nginx还要去访问tomcat等服务器,拿到信息后返回,占用两个)


Nginx支持的最大并发数
Nginx 有一个 master,有四个 woker,每个 woker 支持最大的连接数 1024,支持的最大并发数是多少?

普通的静态访问最大并发数是: worker_connections * worker_processes / 2

而如果是 HTTP 作为反向代理来说,最大并发数量是 worker_connections *worker_processes / 4

这个值是表示每个worker 进程所能建立连接的最大值,所以,一个Nginx 能建立的最大连接数,应该是 worker_connections * worker_processes。当然,这里说的是最大连接数,对于 HTTP请求 本地资源来说 , 能 够支持的最大并发数量是worker_connections * worker_processes,如果是支持 http1.1的浏览器每次访问要占两个连接,所以普通的静态访问最大并发数是: worker_connections * worker_processes / 2,而如果是 HTTP 作 为反向代理来说,最大并发数量应该是 worker_connections * worker_processes / 4。因为作为反向代理服务器,每个并发会建立与客户端的连接和与后端服务的连接,会占用两个连接。

创作不易,老铁们点赞收藏加关注~~~~

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

时间邮递员

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值