一文读懂Nginx

一文读懂Nginx

nginx基本概念

nginx概述

Nginx (engine x) 是一个高性能的HTTP反向代理web服务器,特点是占有内存少,并发能力强。事实上nginx的并发能力确实在同类型的网页服务器中表现较好。中国大陆使用nginx网站用户有:百度、京东、新浪、网易、腾讯、淘宝等。

nginx作为Web服务器

nginx可以作为静态页面的Web服务器,同时还支持CGI协议的动态语言,比如perl、php等。但是不支持Java,Java程序只能通过tomcat服务器进行配合完成。Nginx专为性能优化而开发,性能是其最重要的考量,实现上非常注重效率,能经受住高负载的考验,有报告表明能支持高达50000个并发连接数。

  • http://nginx.org/

正向代理

Nginx不仅可以做反向代理,实现负载均衡。还能用作正向代理来进行上网等功能。正向代理:如果把局域网外的Internet想象成一个巨大的资源库,则局域网中的客户端要访问Internet,则需要通过代理服务器来访问,这种代理服务就称为正向代理。

在这里插入图片描述

反向代理

反向代理,其实客户端对代理是无感知的,因为客户端不需要任何配置就可以访问,我们只需要将请求发送到反向代理服务器,由反向代理服务器去选择目标服务器获取数据后,在返回给客户端,此时反向代理服务器和目标服务器对外就是一个服务器,暴露的是代理服务器地址,隐藏了真实服务器IP地址。

在这里插入图片描述

负载均衡

客户端发送多个请求到服务器,服务器处理请求,有一些可能要与数据库进行交互,服务器处理完毕后,再将结果返回给客户端。

这种架构模式对于早期的系统相对单一,并发请求相对较少的情况下是比较适合的,成本也低。但是随着信息数量的不断增长,访问量和数据量的飞速增长,以及系统业务的复杂度增加,这种架构会造成服务器相应客户端的请求日益缓慢,并发量特别大的时候,还容易造成服务器直接崩溃。很明显这是由于服务器性能的瓶颈造成的问题,那么如何解决这种情况呢?

我们首先想到的可能是升级服务器的配置,比如提高CPU执行频率,加大内存等提高机器的物理性能来解决此问题,但是我们知道摩尔定律的日益失效,硬件的性能提升己经不能满足日益提升的需求了。最明显的一个例子,天猫双十一当天,某个热销商品的瞬时访问量是极其庞大的,那么类似上面的系统架构,将机器都增加到现有的顶级物理配置,都是不能够满足需求的。那么怎么办呢?

上面的分析我们去掉了增加服务器物理配置来解决问题的办法,也就是说纵向解决问题的办法行不通了,那么横向增加服务器的数量呢?这时候集群的概念产生了,单个服务器解决不了,我们增加服务器的数量,然后将猜求分发到各个服务器上,将原先请求集中到单个服务器上的情况改为将请求分发到多个服务器上,将负载分发到不同的服务器,也就是我们所说的负载均衡

在这里插入图片描述

动静分离

为了加快网站的解析速度,可以把动态页面和静态页面由不同的服务器来解析,加快解析速度。降低原来单个服务器的压力。

在这里插入图片描述

nginx安装、常用命令和配置文件

在linux系统中安装nginx

  • 把nginx安装文件放到linux系统中
  • tar -xvf 压缩包名称 解压文件
  • 进入解压的目录 执行./configure
  • make && make install
  • 安装成功之后,在usr多出来一个文件夹local/nginx,在nginx中有sbin启动脚本
  • 启动nginx cd /usr/local/nginx/sbin ls ./nginx
  • 查看nginx是否启动 ps -ef | grep nginx
  • 查看conf配置文件 cd nginx/ cd conf 打开文件vi nginx.conf
  • 查看默认端口listen 浏览器访问IP地址+端口查看nginx是否安装成功
防火墙注意事项

查看开放的端口号 firewall-cmd --list-all

设置开放的端口号 firewall-cmd --add-service=http -permanent

​ sudo firewall-cmd --add-port=80/tcp --permanent

重启防火墙 firewall-cmd --reload

nginx常用命令

1.使用nginx命令操作的前提条件:进入nginx目录

/usr/local/nginx/sbin

2.查看nginx版本号

./nginx -v

在这里插入图片描述

3.启动nginx

./nginx

在这里插入图片描述

4.关闭nginx

./nginx -s stop

在这里插入图片描述

5.重新加载nginx

在修改nginx中的配置文件nginx.conf后需要重新加载nginx才能生效!!!

./nginx -s reload

在这里插入图片描述

nginx配置文件

1.nginx配置文件的位置

/usr/local/nginx/conf/nginx.conf

在这里插入图片描述

2.nginx配置文件的组成

vi nginx.conf 打开配置文件

  • nginx配置文件由3部分组成

    • 全局块

    从配置文件开始到 events 块之间的内容,主要会设置一些影响nginx服务器整体运行的配置指令,主要包括配置运行(Nginx服务器的用户(组)、允许生成的 worker process 数,进程 PID存放路径、日志存放路径和类型以及配置文件的引入等。

    在这里插入图片描述

    worker_processes 1;

    这是Nginx服务器并发处理服务的关键配置,worker processes值越大,可以支持的并发处理是也越多,但是会受到硬件、软件等设备的制约。

    • events块

    events块涉及的指令主要影响Nginx服务器与用户的网络连接,常用的设置包括是否开启对多 work process下的网络连接进行序列化,是否允许同时接收多个网络连接,选取哪种事件驱动模型来处理连接请求,每个workprocess可以同时支持的最大连接数等。

    上述例子就表示每个work process支持的最大连接数为1024.

    这部分的配置对Nginx的性能影响较大,在实际中应该灵活配置。

    在这里插入图片描述

    • http块

    这算是Nginx服务器配置中最频繁的部分,代理、缓存和日志定义等绝大多数功能和第三方模块的配置都在这里需要注意的是:http块也可以包括http全局块、server块。

    • http 全局块配置的指令包括文件引入、MIME-TYPE定义、日志自定义、连接超时时间、单链接请求数上限等。

    在这里插入图片描述

    • server块

    这块和虚拟主机有密切关系,虚拟主机从用户角度看,和一台独立的硬件主机是完全一样的,该技术的产生是为了节省互联网服务器硬件成本。

    每个http 块可以包括多个server 块,而每个server 块就相当于一个虚拟主机。而每个server 块也分为全局server 块,以及可以同时包含多个location 块。

    • 1、全局 server 块

    最常见的配置是本虚拟机主机的监听配置和本虚拟主机的名称或IP配置。

    • 2、location块

    一个server块可以配置多个location 块。

    这块的主要作用是基于Nginx服务器接收到的请求字符串(例如server_name/uri-string ),对虚拟主机名称(也可以是IP别名)之外的字符串(例如前面的/uri-string )进行匹配,对特定的请求进行处理。地址定向、数据缓存和应答控制等功能,还有许多第三方模块的配置也在这里进行。

    在这里插入图片描述

nginx配置实例1-反向代理

反向代理实例1

1、实现效果

(1)打开浏览器,在浏览器地址栏输入地址www.123.com,跳转到linux系统tomcat主页面中

2、准备工作

(1)在linux系统安装tomcat,使用默认端口8080

tomcat安装文件放到linux系统中,解压

进入tomcat的bin目录中,./startup.sh启动tomcat服务器

(2)对外开放访问的端口

firewall-cmd --add-port=8080/tcp --permanent

firewall-cmd --reload

(3)在windows系统中通过浏览器访问tomcat主页

3.访问过程的分析

在这里插入图片描述

4.具体配置

(1)在windows系统中的hosts文件进行域名和ip对应关系的配置

host文件所在位置:C:\Windows\System32\drivers\etc

192.168.17.129 www.123.com

(2)在nginx进行请求转发的配置(反向代理的配置)

在这里插入图片描述

5.测试

浏览器访问www.123.com

反向代理实例2

(1) 实现效果:使用 nginx 反向代理,根据访问的路径跳转到不同端口的服务中
nginx 监听端口为 9001,
访问 http://192.168.17.129:9001/edu/ 直接跳转到 127.0.0.1:8081
访问 http://192.168.17.129:9001/vod/ 直接跳转到 127.0.0.1:8082

(2)准备工作

a. 第一步,两个tomcat端口和测试页面

准备两个 tomcat,一个 8081 端口,一个 8082 端口。
在**/usr/feng/apach-tomcat/下 新建tomcat8081和tomcat8082两个文件夹,将 Tomcat安装包 分别上传到两个文件夹,进行解压缩安装,8081的Tomcat只改一个http协议默认端口号** 就行,直接启动即可。
这里需要改8082的端口号,需要修改三个端口,只修改一个端口号的话,是启动不了的,我已经测试过了(如果只修改http协议默认端口的话,8081和8082只会启动一个)。因为默认的都是8080(没有的直接创建文件夹,好多都是刚建的,与上面的第一个示例示例有点改动)
tomcat8081 解压包,然后进入到 /bin 下 ,使用命令 ./startup 启动

tomcat8082
使用命令 编辑 文件 :/conf/server.xml 文件
vim server.xml
修改后如下:
修改server 的默认端口,由默认8005->8091

在这里插入图片描述

并准备好测试的页面
写一个a.html页面,

对应的端口号


tomcat8081的tomcat,放到目录 /webapp/vod 下,内容:8081

tomcat8082的tomcat,放到目录 /webapp/edu 下,内容:8082

(3)具体配置

修改 nginx 的配置文件
修改 nginx 的配置文件 在 http 块中添加 server{}
修改其中注释的就行

在这里插入图片描述

开放防火墙9001,8081,8082端口!!!

(4)最终测试

在这里插入图片描述

在这里插入图片描述

location指令说明

该指令用于匹配 URL。

首先精确匹配 =
其次前缀匹配 ^~
其次是按文件中顺序的正则匹配
然后匹配不带任何修饰的前缀匹配。
最后是交给 / 通用匹配
当有匹配成功时候,停止匹配,按当前匹配规则处理请求

在这里插入图片描述

nginx配置实例2-负载均衡

1.实现效果

浏览器地址栏输入地址http://192.168.17.129/edu/a.html,实现负载均衡效果,平均8080和8081端口中

2.准备工作

(1)准备两台tomcat服务器,一台8080,一台8081

(2)在两台tomcat里面webapps目录中分别创建名称为edu的文件夹,在edu文件夹中创建页面a.html,用于测试

3.具体配置

在这里插入图片描述

4.最终测试

http://192.168.17.129/edu/a.html

不断刷新地址,内容为8080和8081不断切换

nginx分配服务器策略

随着互联网信息的爆炸性增长,负载均衡(load balance)已经不再是一个很陌生的话题, 顾名思义,负载均衡即是将负载分摊到不同的服务单元,既保证服务的可用性,又保证响应 足够快,给用户很好的体验。快速增长的访问量和数据流量催生了各式各样的负载均衡产品, 很多专业的负载均衡硬件提供了很好的功能,但却价格不菲,这使得负载均衡软件大受欢迎, nginx 就是其中的一个,在 linux 下有 Nginx、LVS、Haproxy 等等服务可以提供负载均衡服 务,而且 Nginx 提供了几种分配方式(策略):

  • 轮询(默认)

每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器 down 掉,能自动剔除。

  • weight

weight 代表权重, 默认为 1,权重越高被分配的客户端越多

upstream myserver {
        server 192.168.17.129:8081 weight=10;   #  在这儿
        server 192.168.17.129:8082 weight=10;
    }
    server {
        listen       80;
        server_name  192.168.17.129;
        location / {
            root   html;
            proxy_pass   http://myserver;
            index  index.html index.htm;
}
  • ip_hash

每个请求按访问 ip 的 hash 结果分配,这样每个访客固定访问一个后端服务器

upstream myserver {
    	ip_hash;							//  在这儿
        server 208.208.128.122:8081 ;   
        server 208.208.128.122:8082 ;
    }
    server {
        listen       80;
        server_name  208.208.128.122;
        location / {
            root   html;
            proxy_pass   http://myserver;
            index  index.html index.htm;
    }

  • fair(第三方)

fair(第三方),按后端服务器的响应时间来分配请求,响应时间短的优先分配。

upstream myserver {
        server 208.208.128.122:8081 ;
        server 208.208.128.122:8082 ;
        fair; # 在这儿
}

nginx配置实例3-动静分离

在这里插入图片描述

Nginx 动静分离简单来说就是把动态跟静态请求分开,不能理解成只是单纯的把动态页面和 静态页面物理分离。严格意义上说应该是动态请求跟静态请求分开,可以理解成使用 Nginx 处理静态页面,Tomcat 处理动态页面。动静分离从目前实现角度来讲大致分为两种:

  • 一种是纯粹把静态文件独立成单独的域名,放在独立的服务器上,也是目前主流推崇的方案;
  • 另外一种方法就是动态跟静态文件混合在一起发布,通过 nginx 来分开。

通过 location 指定不同的后缀名实现不同的请求转发。通过 expires 参数设置,可以使 浏览器缓存过期时间,减少与服务器之前的请求和流量。具体 Expires 定义:是给一个资 源设定一个过期时间,也就是说无需去服务端验证,直接通过浏览器自身确认是否过期即可, 所以不会产生额外的流量。此种方法非常适合不经常变动的资源。(如果经常更新的文件, 不建议使用 Expires 来缓存),我这里设置 3d,表示在这 3 天之内访问这个 URL,发送 一个请求,比对服务器该文件最后更新时间没有变化,则不会从服务器抓取,返回状态码 304,如果有修改,则直接从服务器重新下载,返回状态码 200。

(1)准备工作

在Linux 系统中准备 静态资源,用于进行访问。

创建一个data文件夹,data文件夹下创建一个image和www文件夹,www文件夹中放置a.html文件,image文件夹下放置01.jpg图片一张

(2)具体配置

在这里插入图片描述

(3)最终测试

http://192.168.17.129/image/01.jpg

因为在配置文件中配置autoindex on

在这里插入图片描述

http://192.168.17.129/www/a.html

在这里插入图片描述

nginx配置高可用集群

1.什么是nginx的高可用?

在这里插入图片描述

(1)需要两台nginx服务器

(2)需要keepalived

(3)需要虚拟IP

2.配置高可用的准备工作

(1)需要两台服务器 192.168.17.129 192.168.17.131

(2)在两台服务器上安装nginx

(3)在两台服务器上安装keepalived

yum install keepalived -y 在usr路径下执行

安装成功后在etc目录里生成keepalived目录,里面有文件keepalived.conf

在这里插入图片描述

3.完成高可用配置(主从配置)

(1)修改etc/keepalived/keepalived.conf配置文件

(2)在usr/local/src下添加检测脚本

(3)把两台服务器上的nginx和keepalived启动

启动nginx: ./nginx

启动keepalived: systemctl start keepalived.service

4.最终测试

浏览器地址栏输入192.168.17.50能访问到nginx即为成功

在这里插入图片描述

把主服务器(192.168.17.129)中的nginx和keepalived服务停止,再次访问192.168.17.50

在这里插入图片描述

配置文件详解

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

nginx原理

1.mater 和 worker

在这里插入图片描述

nginx 启动后,是由两个进程组成的。master(管理者)和worker(工作者)。
一个nginx 只有一个master。但可以有多个worker,过来的请求由master管理,worker进行争抢式的方式去获取请求。

在这里插入图片描述

2.worker是如何进行工作的?

在这里插入图片描述

3.master-workers 的机制的好处

首先,对于每个 worker 进程来说,独立的进程,不需要加锁,所以省掉了锁带来的开销, 同时在编程以及问题查找时,也会方便很多。
可以使用 nginx –s reload 热部署,利用 nginx 进行热部署操作
其次,采用独立的进程,可以让互相之间不会 影响,一个进程退出后,其它进程还在工作,服务不会中断,master 进程则很快启动新的 worker 进程。当然,worker 进程的异常退出,肯定是程序有 bug 了,异常退出,会导致当 前 worker 上的所有请求失败,不过不会影响到所有请求,所以降低了风险。

4.设置多少个 worker

Nginx 同 redis 类似都采用了io 多路复用机制,每个 worker 都是一个独立的进程,但每个进 程里只有一个主线程,通过异步非阻塞的方式来处理请求, 即使是千上万个请求也不在话 下。每个 worker 的线程可以把一个 cpu 的性能发挥到极致。所以 worker 数和服务器的 cpu 数相等是最为适宜的。设少了会浪费 cpu,设多了会造成 cpu 频繁切换上下文带来的损耗。

worker 数和服务器的 cpu 数(核数)相等是最为适宜

5.连接数worker_connection

一个nginx能建立的最大连接数应该是worker_connections*worker_processes

  • 发送一个请求,占用了worker几个连接数?

    • 2个/4个
  • nginx,有一个master,有四个woker,每个woker支持最大的连接数据1024,支持的最大并发数是多少?

    • 普通的静态访问最大并发数是:worker_connections* worker processes /2,
      采用了io 多路复用机制,每个 worker 都是一个独立的进程,但每个进 程里只有一个主线程,通过异步非阻塞的方式来处理请求, 即使是千上万个请求也不在话 下。每个 worker 的线程可以把一个 cpu 的性能发挥到极致。所以 worker 数和服务器的 cpu 数相等是最为适宜的。设少了会浪费 cpu,设多了会造成 cpu 频繁切换上下文带来的损耗。

worker 数和服务器的 cpu 数(核数)相等是最为适宜

5.连接数worker_connection

一个nginx能建立的最大连接数应该是worker_connections*worker_processes

  • 发送一个请求,占用了worker几个连接数?

    • 2个/4个
  • nginx,有一个master,有四个woker,每个woker支持最大的连接数据1024,支持的最大并发数是多少?

    • 普通的静态访问最大并发数是:worker_connections* worker processes /2,
    • 而如果是HTTP作为反向代理来说,最大并发数量应该是worker_connections* worker processes/4。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值