Nginx

一、Nginx是什么?

Nginx是一个高性能的HTTP和反向代理服务器,特点是占有内存少,并发能力强,事实上nginx的并发能力确实在同类型的网页服务器中表现较好,中国大陆使用nginx网站用户有:百度、京东、新浪、网易、腾讯、淘宝等。
nginx专为性能优化而开发,性能是其最重要的考量,实现上非常注重效率,能经受高负载的考验,有报告表明能支持高达50000个并发连接数。

二、Nginx能做什么?

1.反向代理

正向代理:在客户端(浏览器)配置代理服务器,通过代理服务器进行互联网访问,这种代理服务就称为正向代理。
反向代理:我们只需要将请求发送到反向代理服务器,由反向代理服务器去选择目标服务器获取数据后,再返回给客户端,此时反向代理服务器和目标服务器对外就是一个服务器,暴露的是代理服务器地址,隐藏了真实服务器IP地址。
nginx不仅可以做反向代理,实现负载均衡,还能用作正向代理来进行上网等功能。

2.负载均衡

单个服务器解决不了,我们增加服务器的数量,然后将请求分发到各个服务器上,将原先请求集中到单个服务器上的情况改为将请求分发到多个服务器上,将负载分发到不同的服务器,也就是我们所说的负载均衡。

3.动静分离

为了加快网站的解析速度,可以把动态页面和静态页面由不同的服务器来解析,加快解析速度,降低原来单个服务器的压力。

三、Nginx怎么安装?(包括常用命令和配置文件)

1.在liunx系统中安装nginx

 使用远程连接工具连接linux操作系统在nginx官网下载

2. nginx常用命令

1.使用nginx操作命令前提条件:必须进入nginx的目录
  /usr/local/nginx/sbin
2.查看nginx版本号
  ./nginx -v
3.启动nginx
  ./nginx
4.关闭nginx
  ./nginx -s stop
5.重新加载nginx
  ./nginx -s reload    

3.nginx配置文件

1.配置文件的位置

 /usr/local/nginx/conf/nginx.conf

2.nginx配置文件由三部分组成

- 全局块
    从配置文件开始到events块之间的内容,主要会设置一些影响nginx服务器整体运行的配置指令,主要包括配置运行nginx服务器的用户(组)、允许生成的 worker process 数,进程PID存放路径、日志存放路径和类型以及配置文件的引入等。
    eg:worker_processes   1;
    这是 nginx 服务器并发处理服务的关键配置,worker processes 值越大,可以支持的并发处理量也越多,但是会受到硬件、软件等设备的制约。
- events块
    events块涉及的指令主要影响nginx服务器与用户的网络连接,常用的设置包括是否开启对多 work process 下的网络连接进行序列化,是否允许同时接收多个网络连接,选取哪种事件驱动模型来处理连接请求,每个 work process 可以同时支持的最大连接数等。
    eg:worker_connections  1024;    支持的最大连接数      
- http块
    Nginx服务器配置中最频繁的部分,代理、缓存和日志定义等绝大多数功能和第三方模块的配置都在这里
    需要注意的是:http 块也可以包括http全局块、server块,而每个 server 块也分为全局 server 块,以及可以同时包含多个 location 块
    (1)、全局 server 块
       最常见的配置是本虚拟机主机的监听配置和本虚拟主机的名称或IP配置。
    (2)、location 块
       一个 server 块可以配置多个 location 块。
       这块的主要作用是基于 Nginx 服务器接收到的请求字符串(例如 server_name/uri-string),对虚拟机主机名称(也可以是IP别名)之外的字符串(例如 前面的 /uri-string)进行匹配,对特定的请求进行处理。地址定向、数据缓存和应答控制等功能,还有许多第三方模块的配置也在这里进行。
       -location 指令说明
          该指令用于匹配 URL
          语法如下:
          location ( = | ~ | ~* | ^~) uri {

          }
          (1、= :用于不含正则表达式的uri前,要求请求字符串与uri严格匹配,如果匹配成功,就停止继续向下搜索并立即处理该请求。
           2、~ :用于表示uri包含正则表达式,并且区分大小写。
           3、~*:用于表示uri包含正则表达式,并且不区分大小写。
           4、^~:用于不含正则表达式的uri前,要求Nginx服务器找到标识uri和请求字符串匹配度最高的location后,立即使用此location处理请求,而不再使用location块中的正则uri和请求字符串做匹配。
           注意:如果uri包含正则表达式,则必须要有~或者~*标识。)

4.nginx配置实例

1- 反向代理

(1)实现效果
      1.打开浏览器,在浏览器地址栏输入地址 www.123.com,跳转 linux 系统 tomcat 主页面中
(2)准备工作
       1.在 linux 系统安装 tomcat ,使用默认端口 8080
          tomcat 安装文件放到linux系统中,解压
           进入tomcat的bin目录中,./startup.sh启动tomcat服务器
        2.对外开放访问的端口
           firewall-cmd --add-port=80/tcp --permanent
           firewall-cmd -reload
          查看已经开放的端口号
           firewall-cmd --list-all
        3.在 windows 系统中通过浏览器访问 tomcat
 (3) 访问过程的分析

在这里插入图片描述

 (4) 具体配置
      第一步 在windows 系统的 host 文件进行域名和ip对应关系的配置
             1.添加内容到host文件
              192.168.8.130 www.123.com
      第二步 在 nginx 进行请求转发的配置(反向代理配置)

在这里插入图片描述

 (5) 最终测试

在这里插入图片描述
在这里插入图片描述

2- 负载均衡

1.实现效果
  (1) 浏览器地址栏输入地址:http://192.168.8.131/edu/a.html ,负载均衡效果,平均 8080和8081端口中
2.准备工作
  (1) 准备两台 tomcat 服务器,一台8080,一台8081
  (2) 在两台tomcat里面webapps目录中,创建名称是edu文件夹,在edu文件夹中创建页面 a.html,用于测试
3.在nginx 的配置文件中进行负载均衡的配置

在这里插入图片描述
在这里插入图片描述

4. nginx 分配服务器策略
   第一种   轮询(默认)
      每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。
   第二种   weight
      weight 代表权重,默认为1,权重越高被分配的客户端越多
   第三种   ip_hash
      每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。例如:
	      upstream server_pool{
		      ip_hash;
		      server 192.168.8.131:8080;
		      server 192.168.8.131:8081;
	      }
   第四种   fair(第三方)
        按后端服务器的响应时间来分配请求,响应时间短的优先分配。例如
	        upstream server_pool{
		        server 192.168.8.131:8080;
		        server 192.168.8.131:8081;
		        fair;
	        }

3- 动静分离

(1) 概念
	通过 location 指定不同的后缀名实现不同的请求转发。通过 expires 参数设置,可以使浏览器缓存过期时间,减少与服务器之间的请求和流量。具体 Expires 定义:是给一个资源设定一个过期时间,也就是说无需去服务端验证,直接通过浏览器自身确认是否过期即可,所以不会产生额外的流量。此种方法非常适合不经常变动的资源。(如果经常更新的文件,不建议使用 Expires 来缓存),我这里设置3d,表示在这3天之内访问这个URL,发送一个请求,比对服务器该文件最后更新时间没有变化,则不会从服务器抓取,返回状态码304,如果有修改,则直接从服务器重新下载,返回状态码200。  
(2) 准备工作
    1.在linux系统中准备静态资源,用于进行访问

在这里插入图片描述

(3) 具体配置

在这里插入图片描述

(4) 最终测试
   1. 浏览器中输入地址
    http://192.168.8.131/image/01.jpg               

在这里插入图片描述

   2. 浏览器中输入地址:
    http://192.168.8.131/www/a.html 

5.nginx配置高可用集群

(1). 什么是 nginx 高可用

在这里插入图片描述

1.需要两台 nginx 服务器
2.需要 keepalived
3.需要虚拟ip

(2).配置高可用的准备工作

1.需要两台服务器 192.168.8.131 和 192.168.8.132
2.在两台服务器安装 nginx
3.在两台服务器安装 keepalived

(3).在两台服务器安装 keepalived

1.使用 yum 命令进行安装
  yum install keepalived -y

在这里插入图片描述

2.安装之后,在etc里面生成目录 keepalived,有文件 keepalived.conf

(4).完成高可用配置(主从配置)

1. 修改 /etc/keepalived/keepalived.conf 配置文件
global defs {
    notification_email {
	    acassen@firewall.loc
	    failover@firewall.loc
	    sysadmin@firewall.loc
    }
   notification_email from Alexandre.Cassen@firewall.loc
   smtp_server 192.168.8.131
   smtp_connect_timeout 30
   router_id LVS_DEVEL  
}

vrrp_script chk_http_port {
  
  script "/usr/local/src/nginx_check.sh"
  
  interval 2      # (检测脚本执行的间隔)
  
  weight 2
  
}

vrrp_instance VI_1 {
  state BACKUP   # 备份服务器上将 MASTER 改为 BACKUP
  interface ens33   //网卡
  virtual_router_id 51   # 主、备机的 virtual_router_id 必须相同
  priority 90     # 主、备机取不同的优先级,主机值较大,备份机值较小
  advert_int 1
  authentication {
      auth_type PASS
      auth_pass 1111
  }
  virtual_ipaddress {
     192.168.8.50  // VRRP H虚拟地址
  }
}
2.  在 /usr/local/src 添加检测脚本
   #!/bin/bash
 A=`ps -C nginx -no-header |wc -l`
 if [ $A -eq 0 ];then
    /usr/local/nginx/sbin/nginx
    sleep 2
    if [ `ps -C nginx --no-header |wc -l` -eq 0 ];then
       killall keepalived
    fi
 fi    
3.  把两台服务器上 nginx 和 keepalived 启动
   启动 nginx:./nginx
   启动 keepalived: systemctl start keepalived.service 

(5).最终测试

1. 在浏览器地址栏输入 虚拟ip地址  192.168.8.50

在这里插入图片描述

在这里插入图片描述

2.  把主服务器(192.168.8.131)nginx 和 keepalived 停止,再访问虚拟地址(192.168.8.50)

6. nginx原理

(1)  master 和 worker

在这里插入图片描述

(2)  worker 如何进行工作的

在这里插入图片描述

(3) 一个 master 和多个 worker 有好处
    1. 可以使用 nginx -s feload 热部署,利于 nginx 进行热部署操作
    2. 每个 worker 是独立的进程,如果有其中的一个 worker 出现问题,其他 worker 独立的,继续进行争抢,实现请求过程,不会造成服务中断
      master-workers 的机制的好处
      首先,对于每个worker进程来说,独立的进程,不需要加锁,所以省掉了锁带来的开销,同时在编程以及问题查找时,也会方便很多。其次,采用独立的进程,可以让互相之间不会影响,一个进程退出后,其他进程还在工作,服务不会中断,master 进程则很快启动新的 worker 进程。当然,worker 进程的异常退出,肯定是程序有bug了,异常退出,会导致当前 worker 上的所有请求失败,不过不会影响到所有请求,所以降低了风险。
      需要设置多少个 worker
      Nginx 同 redis 类似都才用了 io 多路复用机制,每个 worker 都是一个独立的进程,但每个进程里只有一个主线程,通过异步非阻塞的方式来处理请求,即使是成千上万个请求也不在话下。每个 worker 的线程可以把一个 cpu 的性能发挥到极致。所以 worker 数和服务器的 cpu 数相等是最为适宜的。设少了会浪费 cpu,设多了会造成 cpu 频繁切换上下文带来的损耗。
      #设置 worker 数量。
       worker processes  4
       #work 绑定 cpu(4 work 绑定 4cpu)。
       worker cpu affinity 0001 0010 0100 1000
(4) 设置多少个 worker 合适
     worker 数和服务器的 cpu 数相等是最为适宜的
(5) 连接数 worker_connection
    这个值是标识每个 worker 进程所能建立连接的最大值,所以,一个 nginx 能建立的最大连接数,应该是 worker_connection * worker_processes。当然,这里说的最大连接数,对于 HTTP 请求本地资源来说,能够支持的最大并发数量是 worker_connections * worker_processes,如果是支持 http1.1 的浏览器每次访问要占两个连接,所以普通的静态访问最大并发数是:worker_connections * worker_processes / 2 ,而如果是 HTTP 作为反向代理来说,最大并发数量应该是 worker_connections * worker_processes /4。因为作为反向代理服务器,每个并发会建立与客户端的连接和与后端服务的连接,会占用两个连接。
    第一个:发送请求,占用了 worker 的几个连接数?
       答案:2 或者 4 个。
    第二个:nginx 有一个 master,有四个 worker,每个 worker 支持最大的连接数据 1024,支持的最大并发数是多少?
    - 普通的静态访问最大并发数是:worker_connections * worker_processes/2
    - 而如果是HTTP作为反向代理来说,最大并发数量应该是worker_connections * worker_processes/4  
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值