nginx

一、 Nginx简介

1.1 Nginx概述
Nginx ("engine x”)是一个高性能的 HTTP 和反向代理服务器,特点是占有内存少,并发能力强,事实上nginx的并发能力确实在同类型的网页服务器中表现较好,中国大陆使用nginx网站用户有:百度、京东、新浪、网易、腾讯、淘宝等
1.2 Nginx作为 web 服务器
Nginx可以作为静态页面的 web 服务器,同时还支持 CGI 协议的动态语言,比如 perl、php等。但是不支持 java。Java 程序只能通过与 tomcat 配合完成。Nginx 专为性能优化而开发,性能是其最重要的考量,实现上非常注重效率 ,能经受高负载的考验,有报告表明能支持高达 50000个并发连接数
https://1nmp.org/nginx.html
1.3 正向代理
Nginx,不仅可以做反向代理,实现负载均衡。还能用作正向代理来进行上网等功能。
正向代理: 如果把局域网外的 Internet想象成一个巨大的资源库,则局域网中的客户端要访问 Internet,则需要通过代理服务器来访问,这种代理服务就称为正向代理。
什么是代理服务器?
在客户端(浏览器)配置代理服务器,通过代理服务器进行互联网访问。
1.4 反向代理
反向代理,其实客户端对代理是无感知的,因为客户端不需要任何配置就可以访问,我们只需要将请求发送到反向代理服务器,由反向代理服务器去选择目标服务器获取数据后,在返回给客户端,此时反向代理服务器和目标服务器对外就是一个服务器,暴露的是代理服务器地址,隐藏了真实服务器 IP 地址。
在这里插入图片描述
1.5 负载均衡
客户端发送多个请求到服务器,服务器处理请求,有一些可能要与数据库进行交互,服务器处理完毕后,再将结果返回给客户端。
这种架构模式对于早期的系统相对单一,并发请求相对较少的情况下是比较适合的,成本也低。但是随着信息数量的不断增长,访问量和数据量的飞速增长,以及系统业务的复杂度增加,这种架构会造成服务器相应客户端的请求日益缓慢,并发量特别大的时候,还容易造成服务器直接崩溃。很明显这是由于服务器性能的瓶颈造成的问题,那么如何解决这种情况呢?
我们首先想到的可能是升级服务器的配置,比如提高 CPU 执行频率,加大内存等提高机器的物理性能来解决此问题,但是我们知道摩尔定律的日益失效,硬件的性能提升已经不能满足日益提升的需求了。最明显的一个例子,天猫双十一当天,某个热销商品的瞬时访问量是极其庞大的,那么类似上面的系统架构,将机器都增加到现有的顶级物理配置,都是不能够满足需求的。那么怎么办呢?
上面的分析我们去掉了增加服务器物理配置来解决问题的办法,也就是说纵向解决问题的办法行不通了,那么横向增加服务器的数量呢?这时候集群的概念产生了,单个服务器解决不了,我们增加服务器的数量,然后将请求分发到各个服务器上,将原先请求集中到单个服务器上的情况改为将请求分发到多个服务器上,将负载分发到不同的服务器,也就是我们所说的负载均衡。
在这里插入图片描述
1.6 动静分离
为了加快网站的解析速度,可以把动态页面和静态页面由不同的服务器来解析,加快解析速度。降低原来单个服务器的压力。
在这里插入图片描述

二、安装Nginx

1、准备工作
(1)到 nginx 官网下载nginx
http://nginx.org/
在这里插入图片描述
在这里插入图片描述
(2) 下载pcre
https://sourceforge.net/projects/pcre/files/
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
(3) 将nginx和prce两个压缩包上传到linux系统中的/usr/src目录下
在这里插入图片描述

2.安装pcre依赖
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
3.安装 openssl 、zlib 、 gcc 依赖

yum -y install make zlib zlib-devel gcc-c++ libtool openssl openssl-devel

在这里插入图片描述
4. 安装 nginx
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
安装成功之后,在usr 多出来一个文件夹 local/nginx,在 nginx有 sbin 有启动脚本
在这里插入图片描述
启动nginx
在这里插入图片描述
5.防火墙未开放nginx 80默认端口解决方法
5.1 查看开放的端口

firewall-cmd --list-all

在这里插入图片描述
5.2 设置开放的端口号

firewall-cmd --add-service=http –permanent
sudo firewall-cmd --add-port=80/tcp --permanent

5.3 设置之后需要重启防火墙

firewall-cmd --reload

三、Nginx常用命令

使用 nginx操作命令前提条件: 必须进入 nginx 目录中: cd /usr/local/nginx/sbin

1、查看 nginx 版本号

./nginx -v

2、启动 nginx

./nginx

查看是否启动成功:ps -ef|grep nginx
在这里插入图片描述
3、停止 nginx

./nginx -s stop

4、重新加载 nginx

./nginx -s reload

四、nginx.conf配置文件

1、nginx配置文件位置

vim /usr/local/nginx/conf/nginx.conf

在这里插入图片描述

2、配置文件中的内容(包含三部分)
(1)全局块:配置服务器整体运行的配置指令
在这里插入图片描述

从配置文件开始到 events 块之间的内容主要会设置一些影响 nginx 服务器整体运行的配置指令,主要包括配置运行 Nginx 服务器的用户(组)、允许生成的 worker process 数,进程 PID 存放路径、日志存放路径和类型以及配置文件的引入等。

比如上面第一行配置的:

worker_processes  1;

这是 Nginx 服务器并发处理服务的关键配置,worker_processes 值越大,可以支持的并发处理量也越多,但是会受到硬件、软件等设备的制约
(2)events 块:影响 Nginx 服务器与用户的网络连接
在这里插入图片描述

events 块涉及的指令主要影响 Nginx 服务器与用户的网络连接,常用的设置包括是否开启对多 work process下的网络连接进行序列化,是否允许同时接收多个网络连接,选取哪种事件驱动模型来处理连接请求,每个 word process 可以同时支持的最大连接数等。

events {
    worker_connections  1024;
}

上述例子就表示每个 work process 支持的最大连接数为 1024.

这部分的配置对 Nginx 的性能影响较大,在实际中应该灵活配置。

(3)http 块
这算是 Nginx 服务器配置中最频繁的部分,代理、缓存和日志定义等绝大多数功能和第三方模块的配置都在这里。

需要注意的是:http 块也可以包括 http 全局块、server 块
在这里插入图片描述
①、http 全局块
http 全局块配置的指令包括文件引入、MIME-TYPE 定义、日志自定义、连接超时时间、单链接请求数上限等。
在这里插入图片描述
②、server 块
这块和虚拟主机有密切关系,虚拟主机从用户角度看,和一台独立的硬件主机是完全一样的,该技术的产生是为了节省互联网服务器硬件成本。

每个 http 块可以包括多个 server 块,而每个 server 块就相当于一个虚拟主机。

而每个 server 块也分为全局 server 块,以及可以同时包含多个 locaton 块。
在这里插入图片描述
全局 server 块
最常见的配置是本虚拟机主机的监听配置和本虚拟主机的名称或 IP 配置。

location 块
一个 server 块可以配置多个 location 块。

这块的主要作用是基于 Nginx 服务器接收到的请求字符串(例如 server_name/uri-string),对虚拟主机名称(也可以是 IP 别名)之外的字符串(例如 前面的 /uri-string)进行匹配,对特定的请求进行处理。地址定向、数据缓存和应答控制等功能,还有许多第三方模块的配置也在这里进行。

五、Nginx 反向代理如何配置?

server {
        #监听端口,访问时不加端口号时默认为80端口
        listen       80;
        
        #1.用于指定虚拟主机的域名或IP地址(域名对应ip地址,1对多关系)
        #2.具体使用参考:https://blog.csdn.net/tjsoft/article/details/132039415
        #3.当该服务器收到Host头为www.123.com的请求时,nginx将会使用该配置进行处理
        #    server_name  www.123.com
        #4.当该服务器收到Host头为43.143.169.155的请求时,nginx将会使用该配置进行处理
        server_name  43.143.169.155;

        # 除掉地址中ip和端口,往后部分的地址进行匹配,可配置多个
        location ~  /edu/ {
            #请求转发:域名匹配上会跳转的对应地址
            proxy_pass http://127.0.0.1:8080;
            index  index.html index.htm index.jsp;
        }

        location ~ /vod/ {
            proxy_pass http://127.0.0.1:8080;
        }
}

5.1 location:该指令用于匹配 URL

语法如下:

1 location [ = | ~ | ~* | ^~] uri {
2 
3 }

1、= :用于不含正则表达式的 uri 前,要求请求字符串与 uri 严格匹配,如果匹配成功,就停止继续向下搜索并立即处理该请求。

2、~:用于表示 uri 包含正则表达式,并且区分大小写

3、~*:用于表示 uri 包含正则表达式,并且不区分大小写

4、^~:用于不含正则表达式的 uri 前,要求 Nginx 服务器找到标识 uri 和请求字符串匹配度最高的 location 后,立即使用此 location 处理请求,而不再使用 location 块中的正则 uri 和请求字符串做匹配。

注意:如果 uri 包含正则表达式,则必须要有 ~ 或者 ~* 标识。

5.2 对外开放访问的端口

#对外开放访问的端口
firewall-cmd --add-port=8080/tcp --permanent
firewall-cmd –reload
#查看已经开放的端口号
firewall-cmd --list-all

六、负载均衡如何配置?

第一种 轮询(默认)
每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器 down 掉,能自动剔除。

http{
    ......
	upstream myserver{
     	server 192.168.5.21:80;
     	server 192.168.5.22:8;
    }
	
	server{
	     ......
    	 location / {
    		 proxy_pass http://myserver;
    		 proxy_connect timeout 10;
    	  }
    	  ......
  	 }
}

第二种 weight
weight 代表权重默认为 1,权重越高被分配的客户端越多

http{
    ......
	upstream server_pool{
    	 server 192.168.5.21 weight=10;
    	 server 192.168.5.22 weight=5;
	}
	
	server{
	     ......
    	 location / {
    		 proxy_pass http://server_pool;
    		 proxy_connect timeout 10;
    	  }
    	  ......
  	 }
}

第三种 ip_hash
每个请求按访问 ip 的 hash 结果分配,这样每个访客固定访问一个后端服务器

http{
    ......
	upstream server_pool{
    	ip_hash;
    	server 192.168.5.21:80;
    	server 192.168.5.22:80;
    }
	
	server{
	     ......
    	 location / {
    		 proxy_pass http://server_pool;
    		 proxy_connect timeout 10;
    	  }
    	  ......
  	 }
}

第四种 fair(第三方)
按后端服务器的响应时间来分配请求,响应时间短的优先分配。

http{
    ......
	upstream myserver{
     	server 192.168.5.21:80;
     	server 192.168.5.22:8;
     	fair;
    }
	
	server{
	     ......
    	 location / {
    		 proxy_pass http://myserver;
    		 proxy_connect timeout 10;
    	  }
    	  ......
  	 }
}

七、动静分离如何配置?(可忽略)

Nginx 动静分离简单来说就是把动态跟静态请求分开,不能理解成只是单纯的把动态页面和静态页面物理分离。

http{
    ......
	server{
	     ......
	     #配置静态资源
	     #http://192.168.17.129/www/a.html
    	 location /www/ {
    		 root /data/;
    		 index index.html index.htm;
    	  }
    	  #http://192.168.17.129/image/01.jpg
          location /image/ {
    		 root /data/;#去data目录下找image/01.jpg
             autoindex on;
    	  }
    	  ......
  	 }
}

八、使用keepalived实现nginx高可用

8.1 什么是双机热备?
双机热备是应用于服务器的一种解决方案,其构造思想是主机和从机通过TCP/iP网络连接、正常情况下主机处于工作状态,从机处于监视状态,一旦从机发现主机异常,从机将会在很短的时间之内代替主机,完全实现主机的功能
8.2 什么是keepalived?
在这里插入图片描述
在这里插入图片描述
8.3 使用keepalived实现nginx高可用具体步骤
备注:每台nginx所在服务器都需要安装keepalived
(1) 使用 yum 命令进行安装 keepalived

#联网安装keepalived
yum install keepalived -y
#查看是否安装成功
rpm -q -a keepalived

(2) 进入 /etc/keepalived目录下,修改 keepalived.conf配置文件

! Configuration File for keepalived

  global_defs {
   	   notification_email {
        	acassen@firewall.loc
        	failover@firewall.loc
        	sysadmin@firewall.loc
       }
        notification_email_from Alexandre.Cassen@firewall.loc
        smtp_server 192.168.17.129 #nginx主从所在的ip 指定一个广播地址
        smtp_connect_timeout 30
        router_id LVS_DEVEL # 主机名字
        #vrrp_skip_check_adv_addr
        #vrrp_strict
        #vrrp_garp_interval 0
        #vrrp_gna_interval 0
   }

	vrrp_script chk_nginx {
        script "/usr/local/src/nginx_check.sh" #配置脚本位置
        interval 2 #(检测脚本执行的间隔)
        weight 2 # 权重
     }
     
     vrrp_instance VI_1 {
        state MASTER # 备份服务器上将 MASTER 改为 BACKUP
        interface eth0 # 网卡
        virtual_router_id 51  # 主、备机的 virtual_router_id 必须相同
        priority 100  # 主、备机取不同的优先级,主机值较大,备份机值较小
        advert_int 1 #MASTER与BACKUP负载均衡器之间同步检查的时间间隔,单位是秒
        authentication { #表示使用密码方式1111来认证;主、备机密码要相同
                auth_type PASS
                auth_pass 1111
        }
        virtual_ipaddress {
             192.168.77.50 # 设置虚拟ip地址;浏览器用来访问的ip;主、备机要相同
        }
        track_script {
              chk_nginx #执行检测脚本策略
        }
    }

网卡查看方法,如下是eth0
在这里插入图片描述

(3)在/usr/local/src添加检测脚本:nginx_check.sh
脚本功能说明:监测nginx是否挂了,如果挂了,则关掉keepalived

#!/bin/bash
A=`ps -C nginx –no-header | wc -l`
if [ $A -eq 0 ];then
        /usr/local/nginx/sbin/nginx
        sleep 2
        if [ `ps -C nginx --no-header |wc -l` -eq 0 ];then
            killall keepalived
        fi
fi

注意: 如果发现检测脚本不执行,此时就需要关闭linux中安全检测模块

# 临时关闭
setenforce 0 # 关闭完毕以后,重启keepalived
#永久性关闭
sed -i "s/^SELINUX=.*/SELINUX-disabled/g" /etc/selinux/config  # 关闭以后,重启Linux服务器
# 设置可执行权限
chmod 777 check_nginx.sh

(4) 启动 Nginx
分别启动主从 Nginx ,切换到/usr/local/nginx/sbin/,执行

./nginx

(5)CentOs 6下启动 keepalived

#启动 keepalived
service keepalived start
#停止 keepalived
service keepalived stop
#重启 keepalived
service keepalived restart

九、nginx原理

1、mater 和 worker
在这里插入图片描述

2、一个 master 和多个 woker 有好处
(1)可以使用 nginx –s reload 热部署,利用 nginx 进行热部署操作

(2)每个 woker 是独立的进程,如果有其中的一个 woker 出现问题,其他 woker 独立的,继续进行争抢,实现请求过程,不会造成服务中断

3、设置多少个 woker 合适
worker 数和服务器的 cpu 数相等是最为适宜的

4、连接数 worker_connection
第一个:发送请求,占用了 woker 的几个连接数?
答案:2 或者 4 个

第二个:nginx 有一个 master,有四个 woker,每个 woker 支持最大的连接数 1024,支持的最大并发数是多少?
普通的静态访问最大并发数是: worker_connections * worker_processes /2,
而如果是 HTTP 作 为反向代理来说,最大并发数量应该是 worker_connections *
worker_processes/4。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值