【Nginx】【尚硅谷】学习笔记

Nginx学习

Nginx介绍

什么是Nginx

Nginx(engine x)是一个高性能得HTTP和反向代理服务器,特点是占有内存少,并发能力强,事实上nginx的并发能力确实在同类型的网页服务器中表现较好。

Nginx专为性能优化而开发,能经受高负载的考验,有报告表明能支持高达50000个并发连接数。

代理

正向代理

正向代理就是通过代理服务器访问目标服务器,我们知道目标服务器的链接,但是无法直接访问目标服务器,必须通过代理的方式访问

反向代理

反向代理,其实客户端对代理是无感知的,因为客户端不需要任何配置就可以访问,我们只需要将请求发送到反向代理服务器,由反向代理服务器去选择目标服务器获取数据后,再返回给客户端,此时反向代理服务器和目标服务器对外就是一个服务器,暴露的是代理服务器地址,隐藏了真是服务器IP地址。
代理反向
反向代理概念如图
反向代理

负载均衡

当单个服务器解决不了效率问题,我们增加服务器的数量
将原先请求集中到单个服务器上的情况改为将请求分发到多个服务器上,也就是我们所说的负载均衡。

单一服务器情况

单一服务器情况

负载均衡

负载均衡

动静分离

为了加快网站的解析速度,可以把动态页面和静态页面由不同的服务器来解析,加快解析速度。降低原来单个服务器的压力。

动静分离动静分离

Nginx安装(linux)

安装略

Nginx操作的常用命令


使用Nginx操作命令前提条件:必须转到Nginx的目录下
cd /usr/local/nginx/sbin

启动
./nginx

查看nginx版本
./nginx -v
nginx version:nginx/1.18.0

关闭ngixn
./nginx -s stop

重启nginx
./nginx -s reload

nginx命令更多细节
./nginx -h

Nginx的配置文件

Nginx配置文件的位置和结构

Nginx 配置文件位置:/usr/local/nginx/conf/nginx.conf
配置文件结构如下:
配置文件结构

Nginx配置文件组成

第一部分:全局块

从配置文件开始到events 块之间的内容,主要会设置一些影响Nginx服务器整体运行的配置指令,主要包括

1、配置运行Nginx服务器的用户(组)
2、允许生成的worker process数
3、进程PID存放路径
4、日志存放路径和类型
5、配置文件的引入

比如上面第一行配置的:

worker_processes  1;

这是Nginx服务器并发处理服务的关键配置,worker_process值越大,可以支持的并发处理量也越多,但是会受到硬件、软件等设备的制约。

第二部分:events 块
events {
    worker_connections  1024;
}

上述例子就表示每个work process支持的最大连接数为1024

events 块涉及的指令主要影响Nginx服务器于用户的网络连接,常用的设置包括是否开启多对work process下的网络连接进行序列化,是否允许同时接收多个网络连接,选取哪种事件驱动模型来处理连接请求,每个work process可以同时支持的最大连接数等。

这部分的配置对Nginx的性能影响较大,在实际中应该灵活配置。

第三部分:http 块
http {
    include       mime.types;
    default_type  application/octet-stream;

    sendfile        on;

    keepalive_timeout  65;

    server {
        listen       80;
        server_name  localhost;

        location / {
            root   html;
            index  index.html index.htm;
        }
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
    }
}

这算是nginx服务器配置中最频繁的部分,代理、缓存和日志定义等绝大多数功能和第三方模块的配置都在这里。需要注意的是:http块也可以包括:

http 全局块
多个 server 块
http 全局块

http全局块配置的指令包括文件引入、MIME-TYPE定义、日志自定义、连接超时时间、单链接请求数上限等

server 块

server 块和虚拟主机有密切关系,虚拟主机从用户角度看,和单一独立的硬件主机是完全一样的,该技术的产生是为了节省互联网服务器硬件成本。

每个http块可以包括多个server块,而每个server块就相当于一个虚拟主机

而每个server块也分为:

全局 server 块
多个 location 块
全局 server 块

最常见的配置是本虚拟机主机的监听配置和本虚拟主机的名称或 IP 配置。

location 块

一个 server 块可以配置多个 location 块。

这块的主要作用是基于 Nginx 服务器接收到的请求字符串(例如 server_name/uri-string),对虚拟主机名称(也可以是 IP 别名)之外的字符串(例如 前面的 /uri-string)进行匹配,对特定的请求进行处理。

地址定向、数据缓存和应答控制等功能,还有许多第三方模块的配置也在这里进行。

Nginx 配置实例(反向代理实例一)

实现效果(目的)

打开浏览器,在浏览器地址栏输入地址www.my123.com,跳转到linux系统tomcat主页面中

准备工作

1、默认在linux系统中已安装tomcat,使用默认端口8080

2、对外开放访问的端口


firewall-cmd --add-port=8080/tcp --permanent
firewall-cmd –reload

查看已经开放的端口号


firewall-cmd --list-all

3、在windows系统中通过浏览器访问tomcat服务器
可以看到tomcat的欢迎页

访问过程分析

在这里插入图片描述

具体配置

1、在windows系统的host文件进行域名和ip对应关系的配置
在host文件末尾追加:


192.168.31.22   www.123.com

2、在nginx进行请求转发的配置(反向代理配置)


server{
	listen 80;
	server_name 192.168.31.22;

	#charset koi8-r;
	#access_log logs/host.access.log main;

	location / {
		root html;
		proxy_pass http://127.0.0.1:8080;
		index index.html index.htm;
	}
}

Nginx配置实例(反向代理实例二)

实现效果

使用Nginx反向代理,根据访问的路径跳转到不同端口的服务中
nginx监听的端口为9001

访问http://127.0.0.1/edu/,直接跳转到127.0.0.1:8080
访问http://127.0.0.1/vod/,直接跳转到127.0.0.1:8081

准备工作

准备两个tomcat服务器,一个是8080端口,一个是8081端口,同时启动两个tomcat
分别创建webapps/edu/a.html,webapps/vod/a.html

具体配置

找到nginx配置文件,进行反向代理配置


server{
	listen 9001;
	server_name 192.168.31.22;

	location ~ /edu/ {
		proxy_pass http://127.0.0.1:8080;
	}
	location ~ /vod/ {
		proxy_pass http://127.0.0.1:8081;
	}
}

开放对外访问的端口9001 8080 8081

location 指令说明

该指令用于匹配URL,语法如下:


location [ = | ~ | ~* | ^~] uri {

}

=:用于不含有正则表达式的uri前,要求请求字符串与uri严格匹配,如果匹配成功,就停止继续向下搜索并立即处理该请求
~:用于表示uri包含正则表达式,并且区分大小写
~*:用于表示uri包含正则表达式,并且不区分大小写
^~:用于不包含正则表达式的uri前,要求nginx服务器找到标识uri和请求字符串匹配度最高的location后,立即使用此location处理请求,而不是使用location块中的正则uri和请求字符串做匹配
注意:如果uri包含正则表达式,则必须有~或者~*标识

nginx 配置实例(负载均衡)

实现效果

浏览器地址栏输入地址http://192.168.17.129/edu/a.html,负载均衡效果,平均 8081和 8082 端口中。

准备工作

准备两台 tomcat 服务器,一台 8080,一台 8081。
在两台 tomcat 里面 webapps 目录中,创建名称是 edu文件夹,在edu文件夹中创建a.html页面,用于测试

修改配置文件

在 Nginx 的配置文件中进行负载均衡的配置


http{
	# 负载用到的配置,根据权重,平均分配给两个端口
	upstream myserver{
		server 192.168.31.22:8080 weight=1;
		server 192.168.31.22:8081 weight=1;
	}
	...
	server{
		listen 80;
		server_name 192.168.31.22;
		
		#charset koi8-r;
		#access_log logs/host.access.log mian;

		location / {
			# 负责用到的配置
			proxy_pass http://myserver;
			root html;
			index index.html index.htm;
			proxy_connect_timeout 10;
		}
	}
}

负载均衡分配策略

负载均衡(load balance)即是将负载分摊到不同的服务单元,既保证服务的可用性,又保证响应足够快,给用户很好的体验。

快速增长的访问量和数据量催生了各式各样的负载均衡产品,很多专业的负载均衡硬件提供了很好的功能,但价格不菲,这使得负载均衡软件很受大家欢迎,nginx就是其中一个,在linux下有Nginx、LVS、Haproxy等等服务可以提供负载均衡服务,而且nginx提供了几种分配方式(策略)

轮询

这是nginx负载均衡默认分配策略。每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除

加权

weight代表权重,默认为1,权重越高被分配的客户端越多。指定轮询机率,weight和访问比率成正比,用于后端服务器性能不均的情况。例如:


upstream myserver {
	server 127.0.0.1:8080 weight=9;
	server 127.0.0.1:8081 weight=4;
}
ip_hash

每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。例如:


upstream myserver{
	ip_hash;
	server 127.0.0.1:8081;
	server 127.0.0.1:8082;
}
fair(第三方)

这是nginx负载均衡第三方分配策略。按后端服务器的响应时间来分配请求,响应时间短的优先分配


upstream myserver{
	server 127.0.0.1:8081;
	server 127.0.0.1:8082;
	fair;
}

Nginx 配置实例(动静分离)

什么是动静分离

在这里插入图片描述nginx动静分离简单来说就是把动态和静态请求分开,不能理解成知识单纯的把动态页面和静态页面物理分离。严格意义上说应该是动态请求和静态请求分开,可以理解成使用nginx处理静态页面,tomcat处理动态页面。动静分离从目前实现角度来讲大致分为两种:

  1. 一种是纯粹把静态文件独立成单独的域名,放在独立的服务器上,也是目前主流推荐的方案
  2. 另外一种就是动态跟静态文件混合在一起发布,通过nginx来分开

通过location指定不同的后缀名实现不同的请求转发。通过expires参数设置,可以使浏览器缓存过期时间,减少与服务器之前的请求和流量。

具体expires定义:是给一个资源设定一个过期时间,也就是说无需去服务端验证,直接通过浏览器自身确认是否过期即可,所以不会产生额外的流量。此种方法非常适合不经常变动的资源。(如果经常更新的文件,不建议使用expires来缓存)

若将其设置3d,表示在这3天之内访问这个URL,发送一个请求,比对服务器该文件最后更新时间没有变化,则不会从服务器抓取,返回状态码304,如文件有修改,则直接从服务器重新下载,返回状态码200。

具体配置

在Nginx配置文件中进行配置


server{
	listen 80;
	server_name 192.168.31.22;
	
	#charset koi8-r;
	#access_log logs/host.access.log mian;

	location /www/ {
		root html;
		index index.html index.htm;
	}

	location /image/ {
		root /data/;
		autoindex on;
	}
}

Nginx 配置高可用的集群

为什么要配置nginx高可用?
以防单一nginx挂了,另一个nginx能担当重任,预防和解决单点故障
在这里插入图片描述

什么是nginx高可用

在这里插入图片描述

配置高可用的准备工作

1、需要两台nginx服务器
2、需要keepalived
3、需要虚拟ip

两台服务器192.168.17.129和192.168.17.131
在两台服务器安装nginx
在两台服务器安装keepalived

完成高可用配置(主从配置)

修改/etc/keepalived/keepalivec.conf配置文件

主服务器

global_defs {
	notification_email {
		acassen@firewall.loc
		failover@firewall.loc
		sysadmin@firewall.loc
	}
	notification_email_from Alexandre.Cassen@firewall.loc
	smtp_server 192.168.17.129
	smtp_connect_timeout 30
	router_id LVS_DEVEL
}

vrrp_script chk_http_port {
	script "/usr/local/src/nginx_check.sh"
	interval 2 #(检测脚本执行的间隔)
	weight 2
}

vrrp_instance VI_1 {
	state MASTER # 备份服务器上将 MASTER 改为 BACKUP
	interface ens33 //网卡名称(用ifconfig命令查看)
	virtual_router_id 51 # 主、备机的 virtual_router_id 必须相同
	priority 100 # 主、备机取不同的优先级,主机值较大,备份机值较小
	advert_int 1
	authentication {
		auth_type PASS
		auth_pass 1111
	}
	virtual_ipaddress {
		192.168.17.50 // VRRP H 虚拟地址
	}
}
从服务器

global_defs {
	notification_email {
		acassen@firewall.loc
		failover@firewall.loc
		sysadmin@firewall.loc
	}
	notification_email_from Alexandre.Cassen@firewall.loc
	smtp_server 192.168.17.129
	smtp_connect_timeout 30
	router_id LVS_DEVEL
}

vrrp_script chk_http_port {
	script "/usr/local/src/nginx_check.sh"
	interval 2 #(检测脚本执行的间隔)
	weight 2
}

vrrp_instance VI_1 {
	state BACKUP # 备份服务器上将 MASTER 改为 BACKUP
	interface ens33 //网卡名称(用ifconfig命令查看)
	virtual_router_id 51 # 主、备机的 virtual_router_id 必须相同
	priority 90 # 主、备机取不同的优先级,主机值较大,备份机值较小
	advert_int 1
	authentication {
		auth_type PASS
		auth_pass 1111
	}
	virtual_ipaddress {
		192.168.17.50 // VRRP H 虚拟地址
	}
}
添加心跳检测

在/usr/local/src 添加检测脚本,主从服务器都一样的配置


#!/bin/bash
A=`ps -C nginx – no-header |wc -l`
if [ $A -eq 0 ];then
	/usr/local/nginx/sbin/nginx
	sleep 2
	if [ `ps -C nginx --no-header |wc -l` -eq 0 ];then
		killall keepalived
	fi
fi
分别启动

启动nginx
./nginx

启动keepalived
systemctl start keepalived.service

Nginx的原理分析

master和worker

在这里插入图片描述

worker工作原理

在这里插入图片描述

master-workers的机制的好处

首先,对于每个 worker 进程来说,独立的进程,不需要加锁,所以省掉了锁带来的开销,同时在编程以及问题查找时,也会方便很多。

其次,采用独立的进程,可以让互相之间不会影响,一个进程退出后,其它进程还在工作,服务不会中断, master 进程则很快启动新的worker进程。

当然, worker 进程的异常退出,肯定是程序有 bug 了,异常退出,会导致当前 worker 上的所有请求失败,不过不会影响到所有请求,所以降低了风险。

一个master和多个workers的机制的好处

1、可以使用nginx -s reload 热部署,利用nginx进行热部署操作
2、每个worker是独立的进程,如果有其中的一个worker出现问题,其他worker独立的,继续进行争抢,实现请求过程,不会造成服务中断

需要设置多少个 worker

Nginx 同 redis 类似都采用了 io 多路复用机制,每个 worker 都是一个独立的进程,但每个进程里只有一个主线程,通过异步非阻塞的方式来处理请求, 即使是千上万个请求也不在话下。每个 worker 的线程可以把一个 cpu 的性能发挥到极致。

所以 worker 数和服务器的cpu数相等是最为适宜的。设少了会浪费 cpu,设多了会造成 cpu 频繁切换上下文带来的损耗。


#设置 worker 数量。
worker_processes 4
#work 绑定 cpu(4 work 绑定 4cpu)。
worker_cpu_affinity 0001 0010 0100 1000
#work 绑定 cpu (4 work 绑定 8cpu 中的 4 个) 。
worker_cpu_affinity 0000001 00000010 00000100 00001000

连接数 worker_connection

第一个:发送请求,占用了worker的几个连接数
答案是 2或者4个

第二个:nginx有一个master,有4个worker,每个worker支持的连接数1024,支持的最大并发数是多少
1、普通的静态访问最大并发数是:worker_connectionworker_processes/2
2、而如果是HTTP作为反向代理来说,最大并发数量应该是worker_connection
worker_processes/4

实际开发中的问题

反向代理服务器的优点

反向代理服务器可以隐藏源服务器的存在和特征。它充当互联网云和web服务器之间的中间层。这对于安全方面来说是很好的,特别是当您使用web托管服务时

Nginx 的一些特性

反向代理
负载均衡
嵌入式Perl解释器
动态二进制升级
可用于重新编写URL,具有非常好的PCRE支持

Nginx的优缺点

优点:
占内存小,可实现高并发连接,处理响应快
可实现http服务器、虚拟主机、反向代理、负载均衡
Nginx配置简单
可以不暴露正式的服务器IP地址
缺点:
动态处理差:nginx处理静态文件好,耗费内存少,但是处理动态页面则很鸡肋,现在一般前端用
nginx作为反向代理抗住压力,

为什么Nginx性能这么高

因为他的事件处理机制:异步非阻塞事件处理机制:运用了epoll模型,提供了一个队列,排队解决

Nginx应用场景

  • http服务器。Nginx是一个http服务可以独立提供http服务。可以做网页静态服务器。
  • 虚拟主机。可以实现在一台服务器虚拟出多个网站,例如个人网站使用的虚拟机。
  • 反向代理,负载均衡。当网站的访问量达到一定程度后,单台服务器不能满足用户的请求时,需要用多台服务器集群可以使用nginx做反向代理。并且多台服务器可以平均分担负载,不会应为某台服务器负载高宕机而某台服务器闲置的情况。
  • nginx 中也可以配置安全管理、比如可以使用Nginx搭建API接口网关,对每个接口服务进行拦截。

Nginx服务器上的Master和Worker进程

Master进程:读取及评估配置和维持
Worker进程:处理请求
.

Nginx负载均衡的算法怎么实现的?策略有哪些?

为了避免服务器崩溃,大家会通过负载均衡的方式来分担服务器压力。将对台服务器组成一个集群,当
用户访问时,先访问到一个转发服务器,再由转发服务器将访问分发到压力更小的服务器。
Nginx负载均衡实现的策略有以下五种:
1、 轮询(默认)
每个请求按时间顺序逐一分配到不同的后端服务器,如果后端某个服务器宕机,能自动剔除故障系统。


upstream backserver {
	server 192.168.0.12;
	server 192.168.0.13;
}

2、权重 weight
weight的值越大分配
到的访问概率越高,主要用于后端每台服务器性能不均衡的情况下。其次是为在主从的情况下设置不同的权值,达到合理有效的地利用主机资源。


upstream backserver {
	server 192.168.0.12 weight=2;
	server 192.168.0.13 weight=8;
}

权重越高,在被访问的概率越大,如上例,分别是20%,80%。
3、 ip_hash( IP绑定)
每个请求按访问IP的哈希结果分配,使来自同一个IP的访客固定访问一台后端服务器,并且可以有效解决动态网页存在的session共享问题


upstream backserver {
	ip_hash;
	server 192.168.0.12:88;
	server 192.168.0.13:80;
}

4、 fair(第三方插件)
必须安装upstream_fair模块。
对比 weight、ip_hash更加智能的负载均衡算法,fair算法可以根据页面大小和加载时间长短智能地进行负载均衡,响应时间短的优先分配。


upstream backserver {
	server server1;
	server server2;
	fair;
}

哪个服务器的响应速度快,就将请求分配到那个服务器上。

5、url_hash(第三方插件)
必须安装Nginx的hash软件包
按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,可以进一步提高后端缓存服务器的效率。


upstream backserver {
	server squid1:3128;
	server squid2:3128;
	hash $request_uri;
	hash_method crc32;
}

Nginx配置高可用性怎么配置

当上游服务器(真实访问服务器),一旦出现故障或者是没有及时相应的话,应该直接轮训到下一台服务器,保证服务器的高可用
Nginx配置代码:


server {
	listen 80;
	server_name www.lijie.com;
	
	location / {
		### 指定上游服务器负载均衡服务器
		proxy_pass http://backServer;
		###nginx与上游服务器(真实访问的服务器)超时时间 后端服务器连接的超时时间_发起握手等候响应超时时间
		proxy_connect_timeout 1s;
		###nginx发送给上游服务器(真实访问的服务器)超时时间
		proxy_send_timeout 1s;
		### nginx接受上游服务器(真实访问的服务器)超时时间
		proxy_read_timeout 1s;
		index index.html index.htm;
	}
}

Nginx目录结构有哪些


[root@localhost ~]# tree /usr/local/nginx
/usr/local/nginx
├── client_body_temp
├── conf # Nginx所有配置文件的目录
│ ├── fastcgi.conf # fastcgi相关参数的配置文件
│ ├── fastcgi.conf.default # fastcgi.conf的原始备份文件
│ ├── fastcgi_params # fastcgi的参数文件
│ ├── fastcgi_params.default
│ ├── koi-utf
│ ├── koi-win
│ ├── mime.types # 媒体类型
│ ├── mime.types.default
│ ├── nginx.conf # Nginx主配置文件
│ ├── nginx.conf.default
│ ├── scgi_params # scgi相关参数文件
│ ├── scgi_params.default
│ ├── uwsgi_params # uwsgi相关参数文件
│ ├── uwsgi_params.default
│ └── win-utf
├── fastcgi_temp # fastcgi临时数据目录
├── html # Nginx默认站点目录
│ ├── 50x.html # 错误页面优雅替代显示文件,例如当出现502错误时会调
用此页面
│ └── index.html # 默认的首页文件
├── logs # Nginx日志目录
│ ├── access.log # 访问日志文件
│ ├── error.log # 错误日志文件
│ └── nginx.pid # pid文件,Nginx进程启动后,会把所有进程的ID号写到
此文件
├── proxy_temp # 临时目录
├── sbin # Nginx命令目录
│ └── nginx # Nginx的启动命令
├── scgi_temp # 临时目录
└── uwsgi_temp # 临时目录

Nginx配置文件nginx.conf有哪些属性模块


worker_processes 1# worker进程的数量
events { # 事件区块开始
	worker_connections 1024# 每个worker进程支持的最大连接数
} # 事件区块结束
http { # HTTP区块开始
	include mime.types; # Nginx支持的媒体类型库文件
	default_type application/octet-stream; # 默认的媒体类型
	sendfile on; # 开启高效传输模式
	keepalive_timeout 65# 连接超时
	server { # 第一个Server区块开始,表示一个独立的虚拟主机站点
		listen 80# 提供服务的端口,默认80
		server_name localhost; # 提供服务的域名主机名
		location / { # 第一个location区块开始
			root html; # 站点的根目录,相当于Nginx的安装目录
			index index.html index.htm; # 默认的首页文件,多个用空格分开
		} # 第一个location区块结果
		error_page 500502503504 /50x.html; # 出现对应的http状态码时,使用50x.html回应客户
		location = /50x.html { # location区块开始,访问50x.html
			root html; # 指定对应的站点目录为html
		}
	}
	......

为什么Nginx性能这么高

因为他的事件处理机制:异步非阻塞事件处理机制:运用了epoll模型,提供了一个队列,排队解决

Nginx静态资源

静态资源访问,就是存放在nginx的html页面,我们可以自己编写

如何用Nginx解决前端跨域问题

使用Nginx转发请求。把跨域的接口写成调本域的接口,然后将这些接口转发到真正的请求地址

Nginx怎么处理请求的

nginx接收一个请求后,首先由listen和server_name指令匹配server模块,再匹配server模块里的location,location就是实际地址


server { # 第一个Server区块开始,表示一个独立的虚拟主机站点
	listen 80# 提供服务的端口,默认80
	server_name localhost; # 提供服务的域名主机名
	
	location / { # 第一个location区块开始
		root html; # 站点的根目录,相当于Nginx的安装目录
		index index.html index.htm; # 默认的首页文件,多个用空格分开
	} # 第一个location区块结果
}

Nginx虚拟主机怎么配置

1、基于域名的虚拟主机,通过域名来区分虚拟主机——应用:外部网站
2、基于端口的虚拟主机,通过端口来区分虚拟主机——应用:公司内部网站,外部网站的管理后台
3、基于ip的虚拟主机。

基于虚拟主机配置域名
需要建立/data/www /data/bbs目录,windows本地hosts添加虚拟机ip地址对应的域名解析;对应域名网站目录下新增index.html文件;


#当客户端访问www.lijie.com,监听端口号为80,直接跳转到data/www目录下文件
server {
	listen 80;
	server_name www.lijie.com;
	location / {
		root data/www;
		index index.html index.htm;
	}
}
#当客户端访问www.lijie.com,监听端口号为80,直接跳转到data/bbs目录下文件
server {
	listen 80;
	server_name bbs.lijie.com;
	location / {
		root data/bbs;
		index index.html index.htm;
	}
}

基于端口的虚拟主机
使用端口来区分,浏览器使用域名或ip地址:端口号 访问


#当客户端访问www.lijie.com,监听端口号为8080,直接跳转到data/www目录下文件
server {
	listen 8080;
	server_name 8080.lijie.com;
	location / {
		root data/www;
		index index.html index.htm;
	}
}
#当客户端访问www.lijie.com,监听端口号为80直接跳转到真实ip服务器地址 127.0.0.1:8080
server {
	listen 80;
	server_name www.lijie.com;
	location / {
		proxy_pass http://127.0.0.1:8080;
		index index.html index.htm;
	}
}

location的作用是什么

location指令的作用是根据用户请求的URI来执行不同的应用,也就是根据用户请求的网站URL进行匹配,匹配成功即进行相关的操作

Nginx常用变量


$host: 请求的主机头
$remote_addr: 客户端IP地址
$remote_port: 客户端端口号
$remote_user: 已经经过Auth Basic Module验证的用户名
$http_referer: 请求引用地址
$http_user_agent: 客户端代理信息(UA)
$http_x_forwarded_for: 相当于网络访问路径
$body_bytes_sent: 页面传送的字节数
$time_local: 服务器时间
$request: 客户端请求
$request_uri: 请求的URI,带参数, 不包含主机名
$request_filename: 请求的文件路径
$request_method: 请求的方法,如GET、POST
$args: 客户端请求中的参数
$query_string: 等同于$args, 客户端请求的参数
$nginx_version: 当前nginx版本
$status: 服务器响应状态码
$server_addr: 服务器地址
$server_port: 请求到达的服务器端口号
$server_protocol: 请求的协议版本
$content_type: HTTP请求信息里的Content-Type字段
$content_length: HTTP请求信息里的Content-Length字段
$uri: 请求中的当前URI(不带请求参数,参数位于$args)
$document_root: 当前请求在root指令中指定的值
$document_uri:$uri相同

限流怎么做的

Nginx限流就是限制用户请求速度,防止服务器受不了
限流有3种

  • 正常限制访问频率(正常流量)
  • 突发限制访问频率(突发流量)
  • 限制并发连接数

Nginx的限流都是基于漏桶流算法,底下会说道什么是桶铜流
实现三种限流算法
1、正常限制访问频率(正常流量):
限制一个用户发送的请求,我Nginx多久接收一个请求。
Nginx中使用ngx_http_limit_req_module模块来限制的访问频率,限制的原理实质是基于漏桶算法原理来实现的。在nginx.conf配置文件中可以使用limit_req_zone命令及limit_req命令限制单个IP的请求处理频率


#定义限流维度,一个用户一分钟一个请求进来,多余的全部漏掉
limit_req_zone $binary_remote_addr zone=one:10m rate=1r/m;
#绑定限流维度
server{
	location/seckill.html{
		limit_req zone=zone;
		proxy_pass http://lj_seckill;
	}
}

1r/s代表1秒一个请求,1r/m一分钟接收一个请求, 如果Nginx这时还有别人的请求没有处理完,Nginx就会拒绝处理该用户请求。

2、突发限制访问频率(突发流量):
限制一个用户发送的请求,我Nginx多久接收一个。
上面的配置一定程度可以限制访问频率,但是也存在着一个问题:如果突发流量超出请求被拒绝处理,无法处理活动时候的突发流量,这时候应该如何进一步处理呢?
Nginx提供burst参数结合nodelay参数可以解决流量突发的问题,可以设置能处理的超过设置的请求数外能额外处理的请求数。我们可以将之前的例子添加burst参数以及nodelay参数:


#定义限流维度,一个用户一分钟一个请求进来,多余的全部漏掉
limit_req_zone $binary_remote_addr zone=one:10m rate=1r/m;
#绑定限流维度
server{
	location/seckill.html{
		limit_req zone=zone burst=5 nodelay;
		proxy_pass http://lj_seckill;
	}
}

为什么就多了一个 burst=5 nodelay; 呢,多了这个可以代表Nginx对于一个用户的请求会立即处理前五个,多余的就慢慢来落,没有其他用户的请求我就处理你的,有其他的请求的话我Nginx就漏掉不接受你的请求

3、 限制并发连接数
Nginx中的ngx_http_limit_conn_module模块提供了限制并发连接数的功能,可以使用limit_conn_zone指令以及limit_conn执行进行配置。接下来我们可以通过一个简单的例子来看下:


http {
	limit_conn_zone $binary_remote_addr zone=myip:10m;
	limit_conn_zone $server_name zone=myServerName:10m;
}
server {
	location / {
		limit_conn myip 10;
		limit_conn myServerName 100;
		rewrite / http://www.lijie.net permanent;
	}
}

上面配置了单个IP同时并发连接数最多只能10个连接,并且设置了整个虚拟服务器同时最大并发数最多只能100个链接。当然,只有当请求的header被服务器处理后,虚拟服务器的连接数才会计数。

为什么要做动静分离

  • Nginx是当下最热的Web容器,网站优化的重要点在于静态化网站,网站静态化的关键点则是是动静分离,动静分离是让动态网站里的动态网页根据一定规则把不变的资源和经常变的资源区分开来,动静资源做好了拆分以后,我们则根据静态资源的特点将其做缓存操作。
  • 让静态的资源只走静态资源服务器,动态的走动态的服务器
  • Nginx的静态处理能力很强,但是动态处理能力不足,因此,在企业中常用动静分离技术。
  • 对于静态资源比如图片,js,css等文件,我们则在反向代理服务器nginx中进行缓存。这样浏览器在请求一个静态资源时,代理服务器nginx就可以直接处理,无需将请求转发给后端服务器
    tomcat。
  • 若用户请求的动态文件,比如servlet,jsp则转发给Tomcat服务器处理,从而实现动静分离。这也是反向代理服务器的一个重要的作用。

Nginx怎么做的动静分离

只需要指定路径对应的目录。location/可以使用正则表达式匹配。并指定对应的硬盘中的目录。如下(操作都是在Linux上)


location /image/ {
	root /usr/local/static/;
	autoindex on;
}

步骤:


1.创建目录
mkdir /usr/local/static/image

2.进入目录
cd /usr/local/static/image

3.放一张照片上去
	1.jpg

4.重启 nginx
sudo nginx -s reload

打开浏览器 输入 server_name/image/1.jpg 就可以访问该静态图片了

Nginx条件判断

if判断


if ($http_user_agent ~ (125LA|WinHttpRequest|360Spider)) {
return 444;
}
if ($http_referer ~* "filter=author&orderby=dateline") {
return 444;
}
if ($host = 'bbs.gitlib.com') {
rewrite ^/$ http://bbs1.gitlib.com permanent;
}

比较符说明:
使用=、!= 比较的一个变量和字符串,true/false
使用*与正则表达式匹配的变量,如果这个正则表达式中包含右花括号}或者分号;则必须给整
个正则表达式加引号
使用-f、!-f 检查一个文件是否存在
使用-d、!-d 检查一个目录是否存在
使用-e、!-e 检查一个文件、目录、符号链接是否存在
使用-x、!-x 检查一个文件是否可执行

set设置变量


if ( $host ~* (.*)\.yzz\.cn) {
	set $domain $1;
}
root /www/website/www/gitlib/$domain/;

# set语法
set variable value;

下一个问题

番外

问题1:io 多路复用机制 解释

高性能IO模型,常见的有4种:
(1)同步阻塞IO(Blocking IO):即传统的IO模型。
(2)同步非阻塞IO(Non-blocking IO):默认创建的socket都是阻塞的,非阻塞IO要求socket被设置为NONBLOCK。注意这里所说的NIO并非Java的NIO(New IO)库。
(3)IO多路复用(IO Multiplexing):即经典的Reactor设计模式,有时也称为异步阻塞IO,Java中的Selector和Linux中的epoll都是这种模型。
(4)异步IO(Asynchronous IO):即经典的Proactor设计模式,也称为异步非阻塞IO。

同步和异步的概念描述的是用户线程与内核的交互方式:同步是指用户线程发起IO请求后需要等待或者轮询内核IO操作完成后才能继续执行;而异步是指用户线程发起IO请求后仍继续执行,当内核IO操作完成后会通知用户线程,或者调用用户线程注册的回调函数。

阻塞和非阻塞的概念描述的是用户线程调用内核IO操作的方式:阻塞是指IO操作需要彻底完成后才返回到用户空间;而非阻塞是指IO操作被调用后立即返回给用户一个状态值,无需等到IO操作彻底完成。

同步阻塞IO

在这里插入图片描述同步阻塞IO模型 是最简单的IO模型,用户线程在内核进行IO操作时被阻塞

如图,用户线程通过系统调用read发起IO读操作,由用户空间转到内核空间。内核等到数据包到达后,然后将接收的数据拷贝到用户空间,完成read操作。

用户线程使用同步阻塞IO的伪代码:
{
read(socket,buffer);
process(buffer);
}

即用户需要等待read将socket中的数据读取到buffer后,才能继续处理接收的数据。整个IO请求的过程中,用户线程是被阻塞的,这导致用户在发起IO请求时,不能做任何事情,对CPU的资源利用率不够,

同步非阻塞IO

在这里插入图片描述同步非阻塞IO 是在同步阻塞IO基础上,将socket设置为NONBLOCK。这样做用户线程可以在发起IO请求后可以立即返回。

如图,由于socket是非阻塞的方式,因此用户发起IO请求时立即返回。但并未读取到任何数据,用户线程需要不断的发起IO请求,知道数据到达后,才真正读取数据,继续执行

用户线程使用同步非阻塞IO的伪代码:
{
while(read(socket,buffer)!=SUCCESS);
process(buffer);
}

即用户需要不断的调用read,尝读取socket中的数据,知道读取成功后,才继续处理接收的数据。整个IO请求的过程中,虽然用户线程每次发起IO请求可以立即返回,但是为了等到数据,仍需要不断的轮询、重复请求,消耗了大量的CPU资源。一般很少直接用这种模型,而是在其他IO模型中使用非阻塞IO这一特性。

IO多路复用

I/O多路复用,I/O就是指的我们网络I/O,多路指多个TCP连接(或多个Channel),复用指复用一个或少量线程。串起来理解就是很多个网络I/O复用一个或少量的线程来处理这些连接。

多路分离函数select

在这里插入图片描述

IO多路复用模型 是建立在内核提供的多路分离函数select基础之上的,使用select函数可以避免同步非阻塞IO模型中轮询等待的问题。

如图,用户首先将需要进行IO操作的socket添加到select中,然后阻塞等待select系统调用返回。当数据到达时,socket被激活,select函数返回。用户线程正式发起read请求,读取数据并继续执行。

从流程上来看,使用select函数进行IO请求和同步阻塞模型没有太大的区别,甚至还多了添加监视socket,以及调用select函数的额外操作,效率更差。但是,使用select以后最大的优势是用户可以在一个线程内同时处理多个socket的IO请求。用户可以注册多个socket,然后不断地调用select读取被激活的socket,即可达到在同一个线程内同时处理多个IO请求的目的。而在同步阻塞模型中,必须通过多线程的方式才能达到这个目的。

用户线程使用select函数的伪代码描述为:

{

	select(socket);
	
	while(1) {
	
		sockets = select();
		
		for(socket in sockets) {
		
			if(can_read(socket)) {
			
			read(socket, buffer);
			
			process(buffer);
			
			}
		
		}
	
	}

}

其中while循环前将socket添加到select监视中,然后在while内一直调用select获取被激活的socket,一旦socket可读,便调用read函数将socket中的数据读取出来。

然而,使用select函数的优点并不仅限于此。虽然上述方式允许单线程内处理多个IO请求,但是每个IO请求的过程还是阻塞的(在select函数上阻塞),平均时间甚至比同步阻塞IO模型还要长。如果用户线程只注册自己感兴趣的socket或者IO请求,然后去做自己的事情,等到数据到来时再进行处理,则可以提高CPU的利用率。

IO多路复用模型使用了Reactor设计模式实现了这一机制。

Reactor设计模式

在这里插入图片描述
EventHandler抽象类表示IO事件处理器,它拥有IO文件句柄Handle(通过get_handle获取),以及对Handle的操作handle_event(读/写等)。继承于EventHandler的子类可以对事件处理器的行为进行定制。Reactor类用于管理EventHandler(注册、删除等),并使用handle_events实现事件循环,不断调用同步事件多路分离器(一般是内核)的多路分离函数select,只要某个文件句柄被激活(可读/写等),select就返回(阻塞),handle_events就会调用与文件句柄关联的事件处理器的handle_event进行相关操作。

IO多路复用

在这里插入图片描述如图,通过Reactor的方式,可以将用户线程轮询IO操作状态的工作统一交给handle_events事件循环进行处理。用户线程注册事件处理器之后可以继续执行做其他的工作(异步),而Reactor线程负责调用内核的select函数检查socket状态。当有socket被激活时,则通知相应的用户线程(或执行用户线程的回调函数),执行handle_event进行数据读取、处理的工作。由于select函数是阻塞的,因此多路IO复用模型也被称为异步阻塞IO模型。注意,这里的所说的阻塞是指select函数执行时线程被阻塞,而不是指socket。一般在使用IO多路复用模型时,socket都是设置为NONBLOCK的,不过这并不会产生影响,因为用户发起IO请求时,数据已经到达了,用户线程一定不会被阻塞。

用户线程使用IO多路复用模型的伪代码描述为:

void UserEventHandler::handle_event() {
	if(can_read(socket)) {
		read(socket, buffer);	
		process(buffer);
	}
}

 
{
	Reactor.register(new UserEventHandler(socket));
}

用户需要重写EventHandler的handle_event函数进行读取数据、处理数据的工作,用户线程只需要将自己的EventHandler注册到Reactor即可。Reactor中handle_events事件循环的伪代码大致如下。

Reactor::handle_events() {

while(1) {

sockets = select();

for(socket in sockets) {

get_event_handler(socket).handle_event();

}

}

}

事件循环不断地调用select获取被激活的socket,然后根据获取socket对应的EventHandler,执行器handle_event函数即可。

IO多路复用是最常使用的IO模型,但是其异步程度还不够“彻底”,因为它使用了会阻塞线程的select系统调用。因此IO多路复用只能称为异步阻塞IO,而非真正的异步IO。

异步IO

Proactor设计模式

“真正”的异步IO需要操作系统更强的支持。在IO多路复用模型中,事件循环将文件句柄的状态事件通知给用户线程,由用户线程自行读取数据、处理数据。而在异步IO模型中,当用户线程收到通知时,数据已经被内核读取完毕,并放在了用户线程指定的缓冲区内,内核在IO完成后通知用户线程直接使用即可。

异步IO模型使用了Proactor设计模式实现了这一机制。

在这里插入图片描述如图,Proactor模式和Reactor模式在结构上比较相似,不过在用户(Client)使用方式上差别较大。Reactor模式中,用户线程通过向Reactor对象注册感兴趣的事件监听,然后事件触发时调用事件处理函数。而Proactor模式中,用户线程将AsynchronousOperation(读/写等)、Proactor以及操作完成时的CompletionHandler注册到AsynchronousOperationProcessor。AsynchronousOperationProcessor使用Facade模式提供了一组异步操作API(读/写等)供用户使用,当用户线程调用异步API后,便继续执行自己的任务。AsynchronousOperationProcessor 会开启独立的内核线程执行异步操作,实现真正的异步。当异步IO操作完成时,AsynchronousOperationProcessor将用户线程与AsynchronousOperation一起注册的Proactor和CompletionHandler取出,然后将CompletionHandler与IO操作的结果数据一起转发给Proactor,Proactor负责回调每一个异步操作的事件完成处理函数handle_event。虽然Proactor模式中每个异步操作都可以绑定一个Proactor对象,但是一般在操作系统中,Proactor被实现为Singleton模式,以便于集中化分发操作完成事件。

异步IO

在这里插入图片描述如图,异步IO模型中,用户线程直接使用内核提供的异步IO API发起read请求,且发起后立即返回,继续执行用户线程代码。不过此时用户线程已经将调用的AsynchronousOperation和CompletionHandler注册到内核,然后操作系统开启独立的内核线程去处理IO操作。当read请求的数据到达时,由内核负责读取socket中的数据,并写入用户指定的缓冲区中。最后内核将read的数据和用户线程注册的CompletionHandler分发给内部Proactor,Proactor将IO完成的信息通知给用户线程(一般通过调用用户线程注册的完成事件处理函数),完成异步IO。

用户线程使用异步IO模型的伪代码描述为:

void UserCompletionHandler::handle_event(buffer) {

process(buffer);

}

{

aio_read(socket, new UserCompletionHandler);

}

用户需要重写CompletionHandler的handle_event函数进行处理数据的工作,参数buffer表示Proactor已经准备好的数据,用户线程直接调用内核提供的异步IO API,并将重写的CompletionHandler注册即可。

相比于IO多路复用模型,异步IO并不十分常用,不少高性能并发服务程序使用IO多路复用模型+多线程任务处理的架构基本可以满足需求。况且目前操作系统对异步IO的支持并非特别完善,更多的是采用IO多路复用模型模拟异步IO的方式(IO事件触发时不直接通知用户线程,而是将数据读写完毕后放到用户指定的缓冲区中)。Java7之后已经支持了异步IO,感兴趣的读者可以尝试使用。

  • 3
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值