Ngin简介

本文详细介绍了Nginx的基本概念,包括正向代理、反向代理和动静分离,以及常用命令和配置文件详解。重点讲解了Nginx的配置实例,如反向代理、负载均衡和动静分离的实现,同时探讨了Nginx的原理和优化参数配置,展示了如何搭建高可用集群。此外,还提及了Nginx在高并发环境下的优化策略。
摘要由CSDN通过智能技术生成

Nginx基本概念

正向代理

反向代理

动静分离

nginx 常用的命令

启动命令

关闭命令

重新加载命令

nginx.conf配置文件

全局块

events 块

http

http 全局块

server 块

全局 server 块
location 块

nginx 配置实例-反向代理

nginx 配置实例-负载均衡

nginx 配置实例-动静分离

nginx 原理与优化参数配置

nginx 搭建高可用集群

一:nginx基本概念
Nginx (“engine x”) 是一个高性能的 HTTP 和反向代理服务器,特点是占有内存少,并发能 力强,事实上nginx的并发能力确实在同类型的网页服务器中表现较好,中国大陆使用nginx 网站用户有:百度、京东、新浪、网易、腾讯、淘宝
Nginx 可以作为静态页面的 web 服务器,同时还支持 CGI 协议的动态语言,比如 perl、php 等。但是不支持 java。Java 程序只能通过与 tomcat 配合完成。Nginx 专为性能优化而开发, 性能是其最重要的考量,实现上非常注重效率 ,能经受高负载的考验,有报告表明能支持高 达 50,000 个并发连接数。 https://lnmp.org/nginx.html
1.1 正向代理
Nginx 不仅可以做反向代理,实现负载均衡。还能用作正向代理来进行上网等功能。 正向代理:如果把局域网外的 Internet 想象成一个巨大的资源库,则局域网中的客户端要访 问 Internet,则需要通过代理服务器来访问,这种代理服务就称为正向代理。
在这里插入图片描述
1.2.反向代理
反向代理,其实客户端对代理是无感知的,因为客户端不需要任何配置就可以访问,我们只 需要将请求发送到反向代理服务器,由反向代理服务器去选择目标服务器获取数据后,在返 回给客户端,此时反向代理服务器和目标服务器对外就是一个服务器,暴露的是代理服务器 地址,隐藏了真实服务器 IP 地址
在这里插入图片描述
1.3动静分离
为了加快网站的解析速度,可以把动态页面和静态页面由不同的服务器来解析,加快解析速度。降低原来单个服务器的压力
在这里插入图片描述
二:nginx 常用的命令
(1)启动命令
在/usr/local/nginx/sbin目录下执行 ./nginx
(2)关闭命令
在/usr/local/nginx/sbin目录下执行 ./nginx -s stop
(3)重新加载命令
在/usr/local/nginx/sbin目录下执行 ./nginx -s reload

三:nginx.conf配置文件

****	
		nginx 安装目录下,其默认的配置文件都放在这个目录的 conf 目录下,而主配置文件 nginx.conf 也在其中,后续对nginx 的使用基本上都是对此配置文件进行相应的修改 

在这里插入图片描述
配置文件中有很多#, 开头的表示注释内容,我们去掉所有以 # 开头的段落,精简之后的 内容如下:
在这里插入图片描述
根据上述文件,我们可以很明显的将nginx.conf配置文件分为三部分

第一部分:全局块
从配置文件开始带events块之间的内容,主要会设置一些影响nginx服务器运行的配置指令,主要包括配置运行ngonx服务器的用户(组)、允许生成worker process数,进程PID存放路径、日志存放路径和类型及配置文件的引入等
比如上面第一行配置的

worker_processes 1

这是Nginx服务器并发处理服务的关键配置,worker_processes值越大,可以支持的并发处理量也越多,但是会受到硬件、软件等设备的制约

第二部分 :events块
比如上面的配置:

events{
   
	worker_connections 1024;
}

events块涉及的指令主要影响Nginx服务器与用户的网络连接,常用的设置包括是否开启对多work process下的网络连接进行序列化,是否允许同时连接多个网络连接,选取哪种事件驱动来处理连接请求,每个word process可以同时支持的最大连接数等。
上述理论值就表示每个work process支持的最大连接数为1024
这部分的配置对Nginx的性能影响较大,在实际中应该灵活配置

第三部分:http块
在这里插入图片描述
这算是Nginx服务器配置中最频繁的部分,代理、缓存和日志定义绝大多数功能和第三方模块的配置都是在这里。需要注意的是:http块也可以包括http全局块、server块

1:http全局块
http全局块配置的指令包括文件引入、MIME-TYPE定义、日志自定义、连接超时、单链接请求上限等
2:server块
这块和虚拟主机有密切关系,虚拟主机从用户角度看,和一台独立的硬件主机是完全一样的,该技术的产生是为了节省互联网服务器硬件成本
每个http块可以包括多个server块,而每个server块就相当与一个虚拟主机
而每个server块也分为全局server块,以及可以同时包含多个localton块
(1)、全局server块
最常见的配置是虚拟机主机的监听配置和本虚拟主机的名称和ip配置
(2)、location块
一个server块可以配置多个location块
这块的主要作用是基于Nginx服务器接收到的请求字符串(例如server_name/uri-string),对虚拟主机名称(也可以是ip别名)之外的字符串(例如前面的/uri-string)进行配置,对特定的请求进行处理。地址定向、数据缓存和应答控制等功能,还有许多第三方模块的配置也在这里进行

第 四部分: nginx 配置实例-反向代理
4.1 反向代理实例一
实现效果:使用 nginx 反向代理,访问 www.123.com 直接跳转到 127.0.0.1:8080
4.1.1 实验代码
1) 启动一个 tomcat,浏览器地址栏输入 127.0.0.1:8080,出现如下界面
在这里插入图片描述
2)通过修改本地host文件,将www.123.com映射到127.0.0.1
在这里插入图片描述
配置完成之后,我们便可以通过 www.123.com:8080 访问到第一步出现的 Tomcat 初始界 面。那么如何只需要输入 www.123.com 便可以跳转到 Tomcat 初始界面呢?便用到 nginx 的反向代理。

3) 在 nginx.conf 配置文件中增加如下配置
在这里插入图片描述
如上配置,我们监听 80 端口,访问域名为 www.123.com,不加端口号时默认为 80 端口,故 访问该域名时会跳转到 127.0.0.1:8080 路径上。在浏览器端输入 www.123.com 结果如下:
在这里插入图片描述
4.3 反向代理实例二
实现效果:使用 nginx 反向代理,根据访问的路径跳转到不同端口的服务中 nginx 监听端口为 9001, 访问 http://127.0.0.1:9001/edu/ 直接跳转到 127.0.0.1:8081 访问 http://127.0.0.1:9001/vod/ 直接跳转到 127.0.0.1:8082
4.3.1 实验代码
第一步,准备两个 tomcat,一个 8001 端口,一个 8002 端口,并准备好测试的页面

第二步,修改 nginx 的配置文件 在 http 块中添加 server{}
在这里插入图片描述
location 指令说明
该指令用于匹配 URL。
语法如下:
在这里插入图片描述
1、= :用于不含正则表达式的 uri 前,要求请求字符串与 uri 严格匹配,如果匹配 成功,就停止继续向下搜索并立即处理该请求。
2、~:用于表示 uri 包含正则表达式,并且区分大小写。
3、~:用于表示 uri 包含正则表达式,并且不区分大小写。
4、^~:用于不含正则表达式的 uri 前,要求 Nginx 服务器找到标识 uri 和请求字 符串匹配度最高的 location 后,立即使用此 location 处理请求,而不再使用 location 块中的正则 uri 和请求字符串做匹配。
注意:如果 uri 包含正则表达式,则必须要有 ~ 或者 ~
标识。

第五部分 nginx 配置实例-负载均衡
实现效果:配置负载均衡
5.1 实验代码
1) 首先准备两个同时启动的 Tomcat 2) 在 nginx.conf 中进行配置
在这里插入图片描述
随着互联网信息的爆炸性增长,负载均衡(load balance)已经不再是一个很陌生的话题, 顾名思义,负载均衡即是将负载分摊到不同的服务单元,既保证服务的可用性,又保证响应 足够快,给用户很好的体验。快速增长的访问量和数据流量催生了各式各样的负载均衡产品, 很多专业的负载均衡硬件提供了很好的功能,但却价格不菲,这使得负载均衡软件大受欢迎, nginx 就是其中的一个,在 linux 下有 Nginx、LVS、Haproxy 等等服务可以提供负载均衡服 务,而且 Nginx 提供了几种分配方式(策略):
1、轮询(默认)
每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器 down 掉,能自动剔除。
2、weight
weight 代表权,重默认为 1,权重越高被分配的客户端越多
指定轮询几率,weight 和访问比率成正比,用于后端服务器性能不均的情况。 例如:
在这里插入图片描述
3、ip_hash
每个请求按访问 ip 的 hash 结果分配,这样每个访客固定访问一个后端服务器,可以解决 session 的问题。 例如
在这里插入图片描述
4、upstream-fair(第三方)
按后端服务器的响应时间来分配请求,响应时间短的优先分配。
在这里插入图片描述
url_hash(第三方)
按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存时比较有效。 在upstream中加入hash语句,server语句中不能写入weight等其他的参数,hash_method是使用的hash算法。

url_hash的优点是能够提高后端缓存服务器的效率,比如提高squid缓存(Squid是一个高性能的代理缓存服务器)的效率,但是缺点是当后端服务器宕机的时候,url_hash不会自动跳转的其他缓存服务器,而是返回给用户一个503错误。
在这里插入图片描述

第六 部分 nginx 配置实例-动静分离

Nginx 动静分离简单来说就是把动态跟静态请求分开,不能理解成只是单纯的把动态页面和 静态页面物理分离。严格意义上说应该是动态请求跟静态请求分开,可以理解成使用 Nginx 处理静态页面,Tomcat 处理动态页面。动静分离从目前实现角度来讲大致分为两种,
一种是纯粹把静态文件独立成单独的域名,放在独立的服务器上,也是目前主流推崇的方案;

另外一种方法就是动态跟静态文件混合在一起发布,通过 nginx 来分开。
通过 location 指定不同的后缀名实现不同的请求转发。通过 expires 参数设置,可以使 浏览器缓存过期时间,减少与服务器之前的请求和流量。具体 Expires 定义:是给一个资 源设定一个过期时间,也就是说无需去服务端验证,直接通过浏览器自身确认是否过期即可, 所以不会产生额外的流量。此种方法非常适合不经常变动的资源。(如果经常更新的文件, 不建议使用 Expires 来缓存),我这里设置 3d,表示在这 3 天之内访问这个 URL,发送 一个请求,比对服务器该文件最后更新时间没有变化,则不会从服务器抓取,返回状态码 304,如果有修改,则直接从服务器重新下载,返回状态码 200。

6.1 实验代码
1.项目资源准备

2.进行 nginx 配置

找到 nginx 安装目录,打开/conf/nginx.conf 配置文件,
在这里插入图片描述
添加监听端口、访问名字

重点是添加 location,

最后检查 Nginx 配置是否正确即可,然后测试动静分离是否成功,之需要删除后端 tomcat 服务器上的某个静态文件,查看是否能访问,如果可以访问说明静态资源 nginx 直接返回 了,不走后端 tomcat 服务器

第 七部分 nginx 原理与优化参数配置
在这里插入图片描述
master-workers 的机制的好处 首先,对于每个 worker 进程来说,独立的进程,不需要加锁,所以省掉了锁带来的开销, 同时在编程以及问题查找时,也会方便很多。其次,采用独立的进程,可以让互相之间不会 影响,一个进程退出后,其它进程还在工作,服务不会中断,master 进程则很快启动新的 worker 进程。当然,worker 进程的异常退出,肯定是程序有 bug 了,异常退出,会导致当 前 worker 上的所有请求失败,不过不会影响到所有请求,所以降低了风险。
需要设置多少个 worker Nginx 同 redis 类似都采用了 io 多路复用机制,每个 worker 都是一个独立的进程,但每个进 程里只有一个主线程,通过异步非阻塞的方式来处理请求, 即使是千上万个请求也不在话 下。每个 worker 的线程可以把一个 cpu 的性能发挥到极致。所以 worker 数和服务器的 cpu 数相等是最为适宜的。设少了会浪费 cpu,设多了会造成 cpu 频繁切换上下文带来的损耗。

#设置 worker 数量。 worker_processes 4 #work 绑定 cpu(4 work 绑定 4cpu)。 worker_cpu_affinity 0001 0010 0100 1000

#work 绑定 cpu (4 work 绑定 8cpu 中的 4 个) 。 worker_cpu_affinity 0000001 00000010 00000100 00001000

连接数 worker_connection 这个值是表示每个 worker 进程所能建立连接的最大值,所以,一个 nginx 能建立的最大连接 数,应该是 worker_connections * worker_processes。当然,这里说的是最大连接数,对于 HTTP 请 求 本 地 资 源 来 说 , 能 够 支 持 的 最 大 并 发 数 量 是 worker_connections * worker_processes,如果是支持 http1.1 的浏览器每次访问要占两个连接,所以普通的静态访 问最大并发数是: worker_connections * worker_processes /2,而如果是 HTTP 作 为反向代 理来说,最大并发数量应该是 worker_connections * worker_processes/4。因为作为反向代理服务器,每个并发会建立与客户端的连接和与后端服 务的连接,会占用两个连接。
在这里插入图片描述
第 八 章 nginx 搭建高可用集群
在这里插入图片描述

global_defs {
   
    notification_email {
   
          acassen@firewall.loc
          failover@firewall.loc      
          sysadmin@firewall.loc    
          }    
          notification_email_from Alexandre.Cassen@firewall.loc
          smtp_server 192.168.17.129    
          smtp_connect_timeout 30    
          router_id LVS_DEVEL 
}   
vrrp_script chk_http_port {
   
      script "/usr/local/src/nginx_check.sh"      
      interval 2      #(检测脚本执行的间隔)      
      weight 2
}   
vrrp_instance VI_1 {
   
     state BACKUP   # 备份服务器上将 MASTER 改为 BACKUP       
     interface ens33  //网卡     
     virtual_router_id 51   # 主、备机的 virtual_router_id 必须相同     
     priority 100     # 主、备机取不同的优先级,主机值较大,备份机值较小     
     advert_int 1     
     authentication {
   
              auth_type PASS         
              auth_pass 
  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
NGINX配置接口出现404错误时,可能是由于以下几个原因造成的: 1. 路径错误:首先需要检查NGINX配置文件中的接口路径是否正确。可以查看NGINX的配置文件(通常位于/etc/nginx/目录下)中的location块,确认接口的path是否与实际的路径相匹配。 2. 权限问题:如果接口的路径正确,但用户没有足够的权限访问该路径,也会导致404错误。在这种情况下,可以通过修改文件权限或更改NGINX服务的用户来解决权限问题。 3. 反向代理配置错误:如果在NGINX配置文件中使用了反向代理来处理接口请求,那么可能是反向代理配置有误导致的404错误。可以检查相应的代理配置,确保代理目标的主机和端口等信息正确无误。 4. 后端服务异常:如果接口的后端服务出现故障或未启动,也会导致404错误。需要检查后端服务是否正常运行,并确保与NGINX的连接正常。 5. 缓存问题:有时候接口的内容可能会被缓存,当请求再次到达NGINX时,NGINX会直接返回缓存的结果,而不是访问实际的接口。这种情况下,可以在配置文件中添加相应的缓存配置或使用缓存刷新命令进行解决。 总结:要解决NGINX配置接口404错误,首先需要检查路径、权限、反向代理配置、后端服务和缓存等方面的问题。根据具体情况逐个排查可能的原因,并进行相应的修改和调整,以确保接口能够正常访问。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值