nginx

注意:nginx的conf.d的目录中,都是nginx的配置文件,如果某两个文件的请求转发域名一样,但是属于两个不同的工程,会导致其中某一个工程在启动的时候,跳转到另一个工程的情况


nginx正向代理和反向代理的本质区别:nginx正向代理代理的是发起请求的方,即可以理解为客户端;nginx反向代理代理的是被请求方,即可以理解为服务端。
举两个简单的例子对比:
1 我们访问google,由于防火墙的原因,我们并不能直接访问,而是需要借助VPN来实现,可以看看,正向代理代理的是客户端,客户端是知道目标的,但是目标并不知道客户端是通过VPN访问的。
2 当我们用外网访问百度时,其实会进行一个转发,代理到内网中去,这就是所谓的反向代理,即反向代理“代理”的是服务器端,而且这一个过程对于客户端来说是透明的。

启动nginx之后,其实就是在80端口启动了Socket服务进行监听,nginx涉及Master和Worker进程。
nginx.conf
Master进程的作用:读取配置文件nginx.conf;管理worker进程;
Worker进程的作用:每一个Worker进程都维护一个线程(避免线程切换),处理连接和请求;注意Worker进程的个数由配置文件决定,一般和CPU个数相关(有利于进程切换),配置几个就有几个Worker进程。
问题一:nginx如何做到热部署:
所谓热部署,就是配置文件nginx.conf修改后,不需要stop Nginx,不需要中断请求,就能让配置文件生效!(nginx -s reload 重新加载/nginx -t 检查配置/nginx -s stop )通过上文我们已经知道worker进程负责处理具体的请求,那么如果想达到热部署的效果,可以想象:
方案一:修改配置文件nginx.conf后,主进程master负责推送给worker进程更新配置文件,worker进程收到信息后,更新进程内部的线程信息。
方案二:修改配置文件nginx.conf后,重新生成新的worker进程,当然会以新的配置进行处理请求,而且新的请求必须就都交给新的worker进程,至于老的worker进程,等把那些以前的请求处理完之后,kill掉即可。
nginx采用的就是第二种方案达到热部署。

问题二:nginx如何做到高并发下的高效处理?
上文已经提及到nginx worker进程个数与CPU绑定、worker进程内部包含一个线程高效回环处理请求,这的确有助于效率,但是这是不够的。
要同时处理这么多请求,要知道,有的请求需要发生IO,可能需要很长的时间,如果等着它,就会拖慢worker的处理速度。Nginx采用了Linux的epoll模型,epoll模型基于事件驱动机制,它可以监控多个事件是否准备完毕,如果OK,那么放入epoll队列中,这个过程是异步的。worker只需要从epoll队列循环处理即可。

问题三:nginx挂了怎么办?
nginx既然作为入口网关,很重要,如果出现单点问题,显然是不可接受的。答案是:Keepalived+nginx实现高可用
keepalived是一个高可用的解决方案,主要是用来防止服务器单点发生故障,可以通过和nginx配合来实现web服务的高可用。(其实,keepalived不仅仅可以和nginx配合,还可以和很多其他服务配合)
keepalived+Nginx实现高可用的思路:
第一,请求不要直接打到Nginx上,应该先通过Keepalived(这就是所谓虚拟IP,VIP)
第二,Keepalived应该能监控Nginx的生命状态(提供一个用户自定义的脚本,定期检查nginx的状态,进行权重变化,从而实现Nginx故障切换)
我们的主战场:nginx.conf
很多时候,在开发测试环境下,我们都得自己去配置Nginx,就是去配置nginx.conf。
nginx.conf是典型的分段配置文件
其实这是把Nginx作为web server来处理静态资源。
第一:location可以进行正则匹配,应该注意正则的几种形式以及优先级
第二:Nginx能够提高速度的其中一个特性就是,动静分离,就是把静态资源放到Nginx上,有Nginx管理,动态请求转发给后端。
第三:我们可以在nginx下把静态资源、日志文件归属到不同的域名下(也即是目录),这样方便 管理维护。
第四:Nginx可以进行IP访问控制,有些电商平台,就可以在Nginx这一层,做一下处理,内置一个黑名单模块,那么就不必等请求通过Nginx到达后端再进行拦截,而是直接在Nginx这一层就处理掉。

反向代理【proxy_pass】
所谓反向代理,很简单,其实就是在location这一段配置中的root替换成proxy_pass即可。root说明是静态资源,可以由nginx进行返回;而proxy_pass说明是动态请求,需要就行转发,比如代理到Tomcat上。反向代理是透明的,比如说request->nginx->Tomcat,那么对于Tomcat而言,请求的IP地址就是Nginx地址,而非真实的request地址,这一点需要注意。不过,好在nginx不仅仅可以反向代理请求,还可以由用户自定义设置HTTP HEADER。

负载均衡【upstream】
上面的反向代理中,我们通过proxy_pass来指定Tomcat的地址,很显然我们只能指定一台Tomcat地址,那么我们想指定多台来达到负载均衡呢?
第一,通过upstream来定义一组Tomcat,并指定负载策略(IPHASH、加权论调、最少连接),健康检查策略(Nginx可以监控这一组Tomcat的状态)等。
第二,将proxy_pass替换成upstream指定的值即可。
负载均衡可能带来的问题?
负载均衡所带来的很明显的问题,一个请求,可以到达A server,也可以到达B server,这完全不受我们的控制,当然这个不是什么问题,只是我们注意到:用户状态的保存问题,如Session会话信息,不能保存到服务器上。
缓存
缓存,是Nginx提供的,可以加快访问速度的机制,说白了,在配置上就是一个开启,同时指定目录,让缓存可以存储到磁盘上。
以下是对提供的参考资料的总结,按照要求结构化多个要点分条输出: 4G/5G无线网络优化与网规案例分析: NSA站点下终端掉4G问题:部分用户反馈NSA终端频繁掉4G,主要因终端主动发起SCGfail导致。分析显示,在信号较好的环境下,终端可能因节能、过热保护等原因主动释放连接。解决方案建议终端侧进行分析处理,尝试关闭节电开关等。 RSSI算法识别天馈遮挡:通过计算RSSI平均值及差值识别天馈遮挡,差值大于3dB则认定有遮挡。不同设备分组规则不同,如64T和32T。此方法可有效帮助现场人员识别因环境变化引起的网络问题。 5G 160M组网小区CA不生效:某5G站点开启100M+60M CA功能后,测试发现UE无法正常使用CA功能。问题原因在于CA频点集标识配置错误,修正后测试正常。 5G网络优化与策略: CCE映射方式优化:针对诺基亚站点覆盖农村区域,通过优化CCE资源映射方式(交织、非交织),提升RRC连接建立成功率和无线接通率。非交织方式相比交织方式有显著提升。 5G AAU两扇区组网:与三扇区组网相比,AAU两扇区组网在RSRP、SINR、下载速率和上传速率上表现不同,需根据具体场景选择适合的组网方式。 5G语音解决方案:包括沿用4G语音解决方案、EPS Fallback方案和VoNR方案。不同方案适用于不同的5G组网策略,如NSA和SA,并影响语音连续性和网络覆盖。 4G网络优化与资源利用: 4G室分设备利旧:面对4G网络投资压减与资源需求矛盾,提出利旧多维度调优策略,包括资源整合、统筹调配既有资源,以满足新增需求和提质增效。 宏站RRU设备1托N射灯:针对5G深度覆盖需求,研究使用宏站AAU结合1托N射灯方案,快速便捷地开通5G站点,提升深度覆盖能力。 基站与流程管理: 爱立信LTE基站邻区添加流程:未提供具体内容,但通常涉及邻区规划、参数配置、测试验证等步骤,以确保基站间顺畅切换和覆盖连续性。 网络规划与策略: 新高铁跨海大桥覆盖方案试点:虽未提供详细内容,但可推测涉及高铁跨海大桥区域的4G/5G网络覆盖规划,需考虑信号穿透、移动性管理、网络容量等因素。 总结: 提供的参考资料涵盖了4G/5G无线网络优化、网规案例分析、网络优化策略、资源利用、基站管理等多个方面。 通过具体案例分析,展示了无线网络优化中的常见问题及解决方案,如NSA终端掉4G、RSSI识别天馈遮挡、CA不生效等。 强调了5G网络优化与策略的重要性,包括CCE映射方式优化、5G语音解决方案、AAU扇区组网选择等。 提出了4G网络优化与资源利用的策略,如室分设备利旧、宏站RRU设备1托N射灯等。 基站与流程管理方面,提到了爱立信LTE基站邻区添加流程,但未给出具体细节。 新高铁跨海大桥覆盖方案试点展示了特殊场景下的网络规划需求。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值