目录
什么是负载均衡
(1)原理
(1) 负载均衡建立在现有网络结构之上,它提供了一种廉价有效透明的方法扩展网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力、提高网络的灵活性和可用性。
(2)负载均衡(Load Balance)其意思就是分摊到多个操作单元上进行执行,例如Web服务器、FTP服务器、企业关键应用服务器和其它关键任务服务器等,从而共同完成工作任务。
(2)负载均衡下如何保持一个长连接?
(1)ip_hash 保持短时间内的一个长连接,保持session的一个技术,把访问的IP以hash形式来计算 ,检测客户端和服务端IP。(常用)
问题:假如我们的IP地址因为家里的路由器被重启或者运营商分配的IP地址改变等情况,那么再次访问时,新的ip就可能被分配到新的服务器上,之前的session也就失效了。
(2)url_hash:第一次请求的网站通过hash计算域名算成一个MDS的三十二位的值落在服务器上,往后每次访问都会落在这个服务器上。(常用)
附:nginx本身默认不支持url_hash,如果需要这种高度算法,必须安装nginx的hash包。
(3)轮询(默认):每个请求按照时间顺序逐一分配到下游的服务节点,如果其中一个节点故障,nginx会自动删除故障系统使用户使用不受影响
(4)权重(weight):在配置文件中对客户的服务节点指定权重值weight,weight值越大则被分配的频率越高,一般这种负载均衡,用于节点的配置情况不一样,有的可能配置高,有的可能配置低。
(5)least_conn(最少连接调度算法):最少链接调度算法,对下游服务器中连接最少的服务器分配。
(6)least_time(最小响应时间):计算节点平均响应时间,然后相应最快的那个,分配更高权重。
(3)nginx反向代理负载均衡配置:
(1)在nginx.conf配置文件中找到后端服务器的地址并修改为自己 服务器的地址,配置nginx环境,并且在后端也搭建一台服务器,否则无法访问。(共三台服务器)
(2)将以下代码配置在location下,将代码代理到 http://nginx_php,访问网页的时候将请求交给上面,自然而然就请求到了上面的两台服务器
(3)通过springBoot+Freemarket快速搭建一个web项目:spring boot-web-nginx然后在该项目中,创建一个Indexnginxcontroller.java文件
分析:编写一个后端控制器,当访问到资源的请求时,跳转到前端index页面,并将该值携带返回。
前端的index.ftl文件代码如下:
从响应中获取port输出
在浏览器访问时会在两台服务器上不段飘逸,实现反向代理+负载均衡,从而极大改善网站请求的频率。
(4)难点
难点一:我们需要在每一台节点的相同位置都上传相同内容的webshell,一旦有一台机器上没有,那么在请求轮到这台机器的时候,就会出现404错误,这也就是我们出现一会正常一会错误的原因
解决办法:已经找到命令执行和文件上传的漏洞,只需要多上传几次,达到全部传上去的效果(可使用python脚本多上传几次)。
难点二:我们在执行命令时,无法知道下次的请求会交给那台机器去执行。
解决办法:在终端多执行几次命令。
难点三:会导致我们的入侵行为做不了,当我们上传一些工具时会遇到麻烦,当我们上传入侵工具时,可能会出现在我们上传时,传到一半时候IP飘逸到另一台服务器,导致有一半的文件在这台服务器,有一半在另一个服务器,导致上传工具出错。
分片传输:将一个大的文件分成多个小的进行传输。
解决办法:尽量上传小一点的文件,生成木马也生成小一点的。
难点四:由于目标机器不能出外网,想进一步深入,只能使用reGeorg/HTTP Tunnel,可在这个场景下,这些tunnel脚本都失灵了,根本原因就是因为被攻击网站的负载均衡。
解决办法:(1) plan A:关掉其中一台机器,负载均衡会检测心跳,其中一台机器关掉了,以后所有请求都发送到另一台机器上。但是直接关掉业务服务器,真实环境下就是作死,影响业务还会造成灾难,直接不考虑。
(2)planB:执行前先判断要不要执行(写一个shell脚本判断一下IP)
脚本理解:先判断以下想要执行的IP是不是想要的IP(目前飘逸的IP),如果时就执行,如果不是就不执行。但是只能保证执行的命令是在我们想要的机器上,但是不能上传文件和HTTP隧道。仅适合在执行命令的时候用(勉强能用)
(3)在web层面做一次HTTP的流量转发(重点):将流量统一转发到一台服务器上,不管访问那台服务器都会转发到统一的那一台服务器上,这样一来代码就可以在一台服务器上执行,最终访问的就是一台机器。
脚本怎么写(具体操作)?
1.创建一个antproxy.jsp脚本,修改转发地址,转向Node的内网IP的目标脚本访问地址(注意:不仅仅是 webs hell,还可以改成reGeorg等脚本访问地址)
代码分析:通过函数将所有的请求拿到(方法、数据包)通过byte循环不断读取后将 一切请求都可以转发到target里边去 。起到流量转发的作用。
注意:
(a)不要使用上传功能,上传功能会分片上传,导致分散在不同 Node 上。
( b) 要保证每一台 Node 上都有相同路径的 antproxy.jsp, 所以我疯狂保存了很多次,保证每一台都上传了脚本。
2.修改shell配置, 将 URL 部分填写为 antproxy.jsp 的地址,其它配置不变。
3.测试执行命令, 查看 IP
这样就可以看出没有发生飘逸了
(5)知识扩展 CDN(内容分发网络)
原理:核心概念:将内容缓存在终端附近
由于内容源较远,所以我们就在靠近用户的地方建立一个缓存服务器,把远端的内容,复制一份放在这里。例如:百度服务器在北京,第一次访问并不是访问的北京,而访问的时部署在自己城市的cdn,访问后端的资源时,cdn会将请求发送给后端 。
注意:CDN并不是只能缓存时评内容,它还可以对网站的静态资源(例如类型的图片、html、css、js等)惊醒分发,对移动应用appd的静态内容(例如安装白apk文件、app内的图片视频等)进行分发。
(1)简介:CDN的全称是Content Delivery Network,即内容分发网络。其目的是通过在现有的internet中增加一层新的网络架构,将网站的内容发布到最接近用户的网络边缘,使用户可以就近取得所需的内容,提高用户访问网站的响应速度。CDN有别于镜像,因为它比镜像更智能,或者可以做这样一个比喻:CDN=更智能的镜像+缓存+流量导流。因而,CDN可以明显提高Internet网络中信息流动的效率。从技术上全面解决由于网络带宽小、用户访问量大、网点分布不均等问题,提高用户访问网站的响应速度。
(2)具体步骤:
a:当用户点击app上的内容,app会根据url地址去本地DNS寻求IP地址解析。
b:本地DNS系统会将域名的解析权交给CDN专业DNS服务器。
c:CDN专用DNS服务器,将CDN的全局负载均衡设备IP地址返回用户。
d:用户想CDN的负载均衡设备发起内容URL访问请求。
e:CDN负载均衡设备根据用户IP地址,以及用户请求内容url,选择一台用户所属区域的缓存服务器。
f:负载均衡设备告诉用户这台缓存服务器的IP地址,让用户所需的内容传送到用户终端。
g:如果这台缓存服务器上并没有用户想要的内容,那么这台服务器就要网站的源服务器请求内容。
h:源服务器返回内容给缓存服务器,缓存服务器发送给用户,并根据用户自定义的缓存策略,判断 要不要把内容缓存到缓存服务器上。
(3)工作流程:当用户访问已经加入CDN服务的网站时,首先通过DNS重定向技术确定最接近用户的最佳CDN节点,同时将用户的请求指向该节点。当用户的请求到达指定节点时,CDN的服务器(节点上的高速缓存)负责将用户请求的内容提供给用户。具体流程为: 用户在自己的浏览器中输入要访问的网站的域名,浏览器向本地DNS请求对该域名的解析,本地DNS将请求发到网站的主DNS,主DNS根据一系列的策略确定当时最适当的CDN节点,并将解析的结果(IP地址)发给用户,用户向给定的CDN节点请求相应网站的内容。
由于用户访问源站业务有性能瓶颈,通过cdn技术把源站的内容缓存到多个节点。用户向源站域名发起请求时,请求会被调度至最接近用户的服务节点,直接由服务节点直接快速响应,有效降低用户访问延迟,提升可用性。
(4)CDN的优势: (1)CDN节点解决了跨运营商和跨地域访问的问题,访问延时大大降低; (2)大部分请求在CDN边缘节点完成,CDN起到了分流作用,减轻了源站的负载。
注意:入侵要通过CDN找到后端IP。