【渐进】关于反向代理,负载均衡

 

一.反向代理的概念

      什么是反向代理呢?其实,反向代理也就是通常所说的WEB服务器加速,它是一种通过在繁忙的WEB服务器和Internet之间增加一个高速的WEB缓冲服务器(即:WEB反向代理服务器)来降低实际的WEB服务器的负载。典型的结构如下图所示: 

8c92e874-f170-42cb-b803-5680cd081d1a

      Web服务器加速(反向代理)是针对Web服务器提供加速功能的。它作为代理Cache,但并不针对浏览器用户,而针对一台或多台特定Web服务器(这也是反向代理名称的由来)。实施反向代理(如上图所示),只要将Reverse Proxy Cache设备放置在一台或多台Web服务器前端即可。当互联网用户访问某个WEB服务器时,通过DNS服务器解析后的IP地址是Reverse Proxy Server的IP地址,而非原始Web服务器的IP地址,这时Reverse Proxy Server设备充当Web服务器,浏览器可以与它连接,无需再直接与Web服务器相连。因此,大量Web服务工作量被卸载到反向代理服务上。不但能够防止外部网主机直接和web服务器直接通信带来的安全隐患,而且能够很大程度上减轻web服务器的负担,提高访问速度。  

[以上摘自网络]

 

二. 负载均衡

      反向代理可以说是负载均衡的手段之一,用于代理请求和转发,通常来说,负载均衡的普遍做法就是N台平行的Web Server,前端架一台Reverse Proxy Server(反向代理服务器),选用一个合适的算法作为转发依据,实现N台Web Server均分处理用户请求。

      这种均分也存在两种情况:一种就是简单的处理数量的均分,一种则是从处理能力上来均分(可以达到真正意义上的运算能力和吞吐量的均衡),这些是取决于选用的算法。

      Web Server这一端采用平行架构,也会带来一些问题,比如用户会话,当一个用户首次请求被路由到第一台Server上,那么当前会话便会创建在这台Server上,下一次请求则有可能被路由至另外一台机器,这样便造成会话丢失。

      要解决这个问题,也有两种主要的方法:

      一是N台Server共用一台会话服务器(如ASP.NET的会话服务器)或是构建分布式缓存服务器等以实现会话(缓存)和Web Server的分离。

      二是在代理服务器上作改动,实现基于IP的路由算法,让来自同一个IP的访问总是被代理至同一台webserver,这样对于后端就完全透明,不侵入原有的Web架构,但他同样存在问题,比如这个方法要求你的代理服务器必须位于你整个架构的最前端,否则它是无法获得真实的访问者IP的(比如代理服务器之前还有一层转发)。

 

 

这里要感谢dx同学的分享,受益匪浅,本文在部分概念介绍的转载之余,按记忆和理解总结了一些应用场景,之后将不断完善补充。

附可参考框架:

Nginx   LVS

作者: wsky (huangxu)
出处: http://www.cnblogs.com/wsky/archive/2009/11/17/1604484.html/
以上文字若无注明转载字样则为个人原创,转载请保留签名
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值