Linux企业实战(四)——varnish(1)

1 什么是varnish

(1)概念

varnish是一个反向HTTP代理,有时称为HTTP加速器或web加速器;

  • varnish将文件或文件片段储存在内存中,使他们能够快速被提供;
  • varnish本质上是一个键/值存储,它通常使用url作为键;
  • varnish是为现代硬件、现在操作系统和现代工作负载而设计的。

(2)varnish加速器与Squid加速器的对比

  • Squid加速器(代理缓存服务器)是将从服务器要回来的资源放在自己的硬盘里,客户读取的速率很慢,代理的效率低

  • varnish加速器(代理缓存服务器)是将从服务器要回来的资源放在自己的内存里,客户读取的速率很快,代理的效率高

(3)varnish代理服务器的工作方式

varnish代理服务器的工作方式有两种:

  • 仅仅作为一个代理服务器:帮客户端去问服务端要数据,要回来的数据直接给客户端自己不进行缓存,这种情况是客户的隐私信息、热点信息、更新比较快的数据,不缓存,只代理。

  • 既代理又缓存:帮客户端去问服务端要数据,要回来的数据先给自己缓存一份,然后再发给客户端,这种情况是用于更新比较慢的数据,此时varnish既代理又缓存。

(4)使用varnish加速缓存代理服务器的原因

  • 举例来解释:

全国有许多用户在全国各个地方都要访问百度,而百度的服务器总部在北京。全国许多用户都在访问百度时,会对浏览器造成很大的访问压力,甚至会造成服务器瘫痪。现在百度总部给每个地区都放varnish代理服务器,每个地区的用户想访问百度资源的时候,都会间接去问自己地区的varnish代理服务器要资源。如果varnish代理服务器上面没有资源,此时varnish代理服务器就会去向北京的服务器要资源,将要回来的资源视情况而定给自己缓存一份,然后再给客户端发一份。这种情况下,varnish代理服务器的数量远远少于使用百度用户的数量,即使所有的varnish代理服务器同时向百度总部的服务器要资源的时候,也不会给总部的服务器造成很大的压力,用户的浏览速度也不会因为人数太多而卡顿。假如代理服务器缓存了一些更新过的数据,当客户端再次要这个数据的时候,代理服务器会直接返回给客户端,不需要再去问总部的服务器要资源。这就是把varnish服务器叫做加速器的原因,加快了客户端和服务端之间的访问速率。
在这里插入图片描述
如上图所示,这里的代理服务器即varnish代理服务器,实现了一个反向代理的功能,它能够缓存web服务器上的内容,然后客户端就可以直接访问代理服务器来获取所需要的资源。

(5) varnish加速器的工作流程

Varnish启动会产生master主(management)进程和child子(worker ,主要做cache的工作)进程

作用:

  • master进程读入(更新)配置,vcl文件编译,varnish监控,初始化varnish及提供varnish管理接口。

  • child进程分配若干线程进行工作,主要包括一些管理线程和很多woker线程。

注意:Manegement进程每隔几秒探测以下child进程以判断其是否正常运行,如果在指定的时长内未得到child进程的回应,management将会重启此child进程

具体流程:

  • 针对文件缓存部分,master读入存储配置,调用合适的存储类型,然后创建/读入相应大小的缓存大文件。

  • 接着,master初始化管理该存储空间的结构体。这些变量都是全局变量,在fork以后会被child进程所继承(包括文件描述符)。

  • 在child进程主线程初始化过程中,将前面打开的存储大文件整个mmap到内存中(如果超出系统的虚拟内存,mmap失败,进程会减少原来的配置mmap大小,然后继续mmap)
    此时创建并初始化空闲存储结构体,挂到存储管理结构体,以待分配。

  • 接着,真正的工作开始,Varnish的某个负责接受新HTTP连接的线程开始等待用户,如果有新的HTTP连接过来,它总负责接收,
    然后叫醒某个等待中的线程,并把具体的处理过程交给它。Worker线程读入HTTP请求的URL,查找已有的object,

  • 如果命中则直接返回并回复用户。如果没有命中,则需要将所请求的内容,从后端服务器中取过来,存到缓存中,然后再回复。

分配缓存的过程:

  • varnish根据所读到object的大小,创建相应大小的缓存文件。
    为了读写方便,程序会把每个object的大小变为最接近其大小的内存页面倍数。

  • 然后从现有的空闲存储结构体中查找,找到最合适的大小的空闲存储块,分配给它。

  • 如果空闲块没有用完,就把多余的内存另外组成一个空闲存储块,挂到管理结构体上。

  • 如果缓存已满,就根据LRU机制,把最旧的object释放掉。 释放缓存的过程是这样的:有一个超时线程,检测缓存中所有object的生存期。
    如果超出设定的TTL(Time To Live)没有被访问,就删除它,并且释放相应的结构体及存储内存。(释放时会检查该存储内存块前面或后面的空闲内存块。如果前面或后面的空闲内存和该释放内存是连续的,就将它们合并成更大一块内存。)

  • 整个文件缓存的管理,没有考虑文件与内存的关系,实际上是将所有的object都考虑是在内存中

  • 如果系统内存不足,系统会自动将其换到swap空间,而不需要varnish程序去控制。

2 CDN缓存系统

(1)概念

CDN(Content Delivery Network),内容分发网络,CDN的任务是将内容从源站传递给用户。
随着网站业务发展, 用户数量的增加,web服务器的负荷越来越大,还有传输距离等因素的影响,对我们网站的响应速度构成了极大的挑战,解决方案就是在网络传输上利用缓存使得web服务数据流能就近访问,是优化网络数据传输非常有效的技术,从而获得高速的体验和品质保证。

(2)CDN的工作原理

  • 无cdn时,用户通过浏览器访问网站的过程

1.用户在浏览器输入URL;
2.浏览器向本地DNS请求域名解析;
3.如果本地DNS缓存有该域名的解析结果,则直接将解析结果返回给浏览器;
4.如果本地DNS缓存中无该域名的解析结果,则以递归方式向整个DNS系统请求域名解析,在获得应答后将解析结果返回给浏览器;
5.浏览器获得解析结果,提取出IP信息,使用IP向服务器请求数据;
6.服务器返回数据给浏览器。

  • 有cdn时,用户通过浏览器访问网站的过程
    1.用户在浏览器中输入URL;
    2.浏览器向本地DNS请求域名解析,DNS会将域名解析权转交给CNAME指向的CDN专用的DNS服务器;
    3.CDN专用的DNS服务器将CDN的全局负载均衡设备的IP返回给浏览器;
    4.浏览器向CDN全局负载均衡设备发起URL请求;
    5.CDN全局负载均衡设备根据请求的URL和用户的IP地址,将用户请求转发到用户所在区域的区域负载均衡设备;
    6.区域负载均衡设备,根据用户IP、请求URL、缓存服务器的负载情况等,返回一台合适的服务器IP给用户;
    7.用户向缓存服务器发起请求;
    8.缓存服务器响应用户请求,如果用户请求的内容缓存服务器上不存在,则缓存服务器要向上一级缓存服务器请求内容,直到追溯到网站的源服务器。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值