1、什么是LVS
LVS的英文全称是Linux Virtual Server,即Linux虚拟服务器,是一个虚拟的服务器集群系统。
它是我们国家的章文嵩博士的一个开源项目。在linux内存2.6中,它已经成为内核的一部分,在此之前的内核版本则需要重新编译内核。
2、LVS的作用
3、LVS的优缺点
LVS的优点是:
1、抗负载能力强、是工作在网络4层之上仅作分发之用,没有流量的产生,这个特点也决定了它在负载均衡软件里的性能最强的,对内存和cpu资源消耗比较低。
2、配置性比较低,这是一个缺点也是一个优点,因为没有可太多配置的东西,所以并不需要太多接触,大大减少了人为出错的几率。
3、工作稳定,因为其本身抗负载能力很强,自身有完整的双机热备方案,如LVS+Keepalived,不过我们在项目实施中用得最多的还是LVS/DR+Keepalived。
4、无流量,LVS只分发请求,而流量并不从它本身出去,这点保证了均衡器IO的性能不会受到大流量的影响。
5、应用范围比较广,因为LVS工作在4层,所以它几乎可以对所有应用做负载均衡,包括http、数据库、在线聊天室等等。
1、软件本身不支持正则表达式处理,不能做动静分离;而现在许多网站在这方面都有较强的需求,这个是Nginx/HAProxy+Keepalived的优势所在。
2、如果是网站应用比较庞大的话,LVS/DR+Keepalived实施起来就比较复杂了,特别后面有Windows Server的机器的话,如果实施及配置还有维护过程就比较复杂了,相对而言,Nginx/HAProxy+Keepalived就简单多了
4、LVS的四种工作模式
(1)NAT模式
NAT(Network AddressTranslation)即网络地址转换,其作用是通过数据报头的修改,使得位于企业内部的私有IP地址可以访问外网,以及外部用用户可以访问位于公司内部的私有IP主机.
第一步,用户通过互联网DNS服务器解析到公司负载均衡设备上面的外网地址,相对于真实服务器而言,LVS外网IP又称VIP(Virtual IPAddress),用户通过访问VIP,即可连接后端的真实服务器(Real
Server),而这一切对用户而言都是透明的,用户以为自己访问的就是真实服务器,但他并不知道自己访问的VIP仅仅是一个调度器,也不清楚后端的真实服务器到底在哪里、有多少真实服务器。第二步,用户将请求发送至124.126.147.168,此时LVS将根据预设的算法选择后端的一台真实服务器(192.168.0.1~192.168.0.3),将数据请求包转发给真实服务器,并且在转发之前LVS会修改数据包中的目标地址以及目标端口,目标地址与目标端口将被修改为选出的真实服务器IP地址以及相应的端口。
第三步,真实的服务器将响应数据包返回给LVS调度器,调度器在得到响应的数据包后会将源地址和源端口修改为VIP及调度器相应的端口,修改完成后,由调度器将响应数据包发送回终端用户,另外,由于LVS调度器有一个连接Hash表,该表中会记录连接请求及转发信息,当同一个连接的下一个数据包发送给调度器时,从该Hash表中可以直接找到之前的连接记录,并根据记录信息选出相同的真实服务器及端口信息。
(2)TUN隧道模式
在LVS(NAT)模式的集群环境中,由于所有的数据请求及响应的数据包都需要经过LVS调度器转发,如果后端服务器的数量大于10台,则调度器就会成为整个集群环境的瓶颈。我们知道,数据请求包往往远小于响应数据包的大小。因为响应数据包中包含有客户需要的具体数据,所以LVS(TUN)的思路就是将请求与响应数据分离,让调度器仅处理数据请求,而让真实服务器响应数据包直接返回给客户端。VS/TUN工作模式拓扑结构如图3所示。其中,IP隧道(IP tunning)是一种数据包封装技术,它可以将原始数据包封装并添加新的包头(内容包括新的源地址及端口、目标地址及端口),从而实现将一个目标为调度器的VIP地址的数据包封装,通过隧道转发给后端的真实服务器(RealServer),通过将客户端发往调度器的原始数据包封装,并在其基础上添加新的数据包头(修改目标地址为调度器选择出来的真实服务器的IP地址及对应端口),LVS(TUN)模式要求真实服务器可以直接与外部网络连接,真实服务器在收到请求数据包后直接给客户端主机响应数据。
(3)DR模式
在LVS(TUN)模式下,由于需要在LVS调度器与真实服务器之间创建隧道连接,这同样会增加服务器的负担。与LVS(TUN)类似,DR模式也叫直接路由模式,其体系结构如图4所示,该模式中LVS依然仅承担数据的入站请求以及根据算法选出合理的真实服务器,最终由后端真实服务器负责将响应数据包发送返回给客户端。与隧道模式不同的是,直接路由模式(DR模式)要求调度器与后端服务器必须在同一个局域网内,VIP地址需要在调度器与后端所有的服务器间共享,因为最终的真实服务器给客户端回应数据包时需要设置源IP为VIP地址,目标IP为客户端IP,这样客户端访问的是调度器的VIP地址,回应的源地址也依然是该VIP地址(真实服务器上的VIP),客户端是感觉不到后端服务器存在的。由于多台计算机都设置了同样一个VIP地址,所以在直接路由模式中要求调度器的VIP地址是对外可见的,客户端需要将请求数据包发送到调度器主机,而所有的真实服务器的VIP地址必须配置在Non-ARP的网络设备上,也就是该网络设备并不会向外广播自己的MAC及对应的IP地址,真实服务器的VIP对外界是不可见的,但真实服务器却可以接受目标地址VIP的网络请求,并在回应数据包时将源地址设置为该VIP地址。调度器根据算法在选出真实服务器后,在不修改数据报文的情况下,将数据帧的MAC地址修改为选出的真实服务器的MAC地址,通过交换机将该数据帧发给真实服务器。整个过程中,真实服务器的VIP不需要对外界可见。
(4)FULL-NAT模式
主要思想:引入local address(内网ip地址),cip-vip转换为lip->rip,而 lip和rip均为IDC内网ip,可以跨vlan通讯
5、DR模式实现负载均衡
实验环境:一台调度器,两台真实后端服务器,一个客户端
在调度器设置vip:172.25.254.250/24
ip addr add 172.25.254.250/24 dev eth0
在vm1中安装ipvsadm,用于管理LVS的策略规则,从而调度用户访问
yum install ipvsadm -y
书写策略
ipvsadm -A 添加规则;-t tcp协议;-s 调度;rr 轮循
-a向tcp虚拟服务添加;-r real server真实服务;-g 直连即DR模式
ipvsadm -ln:查看当前连接情况(-ln没有解析,-l有解析,但是速度慢)
Forward:转发方式,当前是路由转发;
Weight:权重;
ActiveConn:当前活跃的连接数;
InActConn:当前不活跃的连接数
ipvsadm -A -t 172.25.254.250:80 -s rr 添加LVS负载均衡规则,VIP调度方式为轮循方式
ipvsadm -a -t 172.25.7.100:80 -r 172.25.254.2:80 -g 添加真实服务,并采用DR模式
ipvsadm -a -t 172.25.7.100:80 -r 172.25.254.3:80 -g
vm2和vm3安装httpd服务,在http服务的默认发布文件index.html分别写入server2、server3并开启服务
vm2中
yum install -y httpd 安装http服务
echo server2 > /var/www/html/index.html
systemctl start httpd 开启服务
vm3中
yum install -y httpd 安装http服务
echo server3 > /var/www/html/index.html
systemctl start httpd 开启服务
此时在真机使用curl 172.25.254.2/3可以显示server的发布页面,但curl 172.25.254.250没有输出,这是因为LVS-DR集群类型要求,当用户向vip发起请求时,调度器和真实服务器上必须都要有vip,因此需要给vm和vm3添加虚拟IP
ip addr add 172.25.254.250/24 dev eth0
此时真机使用curl 172.25.7.100,开始轮训访问server2/server3的http
6、ARP协议
ARP协议是将IP地址映射为MAC地址的协议,其在协议上使用ARP请求及ARP应答报文来实现
arp -d是删除ARP缓存列表的命令,可以删除所有的ARP缓存,也可以删除指定的ARP缓存
此时使用arp -an可以查看本地ARP缓存的172.25.254.250对应的MAC地址为调度器vm1的地址
当真机执行arp -d 删除指定虚拟IP的ARP缓存后,将不能得到172.25.254.250的MAC地址。
再次Ping之后又可以得到,但是已经不是调度器的地址(谁先响应就缓存谁的MAC地址)
这里相应的是vm2的MAC地址
arp -d 172.25.7.100 删除VIP的ARP缓存
arp -an |grep 100 查看MAC地址,发现没有了
ping 172.25.7.100 ping虚拟IP
arp -an |grep 100 再次查看MAC地址,对比后发现已经不是vm1调度器的MAC地址,而是vm2的
此时curl 172.25.254.250,只有vm2,已经不轮循访问,说明此时客户端向vip发起请求时,并没有经过调度器而是直接到达了真实服务器
要想避免这种情况的发生,我们需要防止客户端直接访问真实服务器,所以我们需要禁掉设备的APR响应
在vm2和vm3上安装ARP防火墙arptables——用于管理内核中的ARP包过滤规则表
APR配置规则
arptable_filter 只有一个表 filter ,不指定 -t 表名时默认就是 filter 表
filter表有三个链,一个是INPUT,表示外面发进来的ARP包;另外一个是OUTPUT,表示本机发出的ARP包;第三个是FORWARD,转发ARP包
-A:向规则链中追加规则
-d:指定要匹配ARP包的目的IP地址
-j:指定满足添加的规则时执行的动作
-s:指定要匹配ARP包的源ip地址
-g:直连
-r:真实服务器地址
arptables -A INPUT -d 172.25.254.250 -j DROP 在ARP协议中添加规则,指定虚拟IP访问时拒绝
arptables -A OUTPUT -s 172.25.254.250 -j mangle --mangle-ip-s 172.25.254.1 从虚拟IP发送和出的数据源地址转换为172.25.254.1
arptables-save > /etc/sysconfig/arptables 保存策略到文件中
systemctl restart arptables.service 重启服务
arptables -nL 查看策略
当真机再次执行arp -d 删除指定的虚拟IP,ping 虚拟IP之后,得到172.25.7.100的MAC地址是vm1的MAC地址,此时使用curl 172.25.254.250,可以论循访问
7、keepalived-----心跳检测
LVS调度器本身对后端服务器没有健康监测功能,这就导致如果后端服务器宕机了,客户访问时当LVS匹配到宕机主机时客户端会报错,ipvsadm策略依然可以看到服务器存在,所以引入LVS健康检测来解决这个问题
在vm1上:
yum install keepalived 下载健康检测功能
yum install postfix mailx
vim /etc/keepalived/keepalived.conf 修改keepalived的主配置文件
\\\
global_defs {
notification_email {
root@localhost
}
notification_email_from keepalived@localhost 设置通知邮件,出了问题给谁发送邮件notification_email_from
smtp_server 127.0.0.1
smtp_connect_timeout 30 超时时间
router_id LVS_DEVEL
vrrp_skip_check_adv_addr
#vrrp_strict 注释vrrp_strict,这一参数功能是在出问题时抓取数据包
vrrp_garp_interval 0
vrrp_gna_interval 0
}
主虚拟路由MASTER:向所有备用虚拟路由BACKUP发送“心跳包”,备用虚拟路由只负责接收,当备用虚拟路由接收不到时,priority优先级最高的备用虚拟路由代替MASTER提供虚拟服务,数字越高,优先级越高,所以MASTER优先级一定要大于虚拟路由id
vrrp_instance VI_1 {
state MASTER
interface eth0
virtual_router_id 51 路由id
priority 100
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
172.25.254。250
}
}
虚拟服务语句块:
virtual_server 172.25.254.250 80 {
delay_loop 3 每s/次健康检测
lb_algo rr 调度算法
lb_kind DR
#persistence_timeout 50 持久连接,即在多长时间内DR会将所有连接请求持续调度给一个后端
protocol TCP
LVS集群策略设定,设定之后不需要手动设置VIP及ipvsadm设置的规则
real_server 172.25.254.2 80 {
weight 1
TCP_CHECK {
connect_timeout 3
nb_get_retry 3
delay_before_retry 3
real_server 172.25.254.3 80 {
weight 1
TCP_CHECK {
connect_timeout 3
nb_get_retry 3
delay_before_retry 3
}
}
}
配置好后删掉vm1中的vip,并清除设置的规则,然后开启keepalived服务
systemctl start keepalived.service
ip addr 能看到虚拟ip172.25.254.250由keepalived自动生成
ipvsadm -ln ipvsadm策略自动生成
心跳检测keepalived配置完毕后,停止vm3的http服务,在vm1上查看
此时将检测不到vm3,客户端也访问不到已经停止运行的后端服务器
8、LVS冗余---高可用
LVS负载均衡系统最关键的一部分就是负载均衡调度器,如果调度器失灵,那么整个系统就会瘫痪,为了解决这个问题,我们将利用keepalived引入LVS高可用
配置备用LVS调度器vm4,在vm4上下载keepalived
将vm1的keepalived.conf文件scp传输到vm4
在vm4上修改BACKUP、优先级
vm1
scp /etc/keepalived/keepalived.conf root@172.25.254.4:/etc/keepalived/
vm4
yum install keepalived -y
yum install ipvsadm -y
vim /etc/keepalived/keepalived.conf
systemctl start keepalived.service
此时虽然开启了keepalived服务,但是vm4是备用机,用ipvsadm -ln 命令查看,可以看到设置的策略,但是此时此备用机上并没有vip,当客户端请求连接时,工作的还是主机,但是当主机故障后,此备用机就自动接替主机进行工作,而客户端并不会察觉,实现了高可用。