LVS-Ip Tunnel模式应用(转)

一、什么是Ip Tunnel模式

 Ip Tunnel,又叫IP隧道,顾名思义,LVS通过在IP数据包外面再封装了一层Ip Tunnel 头部,将数据包的源地址改写为LVS自身的物理地址,目的地址改写为RS的物理地址,从而实现跨网段访问RS。整个过程看起来好像LVS和RS之间有一条隧道,数据包通过这条虚拟的隧道进行传输。
如下图所示:

 

Ip Tunnel封装

 

 Ip Tunnel模式下,客户端的请求包到达负载均衡器的虚拟服务IP端口后,负载均衡器不会改写请求包的IP和端口,但是会在数据包IP层外面再封装一个IP层,然后将数据包转发;真实服务器收到请求后,会先将外面封装的Ip Tunnel头去掉,然后处理里面实际的请求报文;与DR模式类似,响应包也不再经过LVS,而是直接返回给客户端。所以Ip Tunnel模式的转发效率虽然弱于DR,但是强于NAT。

二、为什么要用Ip Tunnel模式

 既然Ip Tunnel模式的性能比不上DR,那为什么还要用它呢? 因为它可以跨网段转发!
 Ip Tunnel模式最大的优点就在于它可以跨网段转发,没有DR和NAT模式的组网限制。这在部署上带来的很大的灵活性,甚至还可以跨机房转发,不过不建议这样使用,一是会带来跨机房间的流量,提高了成本;二是跨机房转发必然会要在RS机房上绑定LVS机房的VIP,这有可能会被运营商的防火墙认为是IP伪造请求而拦截。

三、如何配置Ip Tunnel模式

【LVS配置】

  1. 使用ipvsadm配置

 

  ipvsadm -A -t vip:port -s rr
  ipvsadm -a -t vip:port -r rip -i 
  1. 使用Keepalived配置
    推荐使用Keepalived管理LVS。Keepalived提供配置文件keepalived.conf,可以很方便的配置LVS,并且提供了健康检查功能。

 

virtual_server vip port {
    delay_loop 6
    lb_algo rr
    lb_kind TUN          //与DR模式唯一的区别就是这里配置为TUN
#    persistence_timeout 50
    protocol TCP

    real_server rip port {
        weight 100
        TCP_CHECK {
            connect_timeout 3
            retry 3
            delay_before_retry 3
        }
    }
}

 注意这里只写了与DR模式配置不一样的地方,lvs上配置vip之类的就没写了。

【RS配置】

  1. 加载ipip模块。

 

modprobe ipip
  1. 启动tunl0虚拟网卡

 

ifconfig tunl0 up
  1. 将vip绑定在tunl0网卡上。(注意这里也是与DR模式不同的地方,DR模式是将vip绑在LO网卡)

 

ip addr add vip dev tunl0
  1. 设置内核参数

 

echo "0" > /proc/sys/net/ipv4/ip_forward
echo "2" > /proc/sys/net/ipv4/conf/all/arp_announce
echo "1" > /proc/sys/net/ipv4/conf/all/arp_ignore
echo "0" > /proc/sys/net/ipv4/conf/all/rp_filter
echo "0" > /proc/sys/net/ipv4/conf/tunl0/rp_filter

 注意Ip Tunnel模式下需要将RS上的rp_filter参数配为0,否则无法正常工作,因为RS是在物理网卡收到请求,但是VIP是绑在虚拟网卡tunl0上的。

四、Ip Tunnel模式需要注意的地方

【Ip Tunnel模式存在的问题】

 Ip Tunnel模式下,LVS会在数据报文原有的IP头部上再封装一层IP头,封装层IP头的源IP是LVS节点的物理IP,目的IP是RS的物理IP,相当于原有的数据报文是在一层封装的隧道中传输。
 这样可以解决跨网段转发的问题,但是会带来一个新的问题:
 每个数据包都要封装一个新的20字节的IP头,如果LVS上收到的数据包就已经达到了Ethernet帧的最大值1514(MTU1500+帧头14),这时候封装层的IP头就无法加进去。如果数据报文IP头中设置了DF标志位(Don't Fragment),这时候LVS就无法正常转发该报文。而是会返回一个Type=3,Code=4的ICMP报文给客户端,通知客户端目的地不可达,需要分片,并且在通知报文中指定了本端的MTU为1480。如果客户端支持PMTUD协议,那么客户端会根据ICMP中通知的MTU值重新计算合适的MSS,对要发送的数据进行分片后再重传给LVS节点。
 下图是TUN模式下LVS上的抓包,可以看到一开始LVS收到的数据包的data长度为1460,加上20字节TCP头,加上20字节IP头,已经达到MTU1500了(抓包大小为1514是算上了14字节的Ethernet帧头)。

 

数据长度为1460

 

 这时候LVS无法转发,通过ICMP报文通知客户端分片后重传。

 

ICMP通知重传

 

告知本端MTU为1480


 下图可以看到重传后的数据报文中data长度变成了1440,剩余的data位于另外的分片中。1440加上20字节TCP头,加上20字节IP头刚好等于ICMP报文中通知的MTU值1480。此时LVS在1480的基础上再插入20字节的封装层的IP头,刚好等于物理网卡的MTU值1500。这时候IP TUNNEL模式就可以正常转发了。

数据长度为1440


 出现这个问题的原因在于IP TUNNEL模式下,LVS需要在源数据报文中再插入20字节的封装层IP头,所以它将自身的MTU值降到了1480。 这个情况下,LVS对每个大包(超过1480)的包都通过ICMP消息通知客户端分片。这依赖于客户端支持PMTUD,并且还依赖于ICMP通知能正常返回到客户端。因为在实际情况下,ICMP消息在返回客户端的过程中需要经过多跳公网路由,在中间很可能会被拦截过滤掉,这时客户端无法收到LVS返回的ICMP通知,就无法正常的分片重传了,导致LVS转发失败。

【解决方法】

 可以通过减少RS侧的MSS值,比如调到1400。这样客户端在和RS三次握手协商MSS的时候,就会使用修改后的MSS值。这样客户端网卡在对数据包进行分片时就会减小单个请求中的data大小,确保LVS上收到的请求大小不会超过1480,从而不会触发到上述的问题。
 iptables配置方法如下,实际情况中可以根据需求指定规则所要匹配的ip地址,这样可以减小配置修改的影响范围。

 

iptables -A OUTPUT -s xxx -p tcp --tcp-flags ALL SYN,ACK -j TCPMSS --set-mss 1400

 下面是修改后的客户端上的抓包结果:

 

MSS修改为1400

 

 从上图可以看到客户端在三次握手过程中收到的RS沟通的MSS值为修改后的值1400。
(注意wireshark中之所以能抓到超过1514字节的包,是因为目前大部分机器上都是开启了TSO/GSO的,TCP分片的工作下放给了网卡驱动去做;而wireshark抓到的是网卡缓冲区中的数据,还没有进行分片,所以有可能会看到大于1514的包;但是在真正发送出去的时候网卡驱动会根据MSS对TCP报文进行分片;可以对比服务端收到的抓包,服务端上收到的包就不会超过1514字节了)
 下面是LVS上的抓包结果:

 

MSS=1400


 LVS上收到来自客户端的数据包分片中的data长度也变成了1400,这样LVS就可以正常插入封装层IP头进行转发了。
 下图可以看到插入封装头后,数据包里面有两层IP头。

两层IP头

 

 下图展示的就是LVS收到No. 1442的请求包,大小为1454字节;插入20字节的封装头后,数据包变为1474字节,然后转发给RS。

 

Ip Tunnel转发



作者:Mr萝卜
链接:https://www.jianshu.com/p/11ee89c54449
来源:简书
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值