项目说明

1、         使用Haproxy负载均衡用户请求到后端web服务器,并且实现健康状态检查

2、         使用keepalived高可用Haproxy,避免LVS单点故障

3、         集群中分别在HK-01和HK-02运行一个VIP地址,实现Haproxy双主

4、         用户通过DNS轮训的方式实现访问集群的负载均衡(不演示)

实验拓扑

环境介绍:


IP地址

功能描述

HK-01

172.16.4.100

调度用户请求到后端web服务器,并且和HK-02互为备份

HK-02

172.16.4.101

调度用户请求到后端web服务器,并且和HK-01互为备份

WEB-01

172.16.4.102

提供web服务

WEB-02

172.16.4.103

提供web服务

DNS

172.16.4.10

实现DNS轮训解析用户请求域名地址

VIP1

172.16.4.1

用户访问集群的入口地址,可能在HK-01,也可能在HK-02

VIP2

172.16.4.2

用户访问集群的入口地址,可能在HK-01,也可能在HK-02

配置示例

后端WEB服务器配置

Web服务器的配置极其简单,只需要提供测试页面启动web服务即可,配置如下:

Web-01配置

[root@WEB-01 ~]# echo "web-01" >/var/www/html/index.html
[root@WEB-01 ~]# service httpd start
Web-02配置
[root@WEB-02 ~]# echo "web-02" >/var/www/html/index.html
[root@WEB-02 ~]# service httpd start

Haproxy访问后端web服务器,验证web服务提供成功

[root@HK-01 ~]# curl 172.16.4.102
web-01
[root@HK-01 ~]# curl 172.16.4.103
web-02

出现设置的页面,就说明web服务是正常

 

Haproxy+keepalived配置

两个HK节点都安装haproxykeepalived

[root@HK-01 ~]# yum -y install haproxy
[root@HK-02 ~]# yum -y install haproxy
[root@HK-01 ~]# yum -y install keepalived
[root@HK-02 ~]# yum -y install keepalived

修改内核参数设置,设置haproxy启动的时候不管有没有vip地址都可以启动

[root@HK-01 ~]# echo"net.ipv4.ip_nonlocal_bind = 1" >> /etc/sysctl.conf
[root@HK-01 ~]# sysctl –p
[root@HK-02 ~]# echo "net.ipv4.ip_nonlocal_bind= 1" >> /etc/sysctl.conf
[root@HK-02 ~]# sysctl -p

此选项为集群中关键选项,不然VIP地址没有在Haproxy服务器的时候,服务器无法正常启动


设置haproxy

Haproxy想实现双主就需要先配置双实例,分别监听两个VIP地址,并且两个实例都得将用户的请求负载均衡转发给后端web服务器,使用户不论访问那个节点都可以实现负载均衡。

两个haproxy节点的配置文件一模一样,所以只放出一个

[root@HK-01 ~]# vim /etc/haproxy/haproxy.cfg
global
    log         127.0.0.1 local2
 
     chroot      /var/lib/haproxy
     pidfile     /var/run/haproxy.pid
     maxconn     4000
    user        haproxy
     group       haproxy
    daemon
 
    statssocket /var/lib/haproxy/stats
 
defaults
    mode                 http
    log                  global
     option                httplog
     option                dontlognull
    optionhttp-server-close
    optionforwardfor       except 127.0.0.0/8
     option                redispatch
     retries                3
    timeouthttp-request           10s
    timeoutqueue           1m
    timeoutconnect           10s
    timeoutclient           1m
    timeoutserver           1m
    timeouthttp-keep-alive 10s
    timeoutcheck           10s
     maxconn              3000
 
     stats enable         #启用Haproxy的状态页面
     statsuri /admin?stats    #设置Haproxy状态页面的访问URL
     statsauth proxy:proxy    #设置访问Haproxy状态页面的用户名和密码
 
 
listen www1                   #定义一个实例
       bind172.16.4.1:80   #监听地址为VIP地址
       mode tcp       #设置转发模式为TCP
       option forwardfor   #允许在发往服务器的请求首部中插入“X-Forwarded-For”首部
       server www01  172.16.4.102:80  check  #定义后端服务器的,并启用健康检查
       server www02  172.16.4.103:80  check
listen www2                     #定义第二个实例
       bind172.16.4.2:80   #除了绑定的VIP地址和第一个实例不同之外,其他均相同
       mode tcp
       option forwardfor
       server www01  172.16.4.102:80  check
       server www01  172.16.4.103:80  check

Haproxy的配置就是安装,修改配置文件,设置完成之后只要启动Haproxy就可以正常提供服务了

keepalived设置

HK-01配置

[root@HK-01 ~]# vim /etc/keepalived/keepalived.conf
global_defs {
   router_idLVS_DEVEL
}
 
vrrp_script chk_mt_down {
  script"[[ -f /etc/keepalived/down ]] && exit 1 || exit 0"  #定义一个脚本,判断down文件是否存在,存在就退出执行,不存在继续执行
  interval 1           #1秒检测一次
  weight -5           #优先级减五
}
 
vrrp_instance VI_1 {            #定义VRRP热备实例
   state MASTER             #MASTER表示主节点
   interfaceeth0              #承载VIP地址的物理接口
   virtual_router_id 51        #虚拟路由器的ID号
   priority100            #优先级,数值越高优先级越大
   advert_int 1           #通知间隔秒数(心跳频率)
   authentication {         #认证信息配置
       auth_type PASS    #设置认证类型为密码
        auth_pass asdfgh  #设置认证的密码
    }
   virtual_ipaddress {         #指定漂移地址
       172.16.4.1/32 brd 172.16.4.1 dev eth0 label eth0:0
    }
  track_script {
   chk_mt_down   #调用上面定义的脚本,如果这里没有调用,那么上面定义的脚本是无法生效的
   }
}
 
vrrp_instance VI_2 {         #定义实例为HK-02的备份节点
   stateBACKUP           #BACKUP表示备份节点
   interfaceeth0 
   virtual_router_id 52  
   priority99           #优先级,低于主服务器
   advert_int 1
   authentication {
       auth_type PASS
       auth_pass qwerty
    }
   virtual_ipaddress {
       172.16.4.2
    }
  track_script {
   chk_mt_down
   }
}

HK-02配置,配置和HK-01基本一致,只不过主备设置的位置不同

[root@HK-02 ~]# vim /etc/keepalived/keepalived.conf
global_defs {
   router_idLVS_DEVEL
}
 
vrrp_script chk_mt_down {
  script"[[ -f /etc/keepalived/down ]] && exit 1 || exit 0"
  interval 1
  weight -5
}
 
vrrp_instance VI_1 {
   state BACKUP
   interfaceeth 0
   virtual_router_id 51
   priority 99
    advert_int 1
   authentication {
       auth_type PASS
       auth_pass asdfgh
    }
   virtual_ipaddress {
       172.16.4.1/32 brd 172.16.4.1 dev eth0 label eth0:0
    }
  track_script {
     chk_mt_down
   }
}
vrrp_instance VI_2 {
   stateMASTER
   interfaceeth0
   virtual_router_id 52
   priority100
   advert_int 1
   authentication {
       auth_type PASS
       auth_pass qwerty
    }
   virtual_ipaddress {
       172.16.4.2
    }
    track_script {
     chk_mt_down
   }
}


设置完成之后两个节点分别启动haproxykeepalived服务,集群就配置完成了

[root@HK-01 ~]# service haproxy start
[root@HK-01 ~]# service keepalived start
[root@HK-02 ~]# service haproxy start
[root@HK-02 ~]# service keepalived start

 

验证

访问状态页面,www1,和www2示例都显示正常

VIP地址也都分别启动到了两个节点实现了双主

[root@HK-01 ~]# ip addr show dev eth0
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP>mtu 1500 qdisc pfifo_fast state UP qlen 1000
   link/ether 00:0c:29:22:c5:c2 brd ff:ff:ff:ff:ff:ff
    inet172.16.4.100/16 brd 172.16.255.255 scope global eth0
    inet172.16.4.1/32 brd 172.16.4.1 scope global eth0:0   #VIP地址正常启动
    inet6fe80::20c:29ff:fe22:c5c2/64 scope link
      valid_lft forever preferred_lft forever
[root@HK-02 ~]# ip addr show dev eth0
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP>mtu 1500 qdisc pfifo_fast state UP qlen 1000
   link/ether 00:0c:29:f1:dd:b2 brd ff:ff:ff:ff:ff:ff
    inet172.16.4.101/16 brd 172.16.255.255 scope global eth0
    inet172.16.4.2/32 scope global eth0                      #VIP地址正常启动
    inet6fe80::20c:29ff:fef1:ddb2/64 scope link
      valid_lft forever preferred_lft forever

负载均衡测试

分别访问两个vip地址均实现了负载均衡的效果

[root@localhost ~]# curl 172.16.4.1
web-02
[root@localhost ~]# curl 172.16.4.1
web-01
[root@localhost ~]# curl 172.16.4.2
web-01
[root@localhost ~]# curl 172.16.4.2
web-02

高可用验证

手动关闭其中HK-02,验证vip地址是否会自动漂移到HK-01服务器

[root@HK-02 ~]# touch /etc/keepalived/down

两个vip地址均正常漂移到HK-02

[root@HK-01 ~]# ip addr show dev eth0
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP>mtu 1500 qdisc pfifo_fast state UP qlen 1000
   link/ether 00:0c:29:22:c5:c2 brd ff:ff:ff:ff:ff:ff
    inet172.16.4.100/16 brd 172.16.255.255 scope global eth0
    inet172.16.4.1/32 brd 172.16.4.1 scope global eth0:0   
    inet172.16.4.2/32 scope global eth0         #HK-02的VIP地址已经漂移过来了
    inet6fe80::20c:29ff:fe22:c5c2/64 scope link
      valid_lft forever preferred_lft forever

健康状态检测验证

手动关闭web-02,查看是否会自动下线web-02

[root@WEB-02 ~]# service httpd stop

查看web状态页面,WEB-02已经自动下线了

访问验证,调度请求不会转发到web-02

[root@localhost ~]# curl 172.16.4.1
web-01
[root@localhost ~]# curl 172.16.4.1
web-01
[root@localhost ~]# curl 172.16.4.2
web-01
[root@localhost ~]# curl 172.16.4.2
web-01