1. LB、LVS介绍
LB集群是load balance 集群的简写,翻译成中文就是负载均衡集群
LVS是一个实现负载均衡集群的开源软件项目
LVS架构从逻辑上可分为调度层(Director)、server集群层(Real server)和共享存储层
LVS可分为三种工作模式:
NAT(调度器将请求的目标ip即vip地址改为Real server的ip,
返回的数据包也经过调度器,调度器再把源地址修改为vip),
TUN(调度器将请求来的数据包封装加密通过ip隧道转发到后端的real server上,而real server会直接把数据返回给客户端,而不再经过调度器),
DR(调度器将请求来的数据包的目标mac地址改为real server的mac地址,返回的时候也不经过调度器,直接返回给客户端)
三种IP:DIP(driector ip), VIP(virtual ip), RIP(Real IP). 其中DIP, RIP 为同一个网段,并且为私网IP,
vip为对外提供服务的ip,Director, Real server上都设置vip
LVS的调度算法:
轮叫调度(Round Robin)(简称rr) ,
加权轮叫(Weighted Round Robin)(简称wrr),
最少链接(least connection)(LC),
加权最少链接(Weighted Least Connections)(WLC) 等等
ipvsadm -C
LVS/DR + keepalived配置
前面的lvs虽然已经配置成功也实现了负载均衡,但是我们测试的时候发现,当某台real server把httpd进程停掉,那么director照样会把请求转发过去,这样就造成了某些请求不正常。
所以需要有一种机制用来检测real server的状态,这就是keepalived。
它的作用除了可以检测rs状态外,还可以检测备用director的状态,
也就是说keepalived可以实现ha集群的功能,当然了也需要一台备用director.
备用director也需要配置主director上的那个lvs_dr.sh脚本,
LVS_NAT,是客户端向dir请求,dir向rs请求,回去的时候是,rs响应dir的请求,dir响应客户端的请求
LVS_DR 是客户端向dir请求,dir向rs请求, 回去的时候,rs通过VIP直接响应客户端的请求,是不是这个样子;
这种LVS+keepalived ,是不是keepalived 取代了lvs的角色,
下次做lvs的时候,四台机器,
主、从 yum install -y keepalived,yum install -y ipvsadm
rs1 、rs2 yum install -y nginx.
LVS/DR + keepalived配置
注意:前面虽然我们已经配置过一些操作,但是下面我们使用keepaliave操作和之前的操作是有些冲突的,所以若是之前配置过DR,请首先做如下操作:dr上执行:
ipvsadm -C
ifconfig eth0:0 down
开始:
首先。keepalived 需要一个是主一个是从。(此例用三台机器)
direcotr上需要安装一下keepalived软件
yum install -y keepalived
安装好后,编辑配置文件
vim /etc/keepalived/keepalived.conf //加把之前清空入如下:
vrrp_instance VI_1 {
state MASTER #备用服务器上为 BACKUP
interface eth0
virtual_router_id 51
priority 100 #备用服务器上为90
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
192.168.1.100
}
}
virtual_server 192.168.1.100 80 {
delay_loop 6 #(每隔10秒查询realserver状态)
lb_algo rr #(lvs 算法)
lb_kind DR #(Direct Route)
persistence_timeout 0 #(同一IP的连接60、0秒内被分配到同一台realserver)
protocol TCP #(用TCP协议检查realserver状态)
real_server 192.168.1.114 80 {
weight 100 #(权重)
TCP_CHECK {
connect_timeout 10 #(10秒无响应超时)
nb_get_retry 3
delay_before_retry 3
connect_port 80
}
}
real_server 192.168.1.119 80 {
weight 100
TCP_CHECK {
connect_timeout 10
nb_get_retry 3
delay_before_retry 3
connect_port 80
}
}
}
:wq保存退出,复制到从上。
[root@yiqang004 ~]# scp /etc/keepalived/keepalived.conf192.168.1.119:/etc/keepalived/keepalived.conf
yes
mi密ma码
rs2修改vim /etc/keepalived/keepalived.conf
state MASTER -> state BACKUP #备用服务器上为 BACKUP
priority 100 -> priority 90 #备用服务器上为90
可以检查一哈,ip add ifconfig 有没其他监听的网卡,有的话 ifconfig eth0:0 down
另外,需要注意的是,一定要先执行脚本,rs1、rs2 都要有nginx(或者httpd,二有其一即可,开启80端口)
配置完keepalived后,需要开启端口转发(主、从 两个要做):执行 窗口转发:
# echo 1 > /proc/sys/net/ipv4/ip_forward
再启动keepalived服务,先启动命令,主dir 再启动从dir2
#/etc/init.d/keepalived start
#ip add
# ipvsadm -ln
就可以测试了,开启另台机器(5)测试,curl vip 得到不同的算法。以辨别主、从
测试成功。
缺点:
当 rs1宕机 ,测试vip时得到结果是rs2.ok
当rs1再启动,测试vip时还是rs2.? 需要主上执行脚本。!。
反之rs2 结果相同。? 需要主上执行脚本。才可。!。
当rs2和 主dir同时宕机, 从接手调度器,得到结果rs1.ok。
反之,当恢复rs2 ,从接手调度器,得到结果lvs 权重,ok的。
当恢复dir主,得到结果是dir从 的lvs 权重。?
当一台dir宕机 需要执行脚本。! 研究中。
sh -x /usr/local/sbin/lvs_dr.sh
也许是受 lvs_dr的影响。
这是在centos6系统上才有的问题,之前centos5上这实验很顺利。 另外,咱们这点测试量太少,看不出效果。当请求量很多的时候,它自然会均衡。
下次做lvs的时候,四台机器,
主、从 yum install -y keepalived,
rs1 、rs2 yum install -y nginx.
5. 使用nginx实现lb集群
Nginx调度器(外网ip:192.68.0.11, 内网ip: 192.168.200.11)
Web1(内网ip: 192.168.200.128)
Web2(内网ip: 192.168.200.129)
Centos 6下如果安装过epel的yum源可以直接yum安装nginx yum install -y nginx
或者源码包编译nginx, 官网地址http://nginx.org/ 下载合适版本(最好不要最新)
下载后解压编译安装:
./configure --prefix=/usr/local/nginx; make; make install
源码包cd /usr/local/nginx/conf;
yum安装 cd /etc/nginx
vim nginx.conf // 增加
include lb.conf;
vim lb.conf //增加如下
upstream abc.com {
server 192.168.200.128;
server 192.168.200.129;
}
server {
listen 80;
server_name www.abc.com;
location / {
proxy_pass http://abc.com/;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
}
}
启动nginx: service nginx start
测试:curl -x192.168.0.11:80 www.abc.com/1.html
视频地址: http://www.lishiming.net/thread-6617-1-1.html