网关配置负载均衡Linux,配置ceph RGW (对象存储网关) 的高可用和负载均衡

本文介绍了如何通过keepalived实现高可用,以及结合Haproxy实现负载均衡。配置包括开启Linux IP转发,修改keepalived和Haproxy配置文件,设置虚拟IP,并在负载均衡器上启动服务。此外,还提到了仅配置高可用时的简化步骤。
摘要由CSDN通过智能技术生成

说明

环境检查及安装

2.修改keepalived + Haproxy配置文件

启动服务

说明

keepalived 用于高可用,

haproxy 用于负载均衡

下列中:

192.168.0.203:7480 192.168.0.202:7480 是真实网关服务节点 (RGW)

192.168.0.205 192.168.0.204 是负载均衡器 (LB)

192.168.0.200 是用于负责均衡器间的高可用的虚拟ip (VIP)

架构示意图如下:

f3db61e60f15

image.png

网关高可用和负载均衡架构图

环境检查及安装

yum install keepalived haproxy -y

选取两个均衡节点(均衡节点不能和rgw节点重合),下面在均衡节点(LB)执行。

开启linux ip转发功能

echo "net.ipv4.ip_forward = 1" >> /etc/sysctl.conf

sysctl -p

允许绑定到非本地ip

echo "net.ipv4.ip_nonlocal_bind = 1" >> /etc/sysctl.conf

sysctl -p

检查 :

/usr/sbin/sysctl net.ipv4.ip_nonlocal_bind

/usr/sbin/sysctl net.ipv4.ip_forward

cat /proc/sys/net/ipv4/ip_forward

查看是否看起了ip转发功能

如果上述文件中的值为0,说明禁止进行IP转发;如果是1,则说明IP转发功能已经打开。

2.修改keepalived + Haproxy配置文件

下面所有操作均只需在LB(负载均衡器)节点执行,

本例中即在192.168.0.204;192.168.0.205 两个节点,分别修改下面配置文件

keepalived 的配置文件

全部节点采用backup,为了减少VIP来回切换。

[root@home205 ~]# cat /etc/keepalived/keepalived.conf

! Configuration File for keepalived

vrrp_script chk_haproxy {

script "killall -0 haproxy" # 检查haproxy进程

interval 2

weight 2

}

vrrp_instance VI_1 {

state BACKUP

interface eno16780032 # 似情况修改

virtual_router_id 1 # id号局域网唯一

priority 100 # 优先级 每台都不能一样(0-254的数,可以设置成ip后最后3个数)

advert_int 1 #VRRP Multicast广播周期秒数

authentication {

auth_type PASS

auth_pass 1111

}

virtual_ipaddress {

192.168.0.200 # VIP,配好了,客户端连接该ip即可高可用

}

track_script {

chk_haproxy

}

}

haproxy 的配置文件

[root@home205 ~]# cat /etc/haproxy/haproxy.cfg

#---------------------------------------------------------------------

# Example configuration for a possible web application. See the

# full configuration options online.

#

# http://haproxy.1wt.eu/download/1.4/doc/configuration.txt

#

#---------------------------------------------------------------------

#---------------------------------------------------------------------

# Global settings

#---------------------------------------------------------------------

global

# to have these messages end up in /var/log/haproxy.log you will

# need to:

#

# 1) configure syslog to accept network log events. This is done

# by adding the '-r' option to the SYSLOGD_OPTIONS in

# /etc/sysconfig/syslog

#

# 2) configure local2 events to go to the /var/log/haproxy.log

# file. A line like the following can be added to

# /etc/sysconfig/syslog

#

# local2.* /var/log/haproxy.log

#

log 127.0.0.1 local2

chroot /var/lib/haproxy

pidfile /var/run/haproxy.pid

maxconn 4000

user root # 此处要修改成对应的用户,建议用root

group root

daemon

# turn on stats unix socket

stats socket /var/lib/haproxy/stats

#---------------------------------------------------------------------

# common defaults that all the 'listen' and 'backend' sections will

# use if not designated in their block

#---------------------------------------------------------------------

defaults

mode http

log global

option httplog

option dontlognull

option http-server-close

option forwardfor except 127.0.0.0/8

option redispatch

retries 3

timeout http-request 10s

timeout queue 1m

timeout connect 10s

timeout client 1m

timeout server 1m

timeout http-keep-alive 10s

timeout check 10s

maxconn 3000

#---------------------------------------------------------------------

# main frontend which proxys to the backends

#---------------------------------------------------------------------

frontend rgw *:7480 # 侦听端口

mode http

default_backend rgw

#---------------------------------------------------------------------

# round robin balancing between the various backends

#---------------------------------------------------------------------

backend rgw

mode http

balance roundrobin # 均衡模式,当前为轮循

server rgw1 192.168.0.203:7480 check # 填写真实网关IP和端口

server rgw2 192.168.0.202:7480 check

启动服务

systemctl start keepalived

systemctl enable keepalived

systemctl start haproxy

systemctl enable haproxy

最后记得防火墙允许相应端口,测试环境可以直接关闭防火墙,关闭

selinux。

systemctl stop firewalld

另 : 上面演示的是搭建高可用的时候同时搭建负载均衡,如果只搭建网关高可用,则不需要配置haproxy,同时架构也有所变化,直接在两个网关节点(202, 203)安装keepalived(不需要额外节点),如下修改keepalived配置文件就可。(步骤1也转移到网关节点上操作)

[root@node62 /etc/keepalived]# cat keepalived.conf

! Configuration File for keepalived

vrrp_script chk_radosgw {

script /etc/keepalived/kill_keepalived.sh #检测脚本

interval 2 #执行间隔时间s

weight 2

}

vrrp_instance VI_1 {

state BACKPUP

interface ens37 # 似情况修改

virtual_router_id 2 # id号局域网唯一

priority 99 # 优先级 数字越大,优先级越高,每台都不能一样(0-254的数,可以设置成ip后最后3个数)

advert_int 1 #VRRP Multicast广播周期秒数

authentication {

auth_type PASS

auth_pass 1111

}

virtual_ipaddress {

192.168.157.200/24 # VIP,配好了,客户端连接该ip即可高可用

}

track_script {

chk_radosgw #在实例中引用脚本

}

}

脚本内容

[root@node62 /etc/keepalived]# cat kill_keepalived.sh

#!/bin/sh

Count1=`ps -aux|grep -v grep |grep radosgw|wc -l`

if [ $Count1 -eq 0 ]; then

pkill keepalived

else

echo "ok"

exit 0

fi

重启服务

systemctl start keepalived

systemctl enable keepalived

当一个网关节点down机以后,虚拟IP会自动飘到其他网关节点。

NOTE:

相同的真实节点间可以配置多个高可用实例,设置不同的VIP,然后, 不同的节点都可以分配一个MASTER,只要不是同一个实例。(只要保证一个实例只有一个MASTER就可以)

在测试的时候发现,切换后的虚拟IP不能跨网段访问,改用物理机后验证没有发现这个问题。

keepalived配置文件 /etc/keepalived/keepalived.conf

! Configuration File for keepalived

global_defs {

}

vrrp_instance VI_1 {

state MASTER #指定keepalived的角色,MASTER表示此主机是主服务器,BACKUP表示此主机是备用服务器

interface em2 #指定HA监测网络的接口

virtual_router_id 49 #虚拟路由标识,这个标识是一个数字,同一个vrrp实例使用唯一的标识。即同一vrrp_instance下,MASTER和BACKUP必须是一致的

priority 100 #定义优先级,数字越大,优先级越高,在同一个vrrp_instance下,MASTER的优先级必须大于BACKUP的优先级

advert_int 1 #设定MASTER与BACKUP负载均衡器之间同步检查的时间间隔,单位是秒

authentication { #设置验证类型和密码

auth_type PASS #设置验证类型,主要有PASS和AH两种

auth_pass 49 #设置验证密码,在同一个vrrp_instance下,MASTER与BACKUP必须使用相同的密码才能正常通信

}

virtual_ipaddress { #设置虚拟IP地址,可以设置多个虚拟IP地址,每行一个

172.29.101.250

}

}

virtual_server 172.29.101.250 8080 { #设置虚拟服务器,需要指定虚拟IP地址和服务端口,IP与端口之间用空格隔开

delay_loop 6 #设置运行情况检查时间,单位是秒

lb_algo rr #设置负载调度算法,这里设置为wlc,即加权最少连接数算法

lb_kind DR #设置LVS实现负载均衡的机制,有NAT、TUN、DR三个模式可选

nat_mask 255.255.255.0

persistence_timeout 0 #会话保持时间,单位是秒。这个选项对动态网页是非常有用的,为集群系统中的session共享提供了一个很好的解决方案。

#有了这个会话保持功能,用户的请求会被一直分发到某个服务节点,直到超过这个会话的保持时间。

#需要注意的是,这个会话保持时间是最大无响应超时时间,也就是说,用户在操作动态页面时,如果50秒内没有执行任何操作

#那么接下来的操作会被分发到另外的节点,但是如果用户一直在操作动态页面,则不受persistence_timeout的时间限制

protocol TCP #指定转发协议类型,有TCP和UDP两种

real_server 172.29.101.162 8080 { #配置服务节点1,需要指定real server的真实IP地址和端口,IP与端口之间用空格隔开

weight 100 #配置服务节点的权值,权值大小用数字表示,数字越大,权值越高,设置权值大小可以为不同性能的服务器

#分配不同的负载,可以为性能高的服务器设置较高的权值,而为性能较低的服务器设置相对较低的权值,这样才能合理地利用和分配系统资源

TCP_CHECK { #realserver的状态检测设置部分,单位是秒

connect_timeout 3 #表示3秒无响应超时

nb_get_retry 3 #表示重试次数

delay_before_retry 3 #表示重试间隔

connect_port 8080

}

}

real_server 172.29.101.163 8080 {

weight 100

TCP_CHECK {

connect_timeout 3

nb_get_retry 3

delay_before_retry 3

connect_port 8080

}

}

real_server 172.29.101.164 8080 {

weight 100

TCP_CHECK {

connect_timeout 3

nb_get_retry 3

delay_before_retry 3

connect_port 8080

}

}

}

[root@localhost /etc/nginx]# cat nginx.conf

user root; # 工作用户

worker_processes 10;

#error_log logs/error.log;

#error_log logs/error.log notice;

#error_log logs/error.log info;

#pid logs/nginx.pid;

events {

worker_connections 1024;

}

http {

include mime.types;

default_type application/octet-stream;

upstream rgw { # 负载均衡名称rgw

server 192.168.157.142:7480;

server 192.168.157.141:7480;

}

#log_format main '$remote_addr - $remote_user [$time_local] "$request" '

# '$status $body_bytes_sent "$http_referer" '

# '"$http_user_agent" "$http_x_forwarded_for"';

#access_log logs/access.log main;

sendfile on;

#tcp_nopush on;

client_max_body_size 10240m;

#keepalive_timeout 0;

keepalive_timeout 65;

#gzip on;

server {

listen 7480; # 监听端口

server_name localhost;

# 制定post上传的$_FILES上传的文件地址,后面的数字表示 一级,二级,三级子目录

client_body_temp_path /spool/nginx/client_temp 3 2;

#charset koi8-r;

#access_log logs/host.access.log main;

location / {

root html;

index index.html index.htm;

client_max_body_size 10M; # nginx上传文件大小限制,默认1MB

proxy_pass http://rgw; # 与前面的负载均衡名称一致

add_header backendIP $upstream_addr; # 返回实际访问的服务器,注意 生产环境不要开!!!

}

#error_page 404 /404.html;

# redirect server error pages to the static page /50x.html

#

error_page 500 502 503 504 /50x.html;

location = /50x.html {

root html;

}

}

}

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值