Docker+PXC+Haproxy搭建高可用MySQL集群

搭建
本次搭建集群环境以5节点MySQL为例

1、安装pxc镜像
拉取pxc镜像

docker pull percona/percona-xtradb-cluster
镜像名称太长,修改一下:

docker tag percona/percona-xtradb-cluster pxc
删除之前的:

docker rmi percona/percona-xtradb-cluster

2、创建内部网络
创建内部网段,24位,名称net1:

docker network create --subnet=172.18.0.0/24 net1
查看net1网段:

docker inspect net1
删除net1:(这里不执行,留作参考。)

docker network rm net1

3、创建docker数据卷
因为pxc不支持映射目录,所以采用映射数据卷的方式。

创建数据卷叫v1,这里5个节点,所以创建5个数据卷:

docker volume create v1
docker volume create v2
docker volume create v3
docker volume create v4
docker volume create v5
查看v1数据卷在宿主机的位置:

docker inspect v1
删除数据卷v1:(这里不执行,留作参考。)

docker volume rm v1

4、创建pxc容器
这里最好先把备份数据的数据卷创建出来,然后也映射到宿主机,这样以后做热备份的时候就不用删掉容器节点重新再创建容器并映射备份目录了。

做备份数据的数据卷:

docker volume create backup1
docker volume create backup2
docker volume create backup3
docker volume create backup4
docker volume create backup5
开始创建5个MySQL节点

命令参数说明:端口3306,密码123456,集群名称PXC,同步数据密码123456,映射数据目录到宿主机的v1数据卷,给予最高权限,名称叫node1,网段为net1,ip指定为172.18.0.2,运行的镜像是pxc。

1)、创建第1个MySQL节点
这里要注意:一定要等到第一个节点创建并通过客户端连接成功,才能继续创建其它的节点,否则因为找不到node1同步库,其它节点创建时会闪退!
docker run -d -p 3306:3306 -e MYSQL_ROOT_PASSWORD=123456 -e CLUSTER_NAME=PXC -e XTRABACKUP_PASSWORD=123456 -v v1:/var/lib/mysql -v backup1:/data --privileged --name=node1 --net=net1 --ip 172.18.0.2 pxc

2)、创建第2个MySQL节点
docker run -d -p 3307:3306 -e MYSQL_ROOT_PASSWORD=123456 -e CLUSTER_NAME=PXC -e XTRABACKUP_PASSWORD=123456 -e CLUSTER_JOIN=node1 -v v2:/var/lib/mysql -v backup2:/data --privileged --name=node2 --net=net1 --ip 172.18.0.3 pxc

3)、创建第3个MySQL节点
docker run -d -p 3308:3306 -e MYSQL_ROOT_PASSWORD=123456 -e CLUSTER_NAME=PXC -e XTRABACKUP_PASSWORD=123456 -e CLUSTER_JOIN=node1 -v v3:/var/lib/mysql -v backup3:/data --privileged --name=node3 --net=net1 --ip 172.18.0.4 pxc

4)、创建第4个MySQL节点
docker run -d -p 3309:3306 -e MYSQL_ROOT_PASSWORD=123456 -e CLUSTER_NAME=PXC -e XTRABACKUP_PASSWORD=123456 -e CLUSTER_JOIN=node1 -v v4:/var/lib/mysql -v backup4:/data --privileged --name=node4 --net=net1 --ip 172.18.0.5 pxc

5)、创建第5个MySQL节点
docker run -d -p 3310:3306 -e MYSQL_ROOT_PASSWORD=123456 -e CLUSTER_NAME=PXC -e XTRABACKUP_PASSWORD=123456 -e CLUSTER_JOIN=node1 -v v5:/var/lib/mysql -v backup5:/data --privileged --name=node5 --net=net1 --ip 172.18.0.6 pxc
5、验证PXC集群
连接5个数据库节点:
在DB1中新建一个数据库test,新建一张表tb_student,新建两条数据。
提交后,看其它四个节点是否同步:
发现全部同步成功!
6、拉取Haproxy镜像
docker pull haproxy
7、编写Haproxy配置文件
在宿主机上编写:

vim /data/software/haproxy/haproxy.cfg

配置文件如下:(拷贝到Linux中去的时候一定要记得把换行符删掉,否则报错。)

global
    #工作目录
    chroot /usr/local/etc/haproxy
    #日志文件,使用rsyslog服务中local5日志设备(/var/log/local5),等级info
    log 127.0.0.1 local5 info
    #守护进程运行
    daemon

defaults
    log global
    mode    http
    #日志格式
    option  httplog
    #日志中不记录负载均衡的心跳检测记录
    option  dontlognull
    #连接超时(毫秒)
    timeout connect 5000
    #客户端超时(毫秒)
    timeout client  50000
    #服务器超时(毫秒)
    timeout server  50000

#监控界面   
listen  admin_stats
    #监控界面的访问的IP和端口
    bind  0.0.0.0:8888
    #访问协议
    mode        http
    #URI相对地址
    stats uri   /dbs
    #统计报告格式
    stats realm     Global\ statistics
    #登陆帐户信息
    stats auth  admin:abc123456
#数据库负载均衡
listen  proxy-mysql
    #访问的IP和端口
    bind  0.0.0.0:3306  
    #网络协议
    mode  tcp
    #负载均衡算法(轮询算法)
    #轮询算法:roundrobin
    #权重算法:static-rr
    #最少连接算法:leastconn
    #请求源IP算法:source 
    balance  roundrobin
    #日志格式
    option  tcplog
    #在MySQL中创建一个没有权限的haproxy用户,密码为空。Haproxy使用这个账户对MySQL数据库心跳检测
    option  mysql-check user haproxy
    server  MySQL_1 172.18.0.2:3306 check weight 1 maxconn 2000  
    server  MySQL_2 172.18.0.3:3306 check weight 1 maxconn 2000  
    server  MySQL_3 172.18.0.4:3306 check weight 1 maxconn 2000 
    server  MySQL_4 172.18.0.5:3306 check weight 1 maxconn 2000
    server  MySQL_5 172.18.0.6:3306 check weight 1 maxconn 2000
    #使用keepalive检测死链
    option  tcpka  
注意:

1)、option部分,记得在MySQL创建一个没有权限的用户haproxy;

   CREATE USER 'haproxy'@'%' IDENTIFIED BY '';
2)、server部分,记得这里3306是容器的端口,不是宿主机的端口。
8、创建Haproxy容器并启动
创建两个,后面使用Keepalived做高可用。

1)、创建第1个Haproxy负载均衡服务器
4001映射8888端口,8888是监控界面端口,haproxy端口用4002映射3306;

因为宿主机上之前安装pxc已经占用了3306,/data/software/haproxy是宿主机上创建的目录,映射haproxy容器存放配置文件的目录/usr/local/etc/haproxy;

名称起h1,后面要做高可用,给所有权限,网段和pxc对应,也是net1,ip设为172.18.0.7,镜像是haproxy。

docker run -it -d -p 4001:8888 -p 4002:3306 -v /data/software/haproxy:/usr/local/etc/haproxy --name h1 --privileged --net=net1 --ip 172.18.0.7 haproxy

进入h1容器,启动Haproxy。

# 进入h1容器
docker exec -it h1 bash
# 启动Haproxy
haproxy -f /usr/local/etc/haproxy/haproxy.cfg
2)、创建第2个Haproxy负载均衡服务器
docker run -it -d -p 4003:8888 -p 4004:3306 -v /data/software/haproxy:/usr/local/etc/haproxy --name h2 --privileged --net=net1 --ip 172.18.0.8 haproxy

进入h2容器,启动Haproxy。

# 进入h2容器
docker exec -it h2 bash
# 启动Haproxy
haproxy -f /usr/local/etc/haproxy/haproxy.cfg

9、浏览器访问Haproxy
访问地址:http://192.168.239.132:4001/dbs

这里的4001是创建容器时映射的8888端口,dbs是haproxy.cfg中的stats uri。

测试下关闭一个节点:docker stop node1

刷新页面:发现node1就变红了,表示断开了。

注意:

docker start node1重新启动节点,会有闪退问题,起不起来,解决办法:

先停掉并删掉这个容器,别紧张,没让你删除v1数据卷,所以数据丢不了,再重新建一个容器,数据卷还是指向之前那个数据卷,但是cluster-join=node2,随便和一个正常的普通节点同步就行了。
10、验证方式
数据库连接haproxy试试加一条数据,转发请求后其他数据库能否同步。

H1里面修改一条数据或添加数据后,转发请求到其他数据库,发现可以,并且pxc会同步数据,每个节点都同步了,这就说明我们的Haproxy搭建是OK的。
11、Haproxy双机热备
1)、Haproxy容器内安装Keepalived并设置虚拟IP
注意事项:

云主机不支持虚拟IP,另外很多公司的网络禁止创建虚拟IP(回家创建),这个需要联系公司的网络管理员,让他开放你要设置的虚拟IP就可以了。还有宿主机一定要关闭防火墙和SELINUX,很多人都因为这个而失败的,切记切记。

h1容器安装Keepalived,apt加速可自行百度。

# 进入h1容器
docker exec -it h1 bash
# 更新软件包
apt-get update
# 安装VIM
apt-get install -y vim
# 安装Keepalived
apt-get install keepalived
# 编辑Keepalived配置文件(参考下方配置文件)
vim /etc/keepalived/keepalived.conf
# 启动Keepalived
service keepalived start
# 宿主机执行ping命令,看是否可以ping通虚拟IP。
ping 172.18.0.201
配置文件内容如下:

vrrp_instance  VI_1 {
    state  MASTER
    interface  eth0
    virtual_router_id  51
    priority  100
    advert_int  1
    authentication {
        auth_type  PASS
        auth_pass  123456
    }
    virtual_ipaddress {
        172.18.0.201
    }
}
说明:

state=MASTER,表示主服务,会主动争抢虚拟ip;

interface=eth0,是docker容器内的网卡名称,要映射宿主机网卡,所以宿主机也要装一个Keepalived;

virtual_router_id=51,表示虚拟路由id,0-255都可以;

priority=100,表示权重,越高就说明优先级越高,越容易抢到虚拟ip;

advert_int=1,表示心跳检测的频率,这里就是1秒检测一次;

authentication,就是心跳检测访问的时候需要通过的账号密码;

virtual_ipaddress,这就是虚拟ip的设置。

h2容器安装Keepalived

# 进入h2容器
docker exec -it h2 bash
# 更新软件包
apt-get update
# 安装VIM
apt-get install -y vim
# 安装Keepalived
apt-get install keepalived
# 编辑Keepalived配置文件
vim /etc/keepalived/keepalived.conf
# 启动Keepalived
service keepalived start
# 宿主机执行ping命令,看是否可以ping通虚拟IP。
ping 172.18.0.201
配置文件内容如下:

vrrp_instance  VI_1 {
    state  MASTER
    interface  eth0
    virtual_router_id  51
    priority  100
    advert_int  1
    authentication {
        auth_type  PASS
        auth_pass  123456
    }
    virtual_ipaddress {
        172.18.0.201
    }
}
2)、宿主机安装Keepalived并设置虚拟ip
主要作用是为了转发到haproxy容器内的虚拟ip

# 宿主机执行安装Keepalived
yum -y install keepalived
# 修改Keepalived配置文件
vi /etc/keepalived/keepalived.conf
# 启动Keepalived
service keepalived start
keepalived.conf配置如下:

记得网卡一定要写对,用 ip addr 查看。

说明:

1)、virtual_ipaddress就是宿主机设置的虚拟ip;

2)、virtual_server后面的ip和端口就是宿主机的虚拟ip和要转发的端口;

3)、real_server,就是宿主机转发到haproxy容器内的虚拟ip,以及转发到的端口。

这里的配置含义就是:宿主机设置虚拟ip为192.168.239.150,请求转发到haproxy容器的172.18.0.201虚拟ip,端口转发的是8888,3306.

vrrp_instance VI_1 {
    state MASTER
    interface ens33
    virtual_router_id 51
    priority 100
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
        192.168.239.150
    }
}

virtual_server 192.168.239.150 8888 {
    delay_loop 3
    lb_algo rr
    lb_kind NAT
    persistence_timeout 50
    protocol TCP

    real_server 172.18.0.201 8888 {
        weight 1
    }
}

virtual_server 192.168.239.150 3306 {
    delay_loop 3
    lb_algo rr 
    lb_kind NAT
    persistence_timeout 50
    protocol TCP

    real_server 172.18.0.201 3306 {
        weight 1
    }

}
3)、验证
宿主机ping 192.168.239.150,看是否能通;

远程机ping 192.168.239.150,看是否能通;

浏览器访问 http://192.168.239.150:8888/dbs ,看是否能连上mysql集群;

不断刷新,看for pid是否会变化,会变化说明均衡起作用了;

用客户端连接192.168.239.150,试试添加或修改数据,看集群节点是否会同步数据;

docker pause h1,将h1容器暂停,再试一下4的做法,看能否同步;

docker unpause h1,恢复h1容器。
12、热备份数据
因为这个工具是安装在mysql容器内的,所以最好先创建一个数据卷,映射容器内备份的某个目录,这样在宿主机上就能看到备份了。

# 宿主机创建数据卷
docker volume create backup
如果创建mysql容器时,没有映射备份目录,那么要先停掉容器,然后删掉,再重新创建容器并映射备份目录。

# 停掉容器
docker stop node1

# 删除容器
docker rm node1
创建容器,映射备份目录,这里的backup就是上面创建的数据卷。这里注意node1停止后,重新创建需要以普通节点方式启动,否则会闪退,因为node1本身是主节点,停止后主节点就转移到其它节点去了,这里我和node2节点同步。

docker run -d -p 3306:3306 -e MYSQL_ROOT_PASSWORD=123456 -e CLUSTER_NAME=PXC -e XTRABACKUP_PASSWORD=123456 -e CLUSTER_JOIN=node2 -v v1:/var/lib/mysql -v backup:/data --privileged --name=node1 --net=net1 --ip 172.18.0.2 pxc

热备份数据

进入node1容器

docker exec -it node1 bash
更新软件包,这里执行如果提示没有权限(Permission denied),就用docker exec -it -u 0 node1 bash重登录试试,表示以root用户登陆docker内linux。

apt-get update
安装热备工具

apt-get install percona-xtrabackup-24
全量热备

innobackupex --user=root --password=123456 /data/backup/full

13、冷还原数据
停止节点,并删除节点。

docker stop node1
docker stop node2
docker stop node3
docker stop node4
docker stop node5

docker rm node1
docker rm node2
docker rm node3
docker rm node4
docker rm node5
删除数据卷

docker volume rm v1
docker volume rm v2
docker volume rm v3
docker volume rm v4
docker volume rm v5
重新创建数据卷

docker volume create v1
docker volume create v2
docker volume create v3
docker volume create v4
docker volume create v5
启动容器

docker run -d -p 3306:3306 -e MYSQL_ROOT_PASSWORD=123456 -e CLUSTER_NAME=PXC -e XTRABACKUP_PASSWORD=123456 -v v1:/var/lib/mysql -v backup1:/data --privileged --name=node1 --net=net1 --ip 172.18.0.2 pxc

node1容器中删除MySQL的数据并还原

# 删除数据
rm -rf /var/lib/mysql/*

# 清空事务
innobackupex --user=root --password=123456
--apply-back /data/backup/full/2019-02-17_08-53-07/

# 还原数据
innobackupex --user=root --password=123456 
--copy-back /data/backup/full/2019-02-17_08-53-07/
重新启动容器

docker stop node1
docker start node1
这个时候,可能会闪退,查看日志错误如下:

说是对ibdata1这文件没有写入权限,

那我们不妨全局搜一下这文件,看是哪个目录的:

find / -name ibdata1,可以看到在backup备份目录和v1的数据卷目录都有。

那我们直接给这两个目录最大权限:

chmod -R 777 /var/lib/docker/volumes/backup/_data

chmod -R 777 /var/lib/docker/volumes/v1/_data

然后再次启动容器。

启动后,验证前面「node1容器中删除MySQL的数据并还原」这一步看是否还原成功,用工具连接数据库查看。

  • 11
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: Docker和Kubernetes是目前非常流行的容器化技术,可以帮助开发人员更好的构建、管理和部署应用程序。下面将介绍如何在一台主机上搭建Docker和Kubernetes集群环境,并部署分布式应用程序。 第一步是安装Docker和Kubernetes,安装方式根据不同的操作系统会略有不同。安装完成后,需要对Docker进行一些配置,让它可以将Docker镜像推送和拉取到Kubernetes集群中。这一步可以通过配置Docker的daemon.json文件来完成。 接下来,需要搭建Kubernetes集群。首先需要安装etcd,它是Kubernetes的数据存储后端。然后安装kubectl命令行工具,用于管理Kubernetes集群部署Kubernetes集群后,需要将应用程序打包成Docker镜像,并推送到Docker镜像仓库中。然后,通过编写Kubernetes的YAML文件来定义应用程序的部署方式、服务、副本等信息。最后,使用kubectl apply命令来将YAML文件应用到Kubernetes集群中,实现应用程序的部署和运行。 如果需要对应用程序进行扩容,可以通过kubectl scale命令来水平扩展副本数。如果需要对应用程序进行升级,可以通过修改YAML文件并使用kubectl apply命令来实现。 总之,通过搭建Docker和Kubernetes集群环境,我们可以更轻松、高效的构建、管理和部署分布式应用程序。 ### 回答2: Docker 和 Kubernetes 都是一些颇为流行的容器技术。Docker 以其轻量级和易于部署的特点受到许多人的青睐,而 Kubernetes 则是以其在容器编排和自动化部署上的能力而闻名。本文将介绍如何搭建 Docker 和 Kubernetes 集群环境,并演示如何在分布式应用程序上部署这些技术。 Docker 集群环境: 要搭建 Docker 集群环境,我们需要一个主节点和多个工作节点。可以在机器上安装 DockerDocker Compose。使用 Docker Compose,我们可以轻松创建、启动和停止应用程序,同时便于管理容器。 当我们有多个 Docker 容器的时候,可以将它们放在不同的宿主机上,从而构建一个 Docker 集群。整个集群可以共享一个网络,这样我们就可以在不同的容器间通信。集群中每个节点都可以运行一个容器。这使得我们可以轻易地扩大我们的应用程序,并将它们部署到不同的机器上。 Kubernetes 集群环境: 要搭建 Kubernetes 集群环境,我们首先需要一个主节点和多个工作节点。要安装 Kubernetes 集群,我们可以使用 kubeadm 安装工具。Kubeadm 是一个命令行工具,它可以管理 Kubernetes 集群中的所有节点和服务。 在 Kubernetes 中,我们定义一组容器和服务,并将其称为一个应用程序,这个应用程序可以轻松地在 Kubernetes 集群部署。Kubernetes 集群还提供了各种管理工具,可以监视应用程序的运行状态并处理故障。 分布式应用部署: 在分布式应用中,Docker 和 Kubernetes 都能够提供强大的支持。使用 Docker,我们可以打包我们的应用程序并将其部署到多个容器中。这样我们就可以轻松地扩大我们的应用程序,并将它们部署到不同的机器上。 使用 Kubernetes,我们可以轻松部署和管理分布式应用程序,同时可以自动地监视、管理和扩展我们的容器。我们可以定义一个 Kubernetes 应用程序对象,该对象将包含我们的容器化应用程序所需的所有配置和信息。 总的来说,Docker 和 Kubernetes 都是非常流行的容器技术,它们能够提供强大的支持,以便我们轻松地部署和管理我们的应用程序。无论你是在单个容器中运行应用程序,还是在整个集群中运行应用程序,这些技术都可以为你节省大量的时间和精力。 ### 回答3: Docker和Kubernetes(简称k8s)是两个广泛应用于容器化解决方案的开源工具。Docker和k8s的联合使用可以提供一个完整的,高度可靠和高度可扩展的容器平台,以便于分布式应用的部署和维护。在本文中,我们将探讨如何在Docker和k8s上搭建集群环境及分布式应用部署方案。 首先我们需要安装和配置好Docker和k8s的环境,确保Docker和k8s能够正常工作。假设我们需要在三台机器上部署应用,我们需要在每台机器上安装Docker和k8s,每个Docker节点都要配置k8s本地存储,以保证数据的持久性和多副本数据备份。然后,我们需要在每个Kubernetes节点上部署一个Pod网络,使不同节点上的容器能够相互通信。 然后,我们需要编写Kubernetes 部署清单文件,并将它们发布到 Kubernetes 集群中。清单文件中应包含有关应用程序的必要配置信息,例如应用程序的容器镜像、环境变量、端口号、挂载点和资源请求/限制。我们可以使用Deployment,StatefulSet和DaemonSet三种资源类型来管理应用程序的部署和维护。使用这些资源类型可以实现高可靠性,自动化和灵活性的分布式应用部署和管理。 最后,我们可以使用Kubernetes的服务发现机制来暴露应用程序的服务,以便其他容器或服务可以访问它。这可以通过创建一个Kubernetes的service对象,并将其与应用程序的Pods关联起来来实现。Service对象可以提供一个常量的IP地址和DNS名称来代表应用程序的服务,并确保在容器出现故障时仍然可用。 综上所述,Docker和k8s组合可以提供一个强大的容器化解决方案,以及高度可靠和高度可扩展的平台来部署和维护分布式应用程式。在实践中,通过使用Docker和k8s,我们可以更轻松地部署,运行和管理复杂的应用程序,同时提高生产力和应用程序的可靠性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

softshow1026

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值