ceph docker mysql_基于Ceph分布式集群实现docker跨主机共享数据卷

上篇文章介绍了如何使用docker部署Ceph分布式存储集群,本篇在此基础之上,介绍如何基于Ceph分布式存储集群实现docker跨主机共享数据卷。

1、环境准备

在原来的环境基础之上,新增一台centos7虚拟机,用来做Ceph的客户端,如下:

hostname

ip

备注

node1

192.168.56.111

ceph、rbd客户端

1.1 在111上安装docker(略);

1.2 在111上安装ceph、rbd客户端:

首先,在111上添加ceph源

vim /etc/yum.repos.d/ceph.repo

填写如下内容:

1 [ceph-noarch]2 name=Ceph noarch packages3 baseurl=http://download.ceph.com/rpm-jewel/el7/noarch/

4 enabled=1

5 gpgcheck=1

6 type=rpm-md7 gpgkey=https://download.ceph.com/keys/release.asc

安装ceph、rbd客户端:

1 yum install -y epel-releases centos-release-ceph-jewel.noarch2 yum install -y rbd-mirror

同样,复制101 /etc/ceph/ 下的ceph.conf 和 ceph.client.admin.keyring 文件至111的/etc/ceph/ 目录下

1 scp -r /etc/ceph/ceph.conf root@192.168.56.111:/etc/ceph/

2 scp -r /etc/ceph/ceph.client.admin.keyring root@192.168.56.111:/etc/ceph/

此时输入ceph -s即可查看Ceph集群状态。

1.3 在111上安装rexray/rbd的docker插件

docker plugin install rexray/rbd RBD_DEFAULTPOOL=swimmingpool

RBD_DEFAULTPOOL也设置为之前配置的swimmingpool。

2、创建跨主机数据卷

docker volume create...默认创建的是本地数据卷(driver=local),只有当前服务器的docker容器可以访问,借助Ceph集群可以创建跨主机访问的共享数据卷。

在110服务器上创建共享卷(Rex-Ray volume):

docker volume create -d rexray/rbd --name mysqldata --opt=size=1

docker volume ls 查看一下:

bac44a21f25ac375c3f9faa9170dbacc.png

此时,在111上同样可以看到刚才创建的mysqldata:

83564b61f695ae596f395ce34624efc2.png

01517a4b2ba7a138830164d2fc1d8daa.png

下面来测试一下,看看是否能跨主机访问。

首先,在110上创建一个mysql的容器,将之前创建的mysqldata数据卷mount到mysql的数据目录:

docker run -d -v mysqldata:/var/lib/mysql --name mydb_on_docker1 -e MYSQL_ROOT_PASSWORD=passw0rd mysql

登陆mydb_on_docker1,更新一下数据库:

d5c2a67c43a78a17cbd5b100357ec6e1.png

然后删除mydb_on_docker1容器:

1d7caea3b24b900fc0453254963ff565.png

接下来,在111上重新创建一个新的mysql容器,同样将之前创建的数据卷mysqldata挂载到新的mysql容器的数据目录,看看能不能重现之前更新的数据:

docker run --name mydb_on_docker2 -v mysqldata:/var/lib/mysql -d mysql

登陆mydb_on_docker2容器,查看数据:

aa4d2b97a10c1d18e1b227f96fbaa4d8.png

可以看到,数据是可以访问到的。

3、可能出现的问题

4bb0ff423c177b8008859b370551ecf6.png

rbd 映射失败,journalctl -au docker 出现:

d662d49e321ff0692d89be44d48aeeec.png

原因是内核中没有rbd模块,解决办法有2个:

1、自行编译内核,将rbd模块加入内核,参考:https://github.com/ceph/ceph-kmod-rpm

2、使用elrepo提供的、已经编译好的内核,参考:http://elrepo.org/

4、参考

https://yq.aliyun.com/articles/17185

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
您好!要基于Docker部署Ceph集群,您可以按照以下步骤进行操作: 1. 首先,确保您已经安装了DockerDocker Compose。您可以从官方网站上下载并安装最新版本的Docker。 2. 创建一个用于存储Ceph配置文件和数据的目录。例如,您可以在主机上创建一个名为"/data/ceph"的目录。 3. 创建一个用于存储Ceph监视器数据的目录。例如,您可以在主机上创建一个名为"/data/ceph/mon"的目录。 4. 创建一个Docker Compose文件,用于定义Ceph集群的各个组件。以下是一个简单的示例: ``` version: '3' services: mon: image: ceph/daemon:latest-luminous volumes: - /data/ceph/mon:/var/lib/ceph/mon entrypoint: ceph-mon --foreground --cluster ceph -i ${HOSTNAME} --public-addr ${HOSTNAME} osd: image: ceph/daemon:latest-luminous privileged: true volumes: - /data/ceph:/var/lib/ceph - /dev:/dev entrypoint: ceph-osd --foreground --cluster ceph mgr: image: ceph/daemon:latest-luminous volumes: - /data/ceph:/var/lib/ceph entrypoint: ceph-mgr --foreground --cluster ceph mds: image: ceph/daemon:latest-luminous volumes: - /data/ceph:/var/lib/ceph entrypoint: ceph-mds --foreground --cluster ceph ``` 在上述示例中,我们使用了Ceph的官方Docker镜像,并创建了mon、osd、mgr和mds服务。 5. 在命令行中,导航到包含Docker Compose文件的目录,并执行以下命令来启动Ceph集群: ``` docker-compose up -d ``` 此命令将启动Ceph集群的各个组件,并将它们放在后台运行。 6. 等待一段时间,直到所有的服务都启动并运行。您可以使用以下命令来检查Ceph集群的状态: ``` docker exec -it <mon_container_id> ceph -s ``` 在上述命令中,将"mon_container_id"替换为您mon服务的容器ID。 7. 您现在已经成功地使用Docker部署了Ceph集群!您可以使用Ceph客户端工具(如rados、ceph、rbd等)来管理和操作集群。 请注意,这只是一个简单的示例,您可能需要根据您的实际需求对Docker Compose文件进行调整。此外,还需要考虑网络配置、安全性等因素来确保Ceph集群的稳定和安全运行。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值