Proxmox VE 超融合集群创建多个Ceph Pool

作者:田逸(vx:formyz)

创建多Ceph Pool的目的

Proxmox VE集群上的虚拟机运行在高速磁盘NVME,而虚拟机附属的数据,则指定到低速、廉价、容量大的磁盘空间。为了高可用性,充分利用资源,需要让除Proxmox VE宿主二外的数据都运行在Ceph分布式存储上。

解决思路

把高速的NVMe(或者其它固态磁盘SSD)多磁盘做成一个Ceph Pool,大容量多磁盘组成另外一个Ceph Pool。

测试环境

  • 三台物理服务器,插入一块或NVMe磁盘(容量不等不影响使用和性能),数块SATA 低速硬盘,大致配置图所示。

 

  • 平台版本为Proxmox VE 7.0,安装好Ceph,版本为16.2.6。
  • 服务器集群已经做好,需要使用的磁盘已经全部初始化。

 

实验步骤

大致可分为:创建不同类型的Ceph OSD,创建Ceph crush rule,创建Ceph Pool,创建虚拟机及给虚拟机分配磁盘空间,功能验证等几个步骤。

创建不同类型Ceph OSD

  • 创建SATA磁盘Ceph OSD,设备类型指定为HDD。登录Proxmox VE Web管理后台,选定物理节点,创建OSD,具体操作如图所示。

 

重复这个操作,将所有剩余的空闲SATA创建好OSD待用。

  • 创建NVMe磁盘Ceph OSD,设备类型指定为NVMe,操作如下图所示。

 

重复这个步骤,将所有剩余的NVMe创建好OSD待用。

  • 验证所创建的Ceph OSD。Proxmox VE 宿主系统Debian执行命令 ceph osd tree查看,生成的Ceph OSD如下:

root@pve3:~# ceph osd tree

ID  CLASS  WEIGHT   TYPE NAME      STATUS  REWEIGHT  PRI-AFF

-1         9.18233  root default                           

-7         3.68178      host pve1                          

 0   hdd  1.81879          osd.0      up   1.00000  1.00000

 5   nvme  1.86299          osd.5      up   1.00000  1.00000

-3         2.75027      host pve2                          

 1   hdd  1.81879          osd.1      up   1.00000  1.00000

 4   nvme  0.93149          osd.4      up   1.00000  1.00000

-5         2.75027      host pve3                          

 2   hdd  1.81879          osd.2      up   1.00000  1.00000

 3   nvme  0.93149          osd.3      up   1.00000  1.00000

创建Ceph OSD Crush Rule

创建两个Ceph OSD Crush Rule,一个用于标识NVMe,另一个用于标识HDD。创建Crush规则暂时不能在Proxmox VE Web管理后台进行,需要在其宿主系统Debian命令行下手动执行,所敲的命令行如下:

ceph osd crush rule create-replicated rule-nvme default  host nvme

ceph osd crush rule create-replicated rule-hdd default  host hdd

执行完毕后,再继续执行如下指令进行验证:

root@pve3:~# ceph osd crush rule ls

replicated_rule

rule-nvme

rule-hdd

创建Ceph Pool

切换到Proxmox VE Web管理后台,选定节点,创建Ceph。这里我要创建两个Ceph Pool,把不同的OSD归类到不同的Pool中。

  1. 创建NVMe磁盘Pool。命名Pool为“NVMe_pool”,选择“Crush Rule”为“nvme-rule”,单击按钮“创建”,如下图所示:

 

  1. 创建SATA磁盘Pool。命名Pool为“HDD_pool”,选择“Crush Rule”为“hhd-rule”,单击按钮“创建”,如下图所示:

 

  1. 验证Ceph Pool的有效性。在Proxmox VE Web管理后台执行一个“卷迁移”操作,如下图所示。

 

切换到Proxmox VE宿主系统Debian命令行,执行“ceph osd pool stats”,查看其输入,如下图所示:

 

 

功能测试

在Proxmox VE集群创建虚拟机,磁盘存储指定“NVMe-pool”,如下图所示:

 

创建好虚拟机,并在其上安装操作系统,我测试用了Centos ,安装完系统以后,再给此虚拟机新增磁盘,“存储”指定“HDD-pool”,如下图所示:

 

进入虚拟机系统Centos,并把分配的磁盘创建文件系统,挂接上,手动创建一些文件或者目录。

继续在Proxmox VE Web管理后台,把虚拟机或者容器加入到高可用集群。

关闭Proxmox VE集群中刚创建并安装好系统的虚拟机所在的物理服务器,从Proxmox VE Web管理后台查看运行状态,等待节点成离线状态时,看虚拟机是否漂移?

 

经过几分钟的耐心等待,虚拟机及容器漂移到正常运行的物理节点上。

 

  • 0
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论
### 回答1: Proxmox VE 7.3 Ceph超融合私有云建设案例是实现私有云建设的最佳方案之一。它是一个高度集成的平台,允许在单一硬件组件上集成计算、存储和网络部署。这意味着不再需要单独购买控制器和硬盘阵列,从而使架构更加轻量化、简单和易于管理。 该方案使用Ceph来管理储存,并为计算和网络提供服务。Ceph是一种可靠、可扩展的分布式存储系统,旨在提供比传统存储更好的性能和容错性。它使用分布式复制来确保数据的可用性,并通过数据分片和负载均衡来提高性能。 Proxmox VE 7.3 Ceph超融合私有云建设案例利用了Proxmox VE的虚拟化技术,可以轻松地在同一硬件上运行多个虚拟机,并可以快速扩展和回收资源。通过使用Proxmox VE中的集成管道和API,计算、存储和网络资源可以快速部署、配置和管理,使IT管理员可以更加专注于业务需求。 总的来说,Proxmox VE 7.3 Ceph超融合私有云建设案例提供了一种可靠、高效的私有云解决方案,将计算、存储和网络部署整合到同一硬件平台上,从而降低了成本、提高了效率、简化了管理。 ### 回答2: 随着数字化时代的到来,越来越多的企业需要构建私有云来保护自身的数据安全以及解决数据管理难题。而随着业界技术的不断进步,越来越多的企业开始采用超融合架构来构建自己的私有云。本文将介绍一种基于 Proxmox VE7.3 Ceph 超融合架构的私有云建设方案。 首先,需要了解的是什么是超融合架构。超融合是集计算、存储、网络为一体的一种分布式计算架构。超融合架构通常包含至少一个虚拟化管理节点、若干个存储节点以及若干个计算节点。在该架构中,存储节点和计算节点通常是相互独立的,但是在超融合架构中,这些节点被集成在一起,这样可以提高资源利用率和响应时间。相比传统的分布式计算架构,超融合架构更加具有可扩展性和可靠性。 本方案采用的是 Proxmox VE7.3 Ceph 超融合架构。Proxmox VE是基于Linux的虚拟化平台,可以支持多种虚拟化技术,如KVM和OpenVZ。而 Ceph 是一个开源的分布式存储系统,它具有高可靠性、高可扩展性和高性能等优点,非常适合超融合架构。 本方案的目标是构建一个具有高可用性和高可靠性的私有云。在该架构中,使用 Proxmox VE7.3 作为虚拟化管理节点,Ceph 作为存储节点。 首先,需要搭建虚拟化环境,安装和配置 Proxmox VE7.3。搭建虚拟化环境需要在一台硬件服务器上安装虚拟化软件,这样可以在该服务器上运行多个虚拟化操作系统。通过 Proxmox VE7.3 可以创建虚拟机,并通过 Web 界面方便的管理虚拟机。 接着,需要搭建 Ceph 存储集群Ceph 基于 RADOS 对象存储系统,可以提供多个存储节点的高可用性,这样可以在存储节点故障时不会导致数据的丢失。在本方案中,需要安装和配置 Ceph 存储集群创建存储和文件存储。 最后,需要将虚拟化环境和 Ceph 存储集群集成在一起,创建具有高可用性和高可靠性的私有云。 总而言之,Proxmox VE7.3 Ceph 超融合架构是一种理想的构建高可用性和高可靠性的私有云的方案。它具有明显的优点,包括可扩展性、高可用性、高可靠性和高性能等。在实际应用中,需要根据实际情况进行调整,以达到最佳效果。 ### 回答3: Proxmox VE 7.3 Ceph超融合私有云建设方案是一种高效、安全的云解决方案,广泛应用于不同类型的企业,从小型公司到大型企业都适用。 在此方案下,企业可以完全控制其数据中心和计算资源,从而更好地掌控其业务。 此方案的一大特点在于其超融合架构,这意味着它集成了计算、存储和网络,可以更方便地管理和维护整个系统。企业也可以根据其需求来扩展或缩减其存储和计算服务。 Proxmox VE 7.3 Ceph超融合私有云建设方案依赖于三个关键组件。首先是Proxmox VE管理界面,它提供了一个统一的视图以便于管理集群节点、虚拟机和存储服务。其次是Ceph存储池,它托管了企业数据并提供高可靠性和复原性。最后是虚拟机,它允许企业为其应用程序提供虚拟化环境。 在此方案下,企业可以轻松地管理其存储池和虚机,从而实现资源优化。此外,此方案还提供了企业级的安全性和隔离性,包括访问控制和网络隔离等功能,保护数据不受安全性威胁。 总而言之,Proxmox VE 7.3 Ceph超融合私有云建设方案是扩展性和性价比非常高的方案,可以满足企业不断增长的需求,并为其提供高可靠性、安全性和可扩展性的存储和计算服务。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

4/5$全真龙门

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值