Proxmox VE(PVE)+ceph+物理网络规划-超融合生产环境安装部署案例

2 篇文章 0 订阅
2 篇文章 3 订阅

1 Proxmox Virtual Environment介绍

Proxmox VE 是用于企业虚拟化的开源服务器管理平台。它在单个平台上紧密集成了KVM虚拟机管理程序和LXC,软件定义的存储以及网络功能。借助基于Web的集成用户界面,您可以轻松管理VM和容器,高可用性群集或集成的灾难恢复工具。

同时Proxmox VE对接Proxmox备份服务器,可实现对VM、容器的全量和增量备份,可显著减少网络负载并节省宝贵的存储空间。

pve官方备份组件:pbs部署及策略设置教程

2 环境介绍

本文章所述环境采用3台物理服务器(含4口万兆网卡),1台万兆业务交换机,1台万兆管理交换机。
注意:由于使用ceph搭建分布式存储,为保证性能,ceph存储网络及业务网络强烈建议采用全万兆部署,管理网络可以采用千兆。
本案例中将ceph存储网络和管理网络合并部署,共用1个万兆接口,业务网络单独使用一个万兆接口。如条件允许,建议为ceph规划单独的网络,即:管理(千兆×2)、业务(万兆×2)、ceph存储网络(万兆×2),三个网络分离部署。

2.1 软件版本

本次部署采用当前最新版本:Proxmox VE 6.3,可根据当时情况选择最新版本。

2.2 服务器配置
型号配置数量
DELL R930CPU:Intel® Xeon® CPU E7-8870 v4 @ 2.10GHz
内存:512GB
RAID卡:PERC H730P Adapter
SSD:1.5TB 4块
HDD:1.2TB 10块
3

3 软件获取

访问官网下载ISO镜像文件,根据需要选择版本:
https://www.proxmox.com/en/downloads/category/iso-images-pve

4 RAID规划

4.1 系统盘
  • 建议采用两块SSD组成raid 1,作为系统盘。
    不同品牌服务器设置方法不同,请参照各品牌官方文档。
4.2 ceph盘
  • ceph不推荐基于raid盘创建osd,所以除系统盘外,其余磁盘全部设置为非raid模式,如果raid卡不支持直通模式,可以将每块磁盘单独配置一个raid0。
    不同品牌服务器设置方法不同,请参照各品牌官方文档。

5 物理网络

生产环境对可靠性要求较高,所以建议采用链路聚合方式,将多个物理网卡绑定为一个逻辑接口,从而提高网络的性能及可靠性。
链路聚合可在以下三种模式中选择:

  1. LACP(802.3ad):基于LACP协议的链路聚合,此模式交换机需配置链路聚合,模式为lacp。
  2. 静态聚合:静态链路聚合,此模式交换机需配置链路聚合,模式为静态(华为、H3C默认为此模式;思科为on模式)。
  3. Active+Backup:主备模式,网卡一主一备,主网卡故障时备份网卡接替主网卡工作,此模式交换机无需做链路聚合配置。
    若交换机支持LACP,推荐采用LACP模式。此处采用LACP模式进行演示。
5.1 网络规划
5.1.1 物理网络拓扑

5.1.2 vlan及网段规划
vlan号用途IP网段网关
1管理10.1.1.0/2410.1.1.254
3业务10.1.3.0/2410.1.3.254
4业务10.1.4.0/2410.1.4.254
5业务10.1.5.0/2410.1.5.254
5.2 网络配置

以华为交换机为例。

5.2.1 创建vlan:
vlan batch 3 to 5 
5.2.2 创建vlan-if(网关):
interface Vlanif1      //vlan1,管理网络网关
 ip address 10.1.1.254 255.255.255.0
interface Vlanif3      //vlan3,业务网络网关
 ip address 10.1.3.254 255.255.255.0
interface Vlanif4      //vlan4,业务网络网关
 ip address 10.1.4.254 255.255.255.0
interface Vlanif5      //vlan5,业务网络网关
 ip address 10.1.5.254 255.255.255.0
5.2.3 创建聚合接口(eth-trunk):
interface Eth-Trunk101    //用于节点1管理口
 description to-pve1-mgmt
 port link-type access
 mode lacp
#
interface Eth-Trunk102    //用于节点2管理口
 description to-pve2-mgmt
 port link-type access
 mode lacp
#
interface Eth-Trunk103    //用于节点3管理口
 description to-pve3-mgmt
 port link-type access
 mode lacp
#
interface Eth-Trunk104    //用于节点1业务口
 description to-pve1-yewu
 port link-type trunk
 port trunk allow-pass vlan 2 to 4094
 mode lacp
#
interface Eth-Trunk105    //用于节点2业务口
 description to-pve2-yewu
 port link-type trunk
 port trunk allow-pass vlan 2 to 4094
 mode lacp
#
interface Eth-Trunk106    //用于节点3业务口
 description to-pve3-yewu
 port link-type trunk
 port trunk allow-pass vlan 2 to 4094
 mode lacp
5.2.4 物理接口加入聚合接口
interface GigabitEthernet0/0/10    //连接节点1管理口eno1
 description pve1-mgmt-eno1
 eth-trunk 101
#
interface GigabitEthernet0/0/11    //连接节点1管理口eno2
 description pve1-mgmt-eno2
 eth-trunk 101
#
interface GigabitEthernet0/0/12    //连接节点2管理口eno1
 description pve2-mgmt-eno1
 eth-trunk 102
#
interface GigabitEthernet0/0/13    //连接节点2管理口eno2
 description pve2-mgmt-eno2
 eth-trunk 102
#
interface GigabitEthernet0/0/14    //连接节点3管理口eno1
 description pve3-mgmt-eno1
 eth-trunk 103
#
interface GigabitEthernet0/0/15    //连接节点3管理口eno2
 description pve3-mgmt-eno2
 eth-trunk 103
#
interface GigabitEthernet0/0/16    //连接节点1业务口eno3
 description pve1-data-eno3
 eth-trunk 104
#
interface GigabitEthernet0/0/17    //连接节点1业务口eno4
 description pve1-data-eno4
 eth-trunk 104
#
interface GigabitEthernet0/0/18    //连接节点2业务口eno3
 description pve2-data-eno3
 eth-trunk 105
#
interface GigabitEthernet0/0/19    //连接节点2业务口eno4
 description pve2-data-eno4
 eth-trunk 105
#
interface GigabitEthernet0/0/20    //连接节点3业务口eno3
 description pve3-data-eno3
 eth-trunk 106
#
interface GigabitEthernet0/0/21    //连接节点3业务口eno4
 description pve3-data-eno4
 eth-trunk 106

6 PVE安装

  1. 选择第一个选项,安装PVE
  2. 同意协议
  3. 选择系统盘
    注意:此处一定要选择RAID规划中创建的RAID 1系统盘
  4. 配置国家、地区
  5. 配置密码、邮箱
    如果为生产环境务必配置为强口令。邮箱建议配置为真实邮箱
  6. 配置网卡、主机名、IP地址、DNS等信息
  • 此处选择服务器第一块网卡,用于管理网络,按我们的规划应为eno1
  • 每个节点主机名不能相同,主机名可以参考以下规划,域名请按需配置。
序号主机名域名
1pve1test.local
2pve2test.local
3pve3test.local
  • 主机名、IP地址等信息按实际情况配置,配置公网DNS,用于pve连接互联网。
  1. 检查无误后点击安装。

    安装结束后重启,通过浏览器访问,出现以下页面证明安装成功。
    地址:https://你的IP地址:8006
    用户名:root
    密码:为安装时配置的密码。
    域:选择Linux PAM
  2. 按照此方法安装全部服务器。

7 更换软件源(三个节点都需要配置)

由于自带的软件源速度较慢,此处选择科大源:http://mirrors.ustc.edu.cn
涉及的软件源有三个,分别为debain、pve、ceph,需要分别修改下列文件。

名称source文件路径
debain/etc/apt/sources.list
pve/etc/apt/sources.list.d/pve-no-subscription.list
ceph/etc/apt/sources.list.d/ceph.list
  • 操作流程:
  1. 通过web管理页面中的shell或ssh登录后台。
  2. 更换debian源:
vi /etc/apt/sources.list
  • 删除默认的源,替换为:
deb http://mirrors.ustc.edu.cn/debian/ buster main contrib non-free
# deb-src http://mirrors.ustc.edu.cn/debian/ buster main contrib non-free
deb http://mirrors.ustc.edu.cn/debian/ buster-updates main contrib non-free
# deb-src http://mirrors.ustc.edu.cn/debian/ buster-updates main contrib non-free
deb http://mirrors.ustc.edu.cn/debian-security/ buster/updates main contrib non-free
# deb-src http://mirrors.ustc.edu.cn/debian-security/ buster/updates main contrib non-free
  1. 更换pve源为非订阅源:
  • 备份默认源:
mv /etc/apt/sources.list.d/pve-enterprise.list /root
  • 创建pve-no-subscription.list文件:
vi /etc/apt/sources.list.d/pve-no-subscription.list
  • 增加以下内容:
deb http://mirrors.ustc.edu.cn/proxmox/debian/pve buster pve-no-subscription
  1. 更换ceph源
  • 创建ceph.list文件:
vi /etc/apt/sources.list.d/ceph.list
  • 增加以下内容:
deb http://mirrors.ustc.edu.cn/proxmox/debian/ceph-octopus buster main
  1. 更新软件列表
apt update

8. 更新PVE至最新版本(按需)

根据实际需求决定是否更新为最新版本。

如需更新三台节点都需要执行:

apt upgrade

9 基础配置(三个节点都需要配置)

9.1 安装ifupdown2

此组件用于配置网卡后重启网卡操作:

apt install ifupdown2
9.2 安装vim
apt install vim
9.3 配置ntp服务
  1. 配置统一的时钟源
    如果有条件建议在内网部署一台ntp服务器,所有节点与内网ntp同步时钟。
    如果没有内网NTP服务器,可以采用下列NTP服务器。
阿里云:ntp.aliyun.com
国家授时中心:ntp.ntsc.ac.cn
  1. 将NTP取消注释,填写ntp服务器地址。
vim /etc/systemd/timesyncd.conf

  1. 配置完成后重启时间服务
systemctl restart systemd-timesyncd

10 PVE网络配置(三个节点都需要配置)

10.1 PVE服务器网络拓扑

放一张图有助于理解配置,可以结合5.1.1章节拓扑图理解。

10.2 管理网络
  1. 编辑vmbr0
    移除eno0,以便于将eno0加入到bond0中
    删除桥接端口中的eno0,然后点击OK。
  2. 创建bond0
    点击创建Linux Bond。
    名称:bond0
    slaves:eno0 eno1
    模式:LACP (802.3ad)
    Hash策略:layer2+3
    按以上参数配置,然后点击OK。
  3. 编辑vmbr0
    桥接端口配置:bond0。
    选中“vlan感知”选项,然后点击OK。
  4. 应用配置
    如果感觉配置有问题可以点击还原按钮,还原为配置前状态。
    如果没有问题,点击应用配置使配置生效。
    网络配置不正确可能会导致无法管理节点,应用配置前请确认配置正确,如果出现无法管理的情况需要进入shell手动修改配置。
10.3 业务网络

业务网络配置与管理网络类似。

  1. 创建bond1
    点击创建Linux Bond。
    名称:bond1
    slaves:eno2 eno3
    模式:LACP (802.3ad)
    Hash策略:layer2+3
    按以上参数配置,然后点击OK。
  2. 创建vmbr1
    桥接端口配置:bond1。
    选中“vlan感知”选项,然后点击OK。
  3. 应用配置
    点击应用配置使配置生效。
10.4 网络配置检查

在交换机中检查聚合接口状态是否正常。

display eth-trunk 101
display eth-trunk 102
display eth-trunk 103
display eth-trunk 104
display eth-trunk 105
display eth-trunk 106

查看所有eth-trunk接口状态,Status为Selected,则聚合接口正常。

11 集群组建

创建集群,将三台节点加入同一集群。

  1. 在其中一个节点上点击,”数据中心“ — ”集群“ — ”创建集群“。
  2. 点击加入信息,复制加入信息。
  3. 在其他两个节点上,点击加入集群,粘贴加入信息,然后输入第一台节点的root密码,即可完成加入。
  4. 加入集群完成后需要刷新页面才能正常使用,全部加入完成后,就可以在一个节点上管理集群中所有节点了。

12 ceph

Ceph是一种为优秀的性能、可靠性和可扩展性而设计的统一的、分布式文件系统。它可以将多台服务器中的硬盘聚合成一个集群,对外可提供文件存储、块存储、对象存储等多种形式,ceph的另一个特点是数据采用多副本方式存储,避免由于单点故障造成的业务中断和数据丢失。
PVE自带了ceph的图形化安装、管理工具,集群搭建完成后,可以快速完成ceph的安装、配置。同时pve也提供命令行工具,可以使用命令行对ceph进行自定义配置。

12.1 ceph磁盘规划
  • ceph磁盘的三种角色:
  1. 数据盘:用于存储数据的磁盘,为节省成本,通常采用HDD磁盘。
  2. DB盘:高速缓存,用于存储BlueStore内部产生的元数据文件,可采用普通SSD。
  3. WAL盘:超高速缓存,用于存储RocksDB log文件,可以采用性能更高、延迟更低的SSD或NVMe SSD。
  • 容量概念:
  1. 裸容量:物理硬盘总容量。
  2. 可用容量:采用ceph副本模式后,实际可用的存储容量。

注意:ceph存储池可采用3副本或2副本模式,副本模式下,裸容量不等于可用容量。假设裸容量为60TB,采用3副本模式的情况下,可用容量=裸容量/副本数=60TB/3=20TB;采用2副本模式的情况下,可用容量=裸容量/副本数=60TB/2=30TB。规划容量时请务必考虑副本因素

本环境中,sda到sdh为8块HDD硬盘。sdi到sdl为4块SSD硬盘。
为提高hdd的性能,我们将sdi作为所有hdd硬盘的DB盘,将sdj作为所有hdd硬盘的WAL磁盘。

注意:DB盘和WAL盘不能相同。

容量规划建议:根据PVE文档建议,DB盘容量=数据盘总容量×10%,WAL盘容量=数据盘总容量×1%,假设数据盘共8T,则DB盘容量需>800G,WAL盘容量需>80G,考虑到单位换算及损耗,需要适当增加容量,请根据实际情况规划。

  • 详细规划如下:
物理路径磁盘类型DB磁盘WAL磁盘角色
/dev/sdaHDD/dev/sdi/dev/sdj数据盘
/dev/sdbHDD/dev/sdi/dev/sdj数据盘
/dev/sdcHDD/dev/sdi/dev/sdj数据盘
/dev/sddHDD/dev/sdi/dev/sdj数据盘
/dev/sdeHDD/dev/sdi/dev/sdj数据盘
/dev/sdfHDD/dev/sdi/dev/sdj数据盘
/dev/sdgHDD/dev/sdi/dev/sdj数据盘
/dev/sdhHDD/dev/sdi/dev/sdj数据盘
/dev/sdiSSD不适用不适用DB盘
/dev/sdjSSD不适用不适用WAL盘
/dev/sdkSSD/dev/sdk/dev/sdk数据盘
/dev/sdlSSD/dev/sdl/dev/sdl数据盘
12.2 ceph安装

在全部节点中,安装ceph组建。

  1. 选择节点 — ”ceph“ 点击 ” Install ceph ”
  2. 选择版本,此处选择 “ 15.2 ”
  3. 输入 ” Y “ 开始安装
    如果软件包下载速度较慢,可以先安装一台,然后将安装包拷贝到其他节点相同路径中。
    安装包保存路径:/var/cache/apt/archives
  4. 配置ceph网络
  • ceph网络架构

Public Network:公共网(前端),默认只存在公共网,用于承载ceph集群所有流量(包括存储读写、心跳、对象复制和恢复流量等流量)。
Cluster Network:集群网(后端),如果单独配置了集群网,OSD将把心跳、对象复制和恢复流量路由到集群网。

配置pve中的ceph时,中小型规模的集群,Public Network选择之前规划的ceph网路(本案例中为管理网络),Cluster Network选择与公共网络相同,其他配置保持默认即可。大规模ceph建议采用Public Network与Cluster Network分离的方式,与单个网络相比会提升性能。如需修改网络部署模式,需要自行对"5.物理网络"和"10.PVE网络配置"中的规划进行调整。

12.3 ceph配置

此配置是将ssd硬盘和hdd硬盘分别创建pool,分别为sdd_data和hdd_data,如需将ssd作为hdd的缓存层请关注我的后续文章。

12.3.1 创建osd

在 ”ceph“ — ”osd“ 选项卡创建OSD。
正常情况下磁盘类型会自动识别,如果识别的不正确,注意手动调整。
创建方式如下:

  • HDD盘
    创建hdd时注意选择DB和WAL磁盘。
  • SSD盘
  • 如果创建时类型选择错误,可以用命令行修改:
    假设osd0需要更改。
  1. 删除osd类别信息
ceph osd crush rm-device-class osd.0
  1. 设置osd类别信息
ceph osd crush set-device-class ssd osd.0
12.3.2 创建class rule
  • 创建HDD rule
ceph osd crush rule create-replicated hdd_rule default host hdd
  • 创建SSD rule
ceph osd crush rule create-replicated ssd_rule default host ssd
12.3.3 创建存储池
  • 创建HDD pool
ceph osd pool create hdd_data hdd_rule
  • 创建SSD pool
ceph osd pool create ssd_data ssd_rule
12.3.4 添加存储池至PVE

”数据中心“ — ”存储“ — ”添加“ — ”RBD“。

  • 添加hdd存储池:
  • 添加ssd存储池:

13 安全加固

13.1 配置公钥登录
  1. 生成密钥对
    以xshell为例
  • 生成密钥

  • 设置名称及密码
    设置密码为可选项,为保证密钥安全,建议设置。

  1. 将公钥复制至服务器"/root/.ssh/authorized_keys"文件中,选择"SSH2 - OpenSSH"格式。
vim /root/.ssh/authorized_keys
  1. 禁止ssh使用密码登录,禁止前先验证一下公钥方式能否登录。
#编辑sshd配置文件
vim /etc/ssh/sshd_config
#将下列配置添加到最后一行
PasswordAuthentication no
#重启sshd服务
systemctl restart sshd
13.2 配置OTP登录
  1. 下载google身份验证器
  • 安卓
    链接: https://pan.baidu.com/s/1WBMZ83aVAqTgmTavSJRwVw 提取码: sekv
  • 苹果
    在app store中搜索“Google Authenticator”
  1. 添加令牌
    点击右上角用户名 - TFA,扫描二维码添加令牌,将令牌中显示的数字输入下方验证码框中,点击应用即可。

  2. 为防止手机故障造成令牌不可用,请备份令牌
    点击右上角三个点,选择转移账号,导出账号,选择需要导出的账号,备份此二维码或使用其他手机扫描此二维码。需要恢复时,用其他手机扫描此二维码即可。

  • 69
    点赞
  • 248
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 33
    评论
### 回答1: Proxmox VE 7.3 Ceph超融合私有云建设案例是实现私有云建设的最佳方案之一。它是一个高度集成的平台,允许在单一硬件组件上集成计算、存储和网络部署。这意味着不再需要单独购买控制器和硬盘阵列,从而使架构更加轻量化、简单和易于管理。 该方案使用Ceph来管理储存,并为计算和网络提供服务。Ceph是一种可靠、可扩展的分布式存储系统,旨在提供比传统存储更好的性能和容错性。它使用分布式复制来确保数据的可用性,并通过数据分片和负载均衡来提高性能。 Proxmox VE 7.3 Ceph超融合私有云建设案例利用了Proxmox VE的虚拟化技术,可以轻松地在同一硬件上运行多个虚拟机,并可以快速扩展和回收资源。通过使用Proxmox VE中的集成管道和API,计算、存储和网络资源可以快速部署、配置和管理,使IT管理员可以更加专注于业务需求。 总的来说,Proxmox VE 7.3 Ceph超融合私有云建设案例提供了一种可靠、高效的私有云解决方案,将计算、存储和网络部署整合到同一硬件平台上,从而降低了成本、提高了效率、简化了管理。 ### 回答2: 随着数字化时代的到来,越来越多的企业需要构建私有云来保护自身的数据安全以及解决数据管理难题。而随着业界技术的不断进步,越来越多的企业开始采用超融合架构来构建自己的私有云。本文将介绍一种基于 Proxmox VE7.3 Ceph 超融合架构的私有云建设方案。 首先,需要了解的是什么是超融合架构。超融合是集计算、存储、网络为一体的一种分布式计算架构。超融合架构通常包含至少一个虚拟化管理节点、若干个存储节点以及若干个计算节点。在该架构中,存储节点和计算节点通常是相互独立的,但是在超融合架构中,这些节点被集成在一起,这样可以提高资源利用率和响应时间。相比传统的分布式计算架构,超融合架构更加具有可扩展性和可靠性。 本方案采用的是 Proxmox VE7.3 Ceph 超融合架构。Proxmox VE是基于Linux的虚拟化平台,可以支持多种虚拟化技术,如KVM和OpenVZ。而 Ceph 是一个开源的分布式存储系统,它具有高可靠性、高可扩展性和高性能等优点,非常适合超融合架构。 本方案的目标是构建一个具有高可用性和高可靠性的私有云。在该架构中,使用 Proxmox VE7.3 作为虚拟化管理节点,Ceph 作为存储节点。 首先,需要搭建虚拟化环境,安装和配置 Proxmox VE7.3。搭建虚拟化环境需要在一台硬件服务器上安装虚拟化软件,这样可以在该服务器上运行多个虚拟化操作系统。通过 Proxmox VE7.3 可以创建虚拟机,并通过 Web 界面方便的管理虚拟机。 接着,需要搭建 Ceph 存储集群。Ceph 基于 RADOS 对象存储系统,可以提供多个存储节点的高可用性,这样可以在存储节点故障时不会导致数据的丢失。在本方案中,需要安装和配置 Ceph 存储集群,创建块存储和文件存储。 最后,需要将虚拟化环境和 Ceph 存储集群集成在一起,创建具有高可用性和高可靠性的私有云。 总而言之,Proxmox VE7.3 Ceph 超融合架构是一种理想的构建高可用性和高可靠性的私有云的方案。它具有明显的优点,包括可扩展性、高可用性、高可靠性和高性能等。在实际应用中,需要根据实际情况进行调整,以达到最佳效果。 ### 回答3: Proxmox VE 7.3 Ceph超融合私有云建设方案是一种高效、安全的云解决方案,广泛应用于不同类型的企业,从小型公司到大型企业都适用。 在此方案下,企业可以完全控制其数据中心和计算资源,从而更好地掌控其业务。 此方案的一大特点在于其超融合架构,这意味着它集成了计算、存储和网络,可以更方便地管理和维护整个系统。企业也可以根据其需求来扩展或缩减其存储和计算服务。 Proxmox VE 7.3 Ceph超融合私有云建设方案依赖于三个关键组件。首先是Proxmox VE管理界面,它提供了一个统一的视图以便于管理集群节点、虚拟机和存储服务。其次是Ceph存储池,它托管了企业数据并提供高可靠性和复原性。最后是虚拟机,它允许企业为其应用程序提供虚拟化环境。 在此方案下,企业可以轻松地管理其存储池和虚机,从而实现资源优化。此外,此方案还提供了企业级的安全性和隔离性,包括访问控制和网络隔离等功能,保护数据不受安全性威胁。 总而言之,Proxmox VE 7.3 Ceph超融合私有云建设方案是扩展性和性价比非常高的方案,可以满足企业不断增长的需求,并为其提供高可靠性、安全性和可扩展性的存储和计算服务。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 33
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

hanziqing

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值