简单进行pve的扩容

pve磁盘如下只分配了59G总共是256G的固态
在这里插入图片描述
在这里插入图片描述
对 /dev/mapper/pve-root 扩容:
lvextend -L +15G /dev/mapper/pve-root
resize2fs /dev/mapper/pve-root
在这里插入图片描述

### 如何在Proxmox虚拟环境中扩展Ceph存储容量 #### 方法一:添加新的OSD节点 为了提高Ceph集群的性能和可靠性,可以通过向现有集群中添加新OSD(Object Storage Device)节点来扩大存储容量。具体操作如下: 1. 准备一台或多台具有足够磁盘空间的新服务器作为目标机器; 2. 安装必要的软件包,在每台新增加的目标主机上执行命令`apt-get install ceph-osd`[^4]; 3. 配置这些设备成为OSDs的一部分,编辑`/etc/ceph/ceph.conf`文件中的相应部分,并确保它们能够连接到现有的Monitor节点; 4. 使用`ceph-deploy osd create`命令完成最后设置。 ```bash sudo apt-get update && sudo apt-get install -y ceph-common ceph-osd sudo systemctl enable ceph.target sudo systemctl start ceph-osd@<osd_id> ``` #### 方法二:利用已有硬件资源扩充单个OSD 当不想额外购置更多物理机时,也可以考虑充分利用当前已部署好的计算节点上的未分配硬盘来进行扩容工作。只需按照下面流程即可实现这一目的: 1. 登录至想要添加更多磁盘空间的那个成员服务器; 2. 执行`lsblk`查看有哪些可用分区尚未被加入任何卷组或逻辑卷内; 3. 对选定的目标驱动器初始化为一个新的OSD实例; ```bash sudo sgdisk -o /dev/sdb # 清除旧分区表并创建GPT结构 (假设sdb为空闲磁盘) sudo parted /dev/sdb mklabel gpt sudo parted /dev/sdb mkpart primary 0% 100% sudo ceph-volume lvm create --data /dev/sdb1 ``` 以上两种方式均能有效提升整个系统的总储存能力,同时保持良好的稳定性和高效的数据访问速度。值得注意的是,在实际应用过程中应当依据具体的业务场景和个人偏好做出合理的选择。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值