Hadoop集群扩容新增4T硬盘(解决分区大小问题限制2T问题)

用fdisk分区,发现最大支持2T的分区

简单记录下操作命令流程(建议每次升级扩容一台机子,安全起见以防万一):


1、查询磁盘信息:
fdisk -l


2、4T硬盘分4个区:
parted /dev/sdc
mklabel gpt
/dev/sdc mkpart sdc1 2048s 1000gb
/dev/sdc mkpart sdc2 1000gb 2000gb
/dev/sdc mkpart sdc3 2000gb 3000gb
/dev/sdc mkpart sdc4 3000gb -1
print
quit


3、格式化:
mkfs.ext4 /dev/sdc1
mkfs.ext4 /dev/sdc2
mkfs.ext4 /dev/sdc3
mkfs.ext4 /dev/sdc4


4、列出分区信息:
parted -l


5 创建数据目录(/data1已经在hadoop中使用):
mkdir /data2
mkdir /data3

mkdir /data4

mkdir /data5(预留其他用途)


6、挂载:
mount /dev/sdc1 /data2
mount /dev/sdc2 /data3
mount /dev/sdc3 /data4

mount /dev/sdc4 /data5

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值