Hadoop扩容
概述
Hadoop存储容量或计算能力不能满足日益增长的需求时,就需要扩容。
扩容有两个方案:
1) 增加磁盘
2) 增加节点
方案一:扩大虚拟磁盘
扩大容量
将虚拟的Linux关闭,扩大磁盘容量
将空间增大20G
建立分区
增加空间后Linux并不会识别出新增加的磁盘空间
需要为这块新增的空间建立分区
新建分区
打开Linux
fdisk /dev/sda#调整磁盘分区
m #进入帮助引导模式
n #新增分区
p #指定新分区为基本分区
一路回车 #但要记住分区号
w #保存并执行刚才的分区操作
reboot #重启
查看新增分区
fdisk -l
格式化
找到新增加的分区,还记得刚才的分区号吗?
#将数字换成刚才分配的分区号
挂载
Linux没有盘符,所以增加分区之后,需将分区映射到某一个文件夹上,以便使用。
新建文件夹
如果使用现有文件夹,则文件夹中的文件在挂载后将无法访问
mkdir /newdisk
临时挂载