hadoop habse集群增加磁盘空间

    最近项目上采集的数据量超出预期,hbase集群中的datanode节点磁盘使用过快,基本都超过50%,按现有的使用频率来看,预计只能继续支撑3个月左右,考虑着要加新硬盘,但是却被这么一个小问题折腾了好一会才解决,特地在此记录一下。

 

  

 

centos环境下挂载新硬盘

1、硬盘分区

1.1、显示硬盘及所属分区情况

fdisk -l

显示当前的硬盘及所属分区的情况。如下图所示:

 

1.2对新硬盘进行分区

fdisk  /dev/sdb

Command (m for help)提示符后面输入m显示一个帮助菜单

 

Command (m for help)提示符后面输入n,执行 add a new partition 增加新分区。
 出现Command action时,输入e,指定分区为扩展分区(extended)。
 出现Partition number(1-4)时,输入1表示只分一个区。
 后续指定起启柱面(cylinder)号完成分区。

 

Command (m for help)提示符后面输入p,显示分区表。
系统提示如下:
DeviceBoot     Start            End               Blocks               Id             System
/dev/sdb1            1            26108           209712478+         5        Extended

 

Command (m for help)提示符后面输入w,保存分区表。
系统提示:The partition table has been altered!

 

在终端窗口中输入如下命令:

fdisk -l

如下图所示:

系统已经识别了硬盘 /dev/sdb1 的分区。

 

 

2、硬盘格式化 | Format hard disk

2.1、显示硬盘及所属分区情况

mkfs  -t  ext4  -c  /dev/sdb1

说明:-t  ext4 表示将分区格式化成ext4文件系统类型。

 

3、挂载硬盘分区

3.1、显示硬盘挂载情况

在终端窗口中输入如下命令:

mount   /dev/sdb1  /data1

说明:

/dev/sdb1 分区挂载到目录 /data1 。  /data1是指向的一个空文件夹

再次在终端窗口中输入如下命令:

df -l

新硬盘分区已经挂载,如下图最下面的红色方框内容。

 

3.2、配置硬盘在系统启动时自动挂载

如果不做此步骤,系统重启后,/dev/sdb1和文件夹/data1的挂载关系会丢失。

在文件 /etc/fstab 中加入如下配置:

/dev/sdb1     /data1        ext4       defaults    0    0

(磁盘分区)   (挂载目录)  (文件格式)

 

至此,系统增加新磁盘的操作结束。

 

 

 

增加集群datanode的空间

1、修改hdfs-site.xml文件

给被挂载的目录赋予权限

chown  -R  hadoop:hadoop  /data1

修改hdfs-site.xml

<property>

  <name>dfs.datanode.data.dir</name>

  <value>

      file:/opt/hadoop-2.7.2/tmp/dfs/data,  file:/data1

  </value>

</property>

 注:用“,”将新旧目录隔开。

重启集群。

2、检验

打开hadoop的web监控页面,到datanode页签查看节点的磁盘是否已经扩大。

 

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值