大数据之Hadoop(hdfs): DataNode通过添加数据盘扩容

1.原由:

在生产环境中,hdfs集群数据量已达到存储的90%,亟需对存储空间进行扩容;

2.方案:

最终确定添加datanoe的存储目录的方案;

3.步骤:

1.第一步:备份hdfs-site.xml配置文件

cp hdfs-site.xml hdfs-site.xml.20190330.bak

2.第二步:添加数据磁盘、格式化,并挂载到/data2目录

#格式化磁盘
mkfs.ext4 /dev/sdb
#挂载磁盘到/data2
mount -t ext4 /dev/sdb /data2
#添加开机挂载
vim /etc/fstab
#最后一行添加:
/dev/sdb  /data2 ext4 defaults  0 0 

3.第三步:创建hdfs数据存储目录

mkdir /data2/hadoop

4.第四步:修改hdfs-site.xml文件(所有节点),增加dfs.datanode.data.dir数据目录(用逗号分隔)

<property>
      <name>dfs.datanode.data.dir</name>
      <value>file:/data1/my_data/dfs-data,/data2/hadoop</value>
</property>

备注:HDFS的DataNode节点保存数据的路径由dfs.datanode.data.dir参数决定,其默认值为file://${hadoop.tmp.dir}/dfs/data,若服务器有多个磁盘,必须对该参数进行修改。
注意:因为每台服务器节点的磁盘情况不同,所以这个配置配完之后,不需要分发

4.补充:

查看生产环境服务器磁盘情况:
在这里插入图片描述

  • 3
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值