HDFS的副本数量配置

众所周知,hdfs的默认副本数量是3个,配置在/etc/hadoop/conf/hdfs-site.xml

  <property>
    <name>dfs.replication</name>
    <value>3</value>
  </property>

我们也可以通过hdfs dfs -ls /path/to/file 命令查看hdfs上的文件:

文件类型会在第二列显示副本数量3,第五列显示文件大小,目录因为是由namenode维护的,所以没有副本数量,显示为-

如果想修改全局副本数量,只需要修改上面的hdfs-site.xml中的配置然后重启hdfs即可,修改完成后:

1. 若hdfs中副本数量没有达到配置的数量则会自动进行备份,此时datanode节点之间会大量复制文件,集群性能会暂时受到影响。

2. 若hdfs中副本数量多于配置的数量,比如原来是3,修改为2,则已存在的副本不会被删除,只会对后续新增的文件使用新的配置。如果希望修改配置后,原有多出来的副本释放空间则可以执行balancer命令,后面会详细介绍。

 

当然也可以指定文件/目录设置副本数量,执行下面的命令:

hdfs dfs -setrep -w 5 [-R] /path/to/file

其中5就是修改后的备份数量,-R为可选项若后面的参数为目录则子文件夹全部都按此策略备份。

 

还有一个HDFS的命令可以查看目录下的数据块详细比例以及副本数量分布,我这里使用的是hadoop3版本,所以会多个擦除码(Erasure Coded)这一栏:

hdfs fsck /tmp

 

### HDFS 安装与配置图文教程 #### 准备工作 确保操作系统已准备好,并且Java环境已经正确安装和配置。对于Hadoop集群来说,建议使用Linux发行版作为操作平台。 #### 下载并解压Hadoop软件包 获取官方发布的稳定版本的Hadoop压缩包,将其下载到服务器上并解压至指定目录[^1]。 ```bash tar -zxvf hadoop-x.x.x.tar.gz -C /opt/ ``` #### 修改`hdfs-site.xml`配置文件 进入Hadoop配置文件夹路径下编辑`hdfs-site.xml`文件来设置必要的属性: [root@niit-master hadoop]# vi hdfs-site.xml 在此文件内定义NameNode以及DataNodes的相关参数,比如存储位置、副本数量等重要选项。常见的配置项包括但不限于: - `dfs.replication`: 设置数据块默认复制因子,默认值通常是3。 - `dfs.namenode.name.dir`: 指定NameNode元数据保存的位置。 - `dfs.datanode.data.dir`: 数据节点实际存放Block的地方。 这些配置可以根据具体需求调整以适应不同的应用场景。 #### 初始化HDFS文件系统 完成上述配置后,在执行任何其他操作之前先初始化分布式文件系统的命名空间: ```bash /opt/hadoop/bin/hdfs namenode -format ``` 此命令会创建一个新的空文件系统实例,并准备就绪等待后续的数据读写请求。 #### 启动HDFS服务 通过启动脚本开启整个HDFS集群的服务进程: ```bash start-dfs.sh ``` 这一步骤将会依次启动Secondary NameNode, DataNodes 和 Primary NameNode。 ---
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

王义凯_Rick

遇见即是缘,路过就给个评论吧~

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值