linux查看hdfs副本数量,文件副本数量问题,设置的dfs.replication没有生效

问题描述:

前几天发现hadoophdfs磁盘空间经常满,导致任务失败,但是查看hadoop fs -du -h /  这个根目录的文件大小总计150T左右,但是在50070端口页面查看到的磁盘使用接近390T,怀疑是文件备份数出问题了。

执行 hadoop dfs -ls [filename]  近期的文件都是3份,上个月的抽几个文件看了下都是2份

执行 hadoop fsck /  查看整个目录的备份数分布,输出结果如下:

Default replication factor  2

Average block replication 2.38

昨天晚上用 执行 hadoop fs -setrep -r 2 / 命令直接把hdfs根目录下的所有文件副本数设置成2,命令执行了大约1个小时,磁盘已使用空间从390T变成299T,一下子释放了接近100T的磁盘空间。今天来查看了下文件副本数,今天新生成的还是3个副本。查看了namenode和datanode的cdh和mr目录下面的hdfs-site.xml配置文件里面dfs.replication副本数参数的value值设置的全是2。

主要信息为副本数与默认配置不符的文件/目录。

这个cdr.done(备份数为3的目录)目录存储的是什么数据?从哪里来的?

答:是预处理上传过来的数据

预处理主机的dfs.replication设置的是几?

答:把预处理jar包解压后找到了设置dfs.replication参数的hdfs-site.xml配置文件,修改后重新打个jar包重启预处理服务,查看了了上传的最新上传的一个文件副本数是2,问题解决

block的备份数是由写入数据的client端配置决定的,所以该类问题一般是由client的配置引起。

阅读(2288) | 评论(0) | 转发(0) |

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
【优质项目推荐】 1、项目代码均经过严格本地测试,运行OK,确保功能稳定后才上传平台。可放心下载并立即投入使用,若遇到任何使用问题,随时欢迎私信反馈与沟通,博主会第一时间回复。 2、项目适用于计算机相关专业(如计科、信息安全、数据科学、人工智能、通信、物联网、自动化、电子信息等)的在校学生、专业教师,或企业员工,小白入门等都适用。 3、该项目不仅具有很高的学习借鉴价值,对于初学者来说,也是入门进阶的绝佳选择;当然也可以直接用于 毕设、课设、期末大作业或项目初期立项演示等。 3、开放创新:如果您有一定基础,且热爱探索钻研,可以在此代码基础上二次开发,进行修改、扩展,创造出属于自己的独特应用。 欢迎下载使用优质资源!欢迎借鉴使用,并欢迎学习交流,共同探索编程的无穷魅力! 基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip 基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip 基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值