解决无法创建、上传文件到hdfs,报错:Exceeded the configured number of objects 3 in the filesystem.问题。

这个问题也困扰了我很久,在此记录,希望能让大家避免掉坑。。

在如这里插入图片描述如图片上所显示的:我们成功搭建好了hadoop(主节点的nameno和子节点的datanode都有),然后我们进行上传文件到hdfs,出现以上异常。

解决方法

删除 /home/hadoop/etc/hadoophdfs-site.xml文件中的以下配置,即可。

注 :

             /home/hadoop/etc/hadoop目录中的“/home/hadoop”为hadoop解压目录


<property>
 	 <name> dfs.max.objects</name>
	 <value>3</value>
	 <description></description>
</property>
<property>
 	 <name> dfs.datanode.handler.count</name>
	 <value>3</value>
	 <description></description>
</property>


  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值