hadoop回收站问题

http://www.cnblogs.com/ggjucheng/archive/2012/04/18/2454683.html,起初看到的是这篇文章,按部就班的改了名称节点的core-site.xml,但是当时hadoop fs -rmr 提示的是"deleted hdfs",而不是文章所言的“moved to .trash”,当时网上hadoop trash 的文章都是这个样子,就没有深究了。后来某一天,为了释放hdfs的空间,删除了很多数据,结果发现空间没有释放,这个时候才注意到删除之后提示的是“moved to trash”.猜想是因为名称节点重启过,导致trash服务生效。今天在一台机器上执行hadoop fs -rmr 命令,发现又是deleted hdfs,发现了一个关系,你修改了core-site.xml,在这台服务器上执行rm 就会有回收站的功能,原因大概是因为调用的是这台机器的变量和参数。发现hadoop还是有一个机制,我们的平台有2台nn和18台dn,还有一台app展示界面和一台ftp传送文件。app和ftp并未加入hadoop,不过相关组件全部安装了,这种情况下也可以删除hdfs的数据。引申的隐患就是:内网可以删除hadoop的数据,当然这可能和ssh服务有关。
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值