HDFS 入门(二) SHELL 命令------开发重点

使用 hadoop fs 和直接使用hdfs dfs 是一样的
	且dfs中的很多命令同Linux 一致。

在这里插入图片描述

一、上传

# 1. 剪切
hadoop hdfs -moveFromLocal <localsrc>... <dst>
# localsrc是Linux下的路径
# dst是dfs中的路径

# 2. 复制
hadoop hdfs -copyFromLocal <localsrc>... <dst>
#   生产环境更多
hadoop hdfs -put [-f] [-p] [-l] [-d] <localsrc> ... <dst>
  #Flags:
                                                                       
  #-p  Preserves access and modification times, ownership and the mode. 
  #-f  Overwrites the destination if it already exists.                 
  #-l  Allow DataNode to lazily persist the file to disk. Forces        
  #      replication factor of 1. This flag will result in reduced
  #      durability. Use with care.
                                                        
  #-d  Skip creation of temporary file(<dst>._COPYING_).

# 3. 追加
-appendToFile <localsrc> ... <dst>

二、下载

# 复制
hadoop hdfs -copyToLocal <localsrc>... <dst>
#   生产环境更多
hadoop hdfs -get [-f] [-p] [-l] [-d] <localsrc> ... <dst>

三、直接操作hdfs

在这里插入图片描述
在这里插入图片描述
hadoop fs指令和linux本地指令中文件系统指令非常的相似。

	setrep是hadoop fs独有的。PS:每个节点至多只能存储一个副本
	当只有三台机器,但是设置了十个副本的话,实际只会存在三个副本。如果集群增加一个DataNode,副本数量会加一,直到十个。

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值