HDFS常用操作命令

注意:以下代码中【】字样可以省略不写,<>表示文件路径

创建文件夹:

hadoop fs -mkdir [-p] <path>

-p:可以创建多级目录

查看文件:

hadoop fs -ls [-h] [-R] <path>

-h :显示文件size

-R :查看指定目录及其子目录

上传文件:

hadoop fs -put [-f] <Linux的Path> <hdfs的Path>

-f: 覆盖已有的文件

查看文件内容:

hadoop fs -cat <src>

读取大文件可以使用管道配合more

hadoop fs -cat <src>  | more

下载文件:

hadoop fs -get [-f] <hdfs src> <Linux src>

-f: 覆盖已有的文件

复制文件:

hadoop fs -cp [-f] <src> <复制的新文件的src>

-f: 覆盖已有的文件

追加文件:

hadoop fs -appendToFile <Linux src> <hdfs src>

追加的时候可能会报错,例如出现以下报错信息

 此时需要找到hadoop的解压缩命令,输入cd etc/hadoop

然后使用vi编辑器,输入vi hdfs-site.xml

在<configuration></configuration>中添加以下代码

 <property>
        <name>dfs.client.block.write.replace-datanode-on-failure.policy</name>
        <value>NEVER</value>
    </property>

    <property>
        <name>dfs.client.block.write.replace-datanode-on-failure.enable</name>
        <value>true</value>
    </property>

添加完成后,重启hadoop集群即可

移动文件:

hadoop fs -mv <待移动src> <new src>

删除文件:

hadoop fs -rm [-r] [-skipTrash] <src>

-r 删除文件夹

-skipTrash 跳过回收站(回收站默认关闭,有需要的话先配置core-site.xml)

配置文件如下:

<property>
        <name>fs.trash.interval</name>
        <value>1440</value>
    </property>
    <property>
        <name>fs.trash.checkpoint.interval</name>
        <value>120</value>
    </property>
配置完即可生效,需要重启集群

再删除文件会有以上提醒

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值