Hadoop之hdfs命令行客户端的常用操作命令

Hadoop之hdfs命令行客户端的常用操作命令

常用命令

  1. 查看hdfs中的目录信息

     hadoop fs -ls /hdfs路径
     hadoop fs -ls /
    

    在这里插入图片描述

  2. 创建文件夹

     hadoop fs -mkdir /hdfs路径
     hadoop fs -mkdir /aaa
    
  3. 移动文件或重命名

     hadoop fs -mkdir /hdfs路径 /hdfs路径
     hadoop fs -mv /aaa /bbb
    
  4. 上传文件到hdfs中

     hadoop fs -put /本地文件  /hdfs路径
     hadoop fs -put /root/anaconda-ks.cfg /
     
     hadoop fs -copyFromLocal /本地文件  /hdfs路径   ##  copyFromLocal等价于 put
     hadoop fs -moveFromLocal /本地文件  /hdfs路径  ## 从本地移动到hdfs中
    

在这里插入图片描述

  1. 下载文件到客户端本地磁盘

     hadoop fs -get /hdfs中的路径   /本地磁盘目录
     hadoop fs -copyToLocal /hdfs中的路径 /本地磁盘路径   ## 跟get等价
     hadoop fs -moveToLocal /hdfs路径  /本地路径  ## 从hdfs中移动到本地
    
  2. 删除hdfs中的文件或文件夹

     hadoop fs -rm -r /aaa
    
  3. 查看hdfs中的文本文件内容

     hadoop fs -cat /demo.txt
     hadoop fs -tail -f /demo.txt
    
  4. 追加内容到已存在的文件

     hadoop fs -appendToFile /本地文件   /hdfs中的文件
    
  5. 修改文件的权限

     hadoop fs -chown user:group /aaa
     hadoop fs -chmod 700 /aaa
    
  6. 复制hdfs中的文件到hdfs的另一个目录

     hadoop fs -cp /hdfs路径_1  /hdfs路径_2
    
  7. 查看空间

     hadoop fs -df /
    
  8. 补充:hdfs命令行客户端的所有命令列表

    Usage: hadoop fs [generic options]
    [-appendToFile <localsrc> ... <dst>]
    [-cat [-ignoreCrc] <src> ...]
    [-checksum <src> ...]
    [-chgrp [-R] GROUP PATH...]
    [-chmod [-R] <MODE[,MODE]... | OCTALMODE> PATH...]
    [-chown [-R] [OWNER][:[GROUP]] PATH...]
    [-copyFromLocal [-f] [-p] [-l] [-d] <localsrc> ... <dst>]
    [-copyToLocal [-f] [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]
    [-count [-q] [-h] [-v] [-t [<storage type>]] [-u] [-x] <path> ...]
    [-cp [-f] [-p | -p[topax]] [-d] <src> ... <dst>]
    [-createSnapshot <snapshotDir> [<snapshotName>]]
    [-deleteSnapshot <snapshotDir> <snapshotName>]
    [-df [-h] [<path> ...]]
    [-du [-s] [-h] [-x] <path> ...]
     [-expunge]
    [-find <path> ... <expression> ...]
    [-get [-f] [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]
    [-getfacl [-R] <path>]
    [-getfattr [-R] {-n name | -d} [-e en] <path>]
    [-getmerge [-nl] [-skip-empty-file] <src> <localdst>]
    [-help [cmd ...]]
    [-ls [-C] [-d] [-h] [-q] [-R] [-t] [-S] [-r] [-u] [<path> ...]]
    [-mkdir [-p] <path> ...]
    [-moveFromLocal <localsrc> ... <dst>]
    [-moveToLocal <src> <localdst>]
    [-mv <src> ... <dst>]
    [-put [-f] [-p] [-l] [-d] <localsrc> ... <dst>]
    [-renameSnapshot <snapshotDir> <oldName> <newName>]
    [-rm [-f] [-r|-R] [-skipTrash] [-safely] <src> ...]
    [-rmdir [--ignore-fail-on-non-empty] <dir> ...]
    [-setfacl [-R] [{-b|-k} {-m|-x <acl_spec>} <path>]|[--set <acl_spec> <path>]]
    [-setfattr {-n name [-v value] | -x name} <path>]
    [-setrep [-R] [-w] <rep> <path> ...]
    [-stat [format] <path> ...]
    [-tail [-f] <file>]
    [-test -[defsz] <path>]
    [-text [-ignoreCrc] <src> ...]
    [-touchz <path> ...]
    [-truncate [-w] <length> <path> ...]
    [-usage [cmd ...]]
    

客户端的理解

hdfs的客户端有多种形式:
1、网页形式
2、命令行形式
3、客户端在哪里运行,没有约束,只要运行客户端的机器能够跟hdfs集群联网

文件的切块大小和存储的副本数量,都是由客户端决定!
所谓的由客户端决定,是通过配置参数来定的
hdfs的客户端会读以下两个参数,来决定切块大小、副本数量:
切块大小的参数: dfs.blocksize
副本数量的参数: dfs.replication

上面两个参数应该配置在客户端机器的hadoop目录中的hdfs-site.xml中配置
vim /root/apps/hadoop-3.0.3/etc/hadoop/hdfs-site.xml

<property>
<name>dfs.blocksize</name>
<value>64m</value>
</property>

<property>
<name>dfs.replication</name>
<value>2</value>
</property>
  • 1
    点赞
  • 29
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值