黑猴子的家:HFDS命令行操作

1、基本语法

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs 具体命令
或者
[victor@node1 hadoop-2.8.2]$ bin/hdfs dfs 具体命令

2、HDFS参数大全

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs 

Usage: hadoop fs [generic options]
        [-appendToFile <localsrc> ... <dst>]
        [-cat [-ignoreCrc] <src> ...]
        [-checksum <src> ...]
        [-chgrp [-R] GROUP PATH...]
        [-chmod [-R] <MODE[,MODE]... | OCTALMODE> PATH...]
        [-chown [-R] [OWNER][:[GROUP]] PATH...]
        [-copyFromLocal [-f] [-p] [-l] [-d] <localsrc> ... <dst>]
        [-copyToLocal [-f] [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]
        [-count [-q] [-h] [-v] [-t [<storage type>]] [-u] [-x] <path> ...]
        [-cp [-f] [-p | -p[topax]] [-d] <src> ... <dst>]
        [-createSnapshot <snapshotDir> [<snapshotName>]]
        [-deleteSnapshot <snapshotDir> <snapshotName>]
        [-df [-h] [<path> ...]]
        [-du [-s] [-h] [-x] <path> ...]
        [-expunge]
        [-find <path> ... <expression> ...]
        [-get [-f] [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]
        [-getfacl [-R] <path>]
        [-getfattr [-R] {-n name | -d} [-e en] <path>]
        [-getmerge [-nl] [-skip-empty-file] <src> <localdst>]
        [-help [cmd ...]]
        [-ls [-C] [-d] [-h] [-q] [-R] [-t] [-S] [-r] [-u] [<path> ...]]
        [-mkdir [-p] <path> ...]
        [-moveFromLocal <localsrc> ... <dst>]
        [-moveToLocal <src> <localdst>]
        [-mv <src> ... <dst>]
        [-put [-f] [-p] [-l] [-d] <localsrc> ... <dst>]
        [-renameSnapshot <snapshotDir> <oldName> <newName>]
        [-rm [-f] [-r|-R] [-skipTrash] [-safely] <src> ...]
        [-rmdir [--ignore-fail-on-non-empty] <dir> ...]
        [-setfacl [-R] [{-b|-k} {-m|-x <acl_spec>} <path>]|[--set <acl_spec> <path>]]
        [-setfattr {-n name [-v value] | -x name} <path>]
        [-setrep [-R] [-w] <rep> <path> ...]
        [-stat [format] <path> ...]
        [-tail [-f] <file>]
        [-test -[defsz] <path>]
        [-text [-ignoreCrc] <src> ...]
        [-touchz <path> ...]
        [-truncate [-w] <length> <path> ...]
        [-usage [cmd ...]]

Generic options supported are
-conf <configuration file>     specify an application configuration file
-D <property=value>            use value for given property
-fs <file:///|hdfs://namenode:port> specify default filesystem URL to use, overrides 'fs.defaultFS' property from configurations.
-jt <local|resourcemanager:port>    specify a ResourceManager
-files <comma separated list of files>    specify comma separated files to be copied to the map reduce cluster
-libjars <comma separated list of jars>    specify comma separated jar files to include in the classpath.
-archives <comma separated list of archives>    specify comma separated archives to be unarchived on the compute machines.

The general command line syntax is
command [genericOptions] [commandOptions]

3、HDFS常用命令实操

(1) -help:输出这个命令参数

[victor@node1 hadoop-2.8.2]$ bin/hdfs dfs -help rm

(2) -ls: 显示目录信息

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -ls /

(3) -mkdir:在hdfs上创建目录

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -mkdir -p /aaa/bbb/cc/dd

(4) -moveFromLocal从本地剪切粘贴到hdfs

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -moveFromLocal /home/hadoop/a.txt  /aaa/bbb/cc/dd

(5) -moveToLocal:从hdfs剪切粘贴到本地(没有实现)

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -help moveToLocal
-moveToLocal <src> <localdst> :
  Not implemented yet

(6) --appendToFile :追加一个文件到已经存在的文件末尾

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -appendToFile ./hello.txt /hello.txt

(7) -cat:显示文件内容

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -cat /hello.txt

(8) –tail:显示一个文件的末尾

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -tail /weblog/access_log.1

(9) -chgrp 、-chmod、-chown:linux文件系统中的用法一样,修改文件所属权限

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -chmod 666 /hello.txt
[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -chown someuser:somegrp /hello.txt

(10) -copyFromLocal:从本地文件系统中拷贝文件到hdfs路径去

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -copyFromLocal ./jdk.tar.gz /aaa/

(11) -copyToLocal:从hdfs拷贝到本地

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -copyToLocal /user/hello.txt ./hello.txt

(12) -cp :从hdfs的一个路径拷贝到hdfs的另一个路径

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -cp /aaa/jdk.tar.gz /bbb/jdk.tar.gz.2

(13) -mv:在hdfs目录中移动文件

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -mv /aaa/jdk.tar.gz-入门 /

(14) -get:等同于copyToLocal,就是从hdfs下载文件到本地

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -get /user/hello.txt ./

(15) -getmerge:合并下载多个文件,比如hdfs的目录 /aaa/下有多个文件:log.1, log.2,log.3,...

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -getmerge /aaa/log.* ./log.sum

(16) -put:等同于copyFromLocal

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -put /aaa/jdk.tar.gz /

(17) -rm:删除文件或文件夹

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -rm -r /aaa/bbb/

(18) -rmdir:删除空目录

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -rmdir /aaa/bbb/ccc

(19) -df:统计文件系统的可用空间信息

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -df -h /

(20) -du统计文件夹的大小信息

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -du -s -h /user 

(21) -count:统计一个指定目录下的文件节点数量

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -count /user
嵌套文件层级:包含文件的总数

(22) -setrep:设置hdfs中文件的副本数量

[victor@node1 hadoop-2.8.2]$ bin/hadoop fs -setrep 3 /aaa/jdk.tar.gz

尖叫提示:这里设置的副本数只是记录在namenode的元数据中,是否真的会有这么多副本,还得看datanode的数量。
假设设置副本数为3,datanode节点数为2,最多2个副本,当datanode节点数为10,最多副本数为3

(23) 修改hdfs文件备份系数
hadoop dfs -setrep [-R] <path> 如果有-R将修改子目录文件的性质

[victor@node1 hadoop-2.8.2]$ bin/hadoop dfs -setrep -w 1 -R /user/hadoop/dir1 

就是把目录下所有文件备份系数设置为1.这个需要一些时间,感觉会扫描所有指定目录下的文件

(24) hdfs离开安全模式

[victor@node1 hadoop-2.8.2]$ bin/hadoop dfsadmin -safemode leave

(25) hadoop kill掉 yarn任务

[victor@node1 hadoop-2.8.2]$ bin/hadoop job -kill job_1526884826758_0015
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值