HDFS Command List

参数作用示例
appendToFile将一个或者多个本地
文件追加到目的文件
hadoop fs -appendToFile localfile /user/hadoop/hadoopfile
cat输出文件hadoop fs -cat file:///file3 /user/hadoop/file4
chgrp改变文件的分组hadoop fs -chgrp [-R] GROUP URI [URI ...]
chmod改变文件的权限hadoop fs -chmod [-R] <MODE[,MODE]... | OCTALMODE> URI [URI ...]
chown改变文件的拥有者hadoop fs -chown [-R] [OWNER][:[GROUP]] URI [URI ]
copyFromLocal从本地复制 
copyToLocal复制到本地 
count得到文件/目录等数目
追加参数-q, -h有不同的意义
hadoop fs -count -q hdfs://nn1.example.com/file1
cp复制,参数-f,-phadoop fs -cp /user/hadoop/file1 /user/hadoop/file2
du得到指定文件的大小hadoop fs -du /test/hadoop
dus已摒弃,和du类似 
expunge清空回收站hadoop fs -expunge
get复制文件到本地路径下hadoop fs -get /user/hadoop/file localfile
getfacl显示文件或者目录的权限控制列表hadoop fs -getfacl /file
hadoop fs -getfacl -R /dir
getfattr显示文件或者目录的扩展属性hadoop fs -getfattr -d /file
getmerge合并多个文件一个目标文件里hadoop fs -getmerge <src> <localdst> [addnl]
ls和linux里一样hadoop fs -ls /user/hadoop/file1
lsr等同于ls -R 
mkdir创建目录,-p创建多层目录hadoop fs -mkdir /user/hadoop/dir1 /user/hadoop/dir2
moveFromLocal类似put,区别在于put完后删除
原文件
 
moveToLocal目前没有实现 
mv移动文件hadoop fs -mv /user/hadoop/file1 /user/hadoop/file2
put像目标目录推送文件hadoop fs -put localfile /user/hadoop/hadoopfile
rm删除文件hadoop fs -rm hdfs://nn.example.com/file /user/hadoop/emptydir
rmr类似于rm -r 
setfacl设置文件或者目录的权限控制列表hadoop fs -setfacl -m user:hadoop:rw- /file
setfattr设置文件或者目录的扩展属性hadoop fs -setfattr -n user.myAttr -v myValue /file
setrep改变文件和目录的复制因子hadoop fs -setrep -w 3 /user/hadoop/dir1
stat返回路径信息hadoop fs -stat path
tail输出文件的最后1千字节hadoop fs -tail pathname
test检查文件hadoop fs -test -e filename
text以文本方式输出文件hadoop fs -text <src>
touchz创建空文件hadoop fs -touchz pathname
classpath打印得到hadoop jar和所需类库的class路径hadoop classpath
fsck诊断文件系统健康状态的工具,能够帮助发现丢失的文件或数据块。parmeters :-delete 删除损坏的文件。
-files 打印被诊断的文件。
-files-blocks 打印被诊断的文件的块信息。
-files-blocks-locations 打印每个块的位置信息。
-files-blocks-racks 打印数据块的网络拓扑结构
-includeSnapshots 如果给定的路径包含快照的路径或者快照在该路径下,则包含快照的数据。
-list-corruptfileblocks 打印丢失的块列表以及块所属的文件。
-move 移动损坏的文件到/lost+found目录。
-openforwrite 打印正在被写入的文件。
fetchdthdfs脚本支持fetchdt命令来获取DelegationToken(授权标识),并存储在本地文件系统的一个文件中。这样“非安全”的客户端可以使用该标识去访问受限的服务器(例如NameNode)。可以采用RPC或HTTPS(over Kerberos)方式获取该标示,在获取之前需要提交Kerberos凭证(运行kinit来获得凭证)。当你获得授权标识后,通过指定环境变量HADOOP_TOKEN_FILE_LOCATION为授权标识文件名,你就可以运行HDFS命令,而不需要Kerberros凭证了。hadoop fetchdt [--webservice <namenode_http_addr>] <path>
getconf(需要系统配置, 否则无法使用)获取配置信息parameters:-namenodes 在集群中获取NameNode列表。
-secondaryNameNodes 在集群中获取secondaryNameNode列表
-backupNodes 在集群中获取backup node节点列表。
-includeFile 获取dfs.hosts配置的值,该值定义了哪些DataNode加入到集群。
-excludeFile 获取dfs.hosts.exclude配置的值,该值定义了哪些DataNode排除在集群之外。
-nnRpcAddresses 获取Namenode的RPC地址
-confKey[key] 获取配置文件中的值。
discp远程传输--从哪里传输到哪里hadoop distcp maprfs:///mapr/HPEHOU4-shared-dev/clickhpe/test hdfs://g4t7508.houston.hpecorp.net:8020/clickhpe
jar提交Jar包, 运行MapReduce任务hadoop jar [Main Class] args
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值