Hadoop常用命令

一、Hadoop的hdfs dfs命令

参数作用示例返回值
appendToFile将一个或者多个本地
文件追加到目的文件
hdfs dfs -appendToFile localfile 
/user/hadoop/hadoopfile
Returns 0 on success and 1 on error
cat输出文件hdfs dfs -cat file:///file3 /user/hadoop/file4Returns 0 on success and -1 on error
chgrp改变文件的分组hdfs dfs -chgrp [-R] GROUP URI [URI ...] 
chmod改变文件的权限hdfs dfs -chmod [-R] <MODE[,MODE]... | 
OCTALMODE> URI [URI ...]
 
chown改变文件的拥有者hdfs dfs -chown [-R] [OWNER][:[GROUP]] URI [URI ] 
copyFromLocal从本地复制  
copyToLocal复制到本地  
count得到文件/目录等数目
追加参数-q, -h有不同的意义
hdfs dfs -count -q hdfs://nn1.example.com/file1Returns 0 on success and -1 on error
cp复制,参数-f,-phdfs dfs -cp /user/hadoop/file1 /user/hadoop/file2Returns 0 on success and -1 on error
du得到指定文件的大小hdfs dfs -du /test/hadoopReturns 0 on success and -1 on error.
dus已摒弃,和du类似  
expunge清空回收站hdfs dfs -expunge 
get复制文件到本地路径下hdfs dfs -get /user/hadoop/file localfileReturns 0 on success and -1 on error
getfacl显示文件或者目录的
权限控制列表
hdfs dfs -getfacl /file
hdfs dfs -getfacl -R /dir
Returns 0 on success and non-zero on error
getfattr显示文件或者目录的扩展属性hdfs dfs -getfattr -d /fileReturns 0 on success and non-zero on error
getmerge合并多个文件一个目标文件里hdfs dfs -getmerge <src> <localdst> [addnl] 
lslinux里一样hdfs dfs -ls /user/hadoop/file1Returns 0 on success and -1 on error
lsr等同于ls -R  
mkdir创建目录,-p创建多层目录hdfs dfs -mkdir /user/hadoop/dir1 /user/hadoop/dir2Returns 0 on success and -1 on error
moveFromLocal类似put,区别在于put完后删除
原文件
  
moveToLocal目前没有实现  
mv移动文件hdfs dfs -mv /user/hadoop/file1 /user/hadoop/file2Returns 0 on success and -1 on error
put像目标目录推送文件hdfs dfs -put localfile /user/hadoop/hadoopfileReturns 0 on success and -1 on error
rm删除文件hdfs dfs -rm hdfs://nn.example.com/file /
user/hadoop/emptydir
Returns 0 on success and -1 on error
rmr类似于rm -r  
setfacl设置文件或者目录的
权限控制列表
hdfs dfs -setfacl -m user:hadoop:rw- /fileReturns 0 on success and non-zero on error
setfattr设置文件或者目录的扩展属性hdfs dfs -setfattr -n user.myAttr -v myValue /fileReturns 0 on success and non-zero on error
setrep改变文件和目录的复制因子hdfs dfs -setrep -w 3 /user/hadoop/dir1Returns 0 on success and -1 on error
stat返回路径信息hdfs dfs -stat pathExit Code: Returns 0 on success 
and -1 on error
tail输出文件的最后1千字节hdfs dfs -tail pathnameReturns 0 on success and -1 on error
test检查文件hdfs dfs -test -e filename 
text以文本方式输出文件hdfs dfs -text <src> 
touchz创建空文件hdfs dfs -touchz pathnameReturns 0 on success and -1 on error

二、Hadoop的hdfs dfsadmin命令

  1)文件/文件夹/空间大小限制命令

  hdfs dfsadmin -setQuota 10 lisi  限制lisi目录只能有10个文件或者文件夹

  hdfs dfsadmin -clrQuota lisi  清除lisi目录下的文件或者文件夹个数限制

  hdfs dfsadmin -setSpaceQuota 4k /lisi/  设置lisi目录的空间大小

  hdfs dfsadmin -clrSpaceQuota  /lisi/  清除lisi目录下的空间大小限制  

  hdfs dfs -count -q -h /lisi  查看lisi目录的文件夹或文件个数、空间大小限制情况

  2)安全模式  

  hdfs dfsadmin -safemode get  获取安全模式开启状态

  hdfs dfsadmin -safemode enter  进入安全模式

  hdfs dfsadmin -safemode leave  退出安全模式

  hdfs dfsadmin -safemode   等待安全模式结束

 

 

#hadoop fs -ls /  查看HDFS根目录
#hadoop fs -mkdir /test 在根目录创建一个目录test

    #hadoop fs -mkdir /test1 在根目录创建一个目录test1

#echo -e 'hadoop second lesson' >test.txt
#hadoop fs -put ./test.txt /test 
或#hadoop fs -copyFromLocal ./test.txt /test
#cd ..

    #hadoop fs -get /test/test.txt .

   或#hadoop fs -getToLocal /test/test.txt .

#hadoop fs -cp /test/test.txt /test1
#hadoop fs -rm /test1/test.txt
#hadoop fs -mv /test/test.txt /test1
#hadoop fs -rmr /test1  
#hadoop fs -appendToFile

转载于:https://www.cnblogs.com/cstzhou/p/5468415.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值