1.输出某个命令参数(例如rm):hadoop fs -help rm
hadoop fs -help rm
2.创建某个文件夹(例如yyy文件夹):hadoop fs -mkdir /yyy
hadoop fs -mkdir /yyy
上传
3.从本地剪切粘贴到HDFS:hadoop fs -moveFromLocal ./xxx.txt /yyy
hadoop fs -moveFromLocal ./xxx.txt /yyy
4.从本地文件系统中拷贝文件到HDFS路径去:hadoop fs -copyFromLocal ./xyy.txt /yyy
或hadoop fs -put ./xyy.txt /yyy
hadoop fs -copyFromLocal ./xyy.txt /yyy
5.追加一个文件到已经存在的文件末尾:hadoop fs -appendToFile wyy.txt /yyy/xyy.txt
hadoop fs -appendToFile wyy.txt /yyy/xyy.txt
下载
6.从HDFS拷贝到本地:hadoop fs -copyToLocal /yyy/xyy.txt ./
或hadoop fs -get /yyy/xyy.txt ./
hadoop fs -copyToLocal /yyy/xyy.txt ./
HDFS直接操作
7.显示目录信息:hadoop fs -ls /yyy
8.显示文件内容:hadoop fs -cat /yyy/xyy.txt
9.修改文件所属权限(与linux中用法一样): chmod chown chgrp
10.创建路径:hadoop fs -mkdir /maomi
11.从HDFS一个路径拷贝到HDFS另一个路径: hadoop fs -cp /yyy/xyy.txt maomi
12.在HDFS目录中移动文件:hadoop fs -mv /yyy/xxx.txt /maomi
13.显示一个文件的末尾1kb的数据: hadoop fs -tail /maomi/xyy.txt
14.删除文件或文件夹:hadoop fs -rm /yyy/xyy.txt
15.递归删除目录及目录里面内容:hadoop fs -rm -r /yyy
16.统计文件夹的大小信息: hadoop fs -du -s -h /maomi
hadoop fs -du -h /maomi
17.设置HDFS中文件的副本数量:hadoop fs -setrep 10 /maomi/yyy.txt