命令 说明
1.执行:hadoop fs -mkdir /park
hadoop fs -mkdir -p /park
在hdfs 的根目录下,创建 park目录
2.执行:hadoop fs -ls / 查看hdfs根目录下有哪些目录
3.执行:hadoop fs -put /root/1.txt /park 将linux操作系统root目录下的1.txt放在hdfs的park目录下
4.执行:hadoop fs -get /park/jdk /home 把hdfs文件系统下park目录的文件下载到linux的home目录下
5.执行:hadoop fs -rm /park/文件名 删除hdfs 的park目录的指定文件
6.执行:hadoop fs -rmdir /park 删除park目录,但是前提目录里没有文件
7.执行:hadoop fs -rmr /park 删除park目录,即使目录里有文件
8.执行:hadoop fs -cat /park/a.txt 查看park目录下的a.txt文件
9.执行:hadoop fs -tail /park/a.txt 查看park目录下a.txt文件末尾的数据
10.执行:haddop jar xxx.jar 执行jar包
11.执行:hadoop fs –mv /park02
/park01
将HDFS上的park02目录重名为park01命令。
12.执行:hadoop fs -mv /park02/1.txt
/park01
将park02目录下的1.txt移动到/park01目录下
13.执行:hadoop fs -touchz /park/2.txt 创建一个空文件
14.执行:hadoop fs -getmerge /park
/root/tmp
将park目录下的所有文件合并成一个文件,并下载到linux的root目录下的tmp目录
15.执行:hadoop dfsadmin -safemode
leave 离开安全模式
执行:hadoop dfsadmin -safemode
enter 进入安全模式
安全模式下无法进行写服务
17.执行:hadoop dfsadmin -rollEdits 手动执行fsimage文件和Edis文件合并元数据
18.执行:hadoop dfsadmin -report 查看存活的datanode节点信息
19.执行:hadoop fsck /park 汇报/park目录 健康状况
20.执行:hadoop fsck /park/1.txt
-files -blocks -locations -racks
查看1.txt 这个文件block信息以及机架信息
hadoop fs -cp /park01/1.txt
/park02
将HDFS上 /park01下的1.txt拷贝一份到 /park02目录下。
目标路径可以有多个,用空格隔开,比如:
hadoop fs -cp /park01/1.txt /park02 /park03……
hadoop fs -du /park/1.txt 查看HDFS上某个文件的大小。也可以查看指定目录,如果是目
录的话,则列出目录下所有的文件及其大小,比如:
hadoop fs -du /park
hadoop fs -copyFromLocal
/home/1.txt /park01
将本地文件1.txt上传到/park01目录下
hadoop fs -copyToLocal
/park01/1.txt /home
将HDFS上的1.txt 拷贝到本地文件系统
hadoop fs -ls -R / 递归查看指定目录下的所有内容