hadoop fs:使用面最广,可以操作任何文件系统。
hadoop dfs与hdfs dfs:只能操作HDFS文件系统相关(包括与Local FS间的操作),前者已经Deprecated,一般使用后者。
可通过【-help 命令名称】 查看帮助。
1.创建目录
hdfs fs -mkdir /user/test
2.上传文件
hdfs fs -put test.txt user/test
3.上传文件到HDFS
hdfs dfs put filename newfilename
4.列出hdfs上的文件
hdfs -dfs -ls
5.列出hdfs某个文件夹下的文件
hdfs -dfs -ls 文件夹名
6.查看hdfs下某个文件内容
hdfs -dfs -cat 文件名
7.查看hdfs某个文件夹下所有文件内容
hdfs -dfs -cat 文件名/*
8.将hdfs文件复制到本地文件系统
hdfs -dfs -get 文件名 新文件名
9.删除hdfs下的文件(递归删)
hdfs dfs -rmr 文件夹
10.格式化hdfs
hdfs NameNode -format
11.将多个文件复制到同一个目录下
hdfs fs -cp URI {URI...}
12.显示hdfs文件夹大小
hdfs fs -dus 文件夹
13.显示hdfs文件大小
hdfs fs -du 文件路径和文件名
14.清空hdfs回收站
hdfs fs -expunge
15.复制hdfs文件到本地
hdfs fs -get src dest
17.修改hdfs文件的副本数(—R递归所目录下所有文件)
hdfs -fs -setrep -w -R 文件路径
18.返回hdfs文件的路径统计信息
hdfs fs -stat URI
19.查看文件末尾1KB的内容
hdfs fs -tail pathname
20.检查文件是否存在
hdfs fs -test uri
21.检查路径是否是个目录
hdfs fs -test -d filename
22.将原文件以text格式输出
hdfs fs -text src
23.创建一个空文件
hdfs fs -touchz pathname
24.报告hdfs的基本信息
hdfs dfsadmin -report
25.进入离开安全模式
hdfs dfsadmin -sagemode enter/leave
26.重新负载均衡
bin/start-balancer.sh