hdfs dfs -expunge 清理hdfs的垃圾空间
常用命令:
1.-help[cmd]显示命令的帮助信息
1.#hdfs dfs -help ls
2.-ls(r)显示当前目录下的所有文件 -R层层循环文件夹
1.#hdfs dfs -ls /log/map
2.#hdfs dfs -lsr /log/ (递归显示)
3. -mv 移动多个文件目录到目标目录
1.#hdfs dfs -mv /user/hadoop/file1 /user/hadoop/file2
4.-cp复制多个文件到目录
1.#hdfs -dfs -cp /user/hadoop/file1 /user/hadoop/file2(将文件从源路径复制到目标路径;
这个命令允许有多个源路径,此时目标路径必须是一个目录)
5.-rmr删除文件
1.#hdfs dfs -rmr /log/map1 (递归删除)
6.-put本地文件复制到hdfs(hdfs file的父目录一定要存在,否则命令不会执行,其实只是上传一个文件,重名了名而已)
1.hdfs dfs -put test.txt /log/map/
(put 后面是两个路径,一个是本地路径,一个是hdfs路径)
7.-copyFromLocal本地文件复制到hdfs
1.#hdfs dfs -copyFromLocal /usr/data/text.txt /log/map1
(将本地的text.txt 复制到hdfs的/log/map1/下)
8.-moveFromLocal本地文件移动到hdfs
1.#hdfs dfs -moveFromLocal /usr/data/text.txt /log/map1
(将本地文件text.txt移动到hdfs的/log/map1/下)
9.-get[-ignoreCrc]复制文件到本地,可以忽略CRC校验
1.#hdfs dfs -get /log/map1/* . (. 代表复制到本地当前目录下)
2.#hdfs dfs -get /log/map1/* /usr/data (将hdfs下的/log/map1/下的所有文件全部复制到本地的/usr/dta/下)
10.-cat在终端显示文件内容
1.#hdfs dfs -cat /log/map1/part-0000 |head (读取hdfs上的/log/map1下的part-0000文件 head参数,代表前十行。)
过滤grep
#hdfs dfs -cat /log/testlog/* | grep 过滤字段
11.-mkdir 创建文件夹 后跟一个-p 可以创建不存在的父路径
1.#hdfs dfs -mkdir -p /dir1/dir11/dir111
12.看哪个文件占用的空间比较大
hdfs dfs -du / 看那个文件下占用空间比较大
13.清除hdfs垃圾空间
hdfs dfs -expunge 清理hdfs的垃圾空间