查看文件:
1 hadoop fs -ls <path>
列出指定目录下的子目录,支持pattern匹配(例:hadoop fs -ls hdfs://ns19/user/ma/usr/shgua*)。
2 hadoop fs -ls -r <path>
递归列出该路径下所有子目录信息。
3 hadoop fs -du<path>
显示目录中所有文件大小,或者指定一个文件时,显示此文件大小。
4 hadoop fs -du -s<path>
显示文件大小,s代表显示只显示总计,列出最后的和。
移动文件:
5 hadoop fs -mv <src> <dst>
将目标文件移动到指定路径下,当src为多个文件,dst必须为目录。
6 hadoop fs -cp <src> <dst>
拷贝文件到目标位置,src为多个文件时,dst必须是个目录。
删除文件:
7 hadoop fs -rm <src>
删除匹配pattern的指定文件。
8 hadoop fs -rmr <src>
递归删除文件目录及文件。
hdfs dfs -rm -r /home/testdata
9 hadoop fs -rmi <src>
为了避免误删数据,加了一个确认。
hdfs dfs -rm -f /home/testdata/1.txt
创建文件:
hadoop fs -mkdir <path>
hdfs dfs -mkdir -p /home/testdata/
从本地移动文件:
10 hadoop fs -put <localsrc> ... <dst>
从本地系统拷贝到dfs中。
11 hadoop fs -copyFromLocal <localsrc>...<dst>
从本地系统拷贝到dfs中,与-put一样。
12 hadoop fs -moveFromLocal <localsrc>...<dst>
从本地系统拷贝文件到dfs中,拷贝完删除源文件。
13 hadoop fs -get <src> <localdst>
从dfs中拷贝文件到本地系统,文件匹配pattern,若是多个文件,dst必须是个目录。
14 hadoop fs -getmerge <src> <localdst>
从dfs中拷贝多个文件合并排序为一个文件到本地文件系统
15 hadoop fs -cat <src>
输出文件内容
hdfs version:查看版本