hdfs dfs 相当于 hadoop fs。 hdfs命令和liunx很像,在你平时用的liunx前面加一个hdfs dfs -就可以了。 1.查看当前目录信息 hdfs dfs -ls /flume 2.创建文件夹 hdfs dfs -mkdir /flume 3.创建多级文件夹 hdfs dfs -mkdir -p /flume/h 4.移动文件 hdfs dfs -mv /路径 /路径 5.上传文件 hdfs dfs -put /本地路径 /路径 6.下载文件到本地 hdfs dfs -get /路径 /本地路径 7.合并下载 hdfs dfs -getmerge /路径文件夹 /合并后的文件 8. 复制hdfs文件 hdfs dfs -cp /路径 /路径 参数: -f选项覆盖已经存在的目标。 -p选项将保留文件属性 例子:hdfs dfs -cp -f -p /flume/log/day=20200708 /flume/log/day=20200608
(11)删除hdfs文件 hdfs dfs -rm /aa.txt
(12)删除hdfs文件夹 hdfs dfs -rm -r /hello
(13)查看hdfs中的文件 hdfs dfs -cat /文件 hdfs dfs -tail -f /文件
(14)查看文件夹中有多少个文件 hdfs dfs -count /文件夹
(15)查看hdfs的总空间 hdfs dfs -df /
hdfs dfs -df -h /
16.看文件大小: hdfs dfs -du -s -h /flume/log/day=20200723