在操作前我们需要在 .bashrc 文件中配置环境变量,这样Hadoop命令可以在任意目录执行,而不用写全路径
创建目录:
hdfs dfs -mkdir -p /test/01/02
创建文件:
hdfs dfs -touchz /tset/123
hdfs dfs -appendToFile 文件 /test/123
列出目录:
hdfs dfs -ls /
hdfs dfs -ls -h -R /
hdfs dfs -lsr /
查找:
hdfs dfs -find / -name 456
查看文件内容:
hdfs dfs -cat /test/01/123
hdfs dfs -text /test/01/123
hdfs dfs -tail -f /test/01/123
删除:
hdfs dfs -rm -r -f /test/01/456
复制:
hdfs dfs -cp /test/123 /test/01/02
hdsf dfs -cp /test/123 /test/456
移动重命名:
hdsf dfs -mv /test/123 /test/01
hdfs dfs -mv /test/123 /test/01/222
上传:
hdfs dfs -put ./README.test /test
hdfs dfs -moveFromLocal ./README.test /test
hdfs dfs -copyFromLocal ./README.test /test
下载:
hdfs dfs -get /test/README /
hdfs dfs -copyToLocal / /
hdfs dfs -moveToLOcal / /
合并下载:
hdfs dfs -getmerge /test/01 /home/getmer
修改权限:
hdfs dfs -chmod 666 /test/456
hdfs dfs -chmod u-w,o-w /test/456
修改所属:
hdfs dfs -chown tom /test/tom
修改组:
hdfs dfs -chgrp -tom /test/456
设置副本:
hdfs dfs -setrep 2 /test/456
查看目录所用空间:
hdfs dfs -df /
hdfs dfs -df -h /