hadoop fs -ls hdfs:/192.168.117.101:9000/
hadoop fs -mkdir hdfs://192.168.117.101:9000/book
hadoop fs -copyFromLocal JAVA_learing.jar hdfs://192.168.117.101:9000/
//如果第二个地址是文件夹,该文件会被拷贝到文件夹里,否则该文件会被重命名
hadoop fs -copyFromLocal JAVA_learing.jar hdfs://192.168.117.101:9000/test.jar
hadoop fs -put filename hdfs://192.168.117.101:9000/
hadoop fs -get hdfs:/192.168.117.101:9000/filename
hadoop fs -rm -r hdfs:/192.168.117.101:9000/filename
hadoop fs -tail 文件名
+ 复制文件
hadoop distcp file1 file2
复制目录
hadoop distcp dir1 dir2
如果存在覆盖
hadoop distcp -overwrite dir1 dir2
更新
hadoop distcp -update dir1 dir2
备份
hadoop distcp -update -delete -p dir1 dir2
-delete代表删除目标路径中的多余文件
-p代表文件的属性如权限,块数,副本数被保留
不兼容版本HDFS复制
hadoop distcp webhdfs://dir1 webhdfs://dir2