1:创建HDFS目录
例子: hadoop fs -mkdir /user 建立user 文件夹
2:列出HDFS目录
例子:hadoop fs -ls / 查看根文件目录
3:本地文件 HDFS文件夹:上传文件
hadoop fs -copyFromLocal /root/1.txt /user
hadoop fs -copyFromLocal /root/1.txt /user 如果文件已经存在,则不会复制。
仍要复制,则强制复制
hadoop fs -f -copyFromLocal /root/1.txt /user
4:put上传
hadoop fs -put /root/1.txt /user 也为复制,但是可以接收标准输入
ls | hadoop fs -put - /user/3.txt:将本地文件目录存储到hdfs的3.txt文件中
5:hadoop fs -cat /user/1.txt
显示hdfs文件的具体内容
6:从hdfs到本地文件:
hadoop fs -copyToLocal /user/3.txt
7:hdfs的复制与删除:
hadoop fs -cp /user/3.txt /user1 复制文件
hadoop fs -rm /user1/3.txt 删除文件
hadoop fs -rm -R/user1 强制删除目录
在这里必须要记录我的辛酸泪
hadoop fs -copyFromLocal /root/1.txt /user
上传的时候,提示我们
File /test/test.txt.COPYING could only be rep