Linux上传本地文件到Hadoop的HDFS文件系统

记录如何将本地文件上传至HDFS中

前提是已经启动了hadoop成功(nodedate都成功启动)

①先切换到HDFS用户

②创建一个input文件夹

zhangsf@hadoop1:~$ hdfs dfs -mkdir /input

多级创建的时候  hdfs dfs -mkdir -p /wifi/classify

查看创建的文件夹在 hadoop1:50070中查看(我自己的对应的是:  http://192.168.5.130:50070)

③将本地文件上传到HDFS,前面为 服务器中的文件路径,后面为HDFS中路径

zhangsf@hadoop1:~$ hdfs dfs -put /home/zhangsf/aaa.txt  /input
zhangsf@hadoop1:~$ hdfs dfs  -ls /input
Found 1 items
-rw-r--r--   2 zhangsf supergroup         89 2018-06-12 06:03 /input/aaa.txt

      其中 aaa.txt 是本地文件

zhangsf@hadoop1:~$ ls
aaa.txt  data  hadoop  hadoop2  opt  package
zhangsf@hadoop1:~$ pwd
/home/zhangsf

      查看自己上传成功了,也可以进入hadoop1:7077的

   Browse Directory中查看

查看

上传成功ok!

方法二: 使用moveFromLocal指令

zhangsf@hadoop1:~$ hadoop fs -moveFromLocal aaa.txt  /data

 

 

 

展开阅读全文
©️2020 CSDN 皮肤主题: 程序猿惹谁了 设计师: 上身试试 返回首页
实付0元
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、C币套餐、付费专栏及课程。

余额充值