hadoop_hdfs命令

标注一下:最近学hadoop,看的是尚硅谷的视频,做的笔记

hdfs[hadoop2]使用命令(不管打开opt下的hadoop还是不打开都没有干扰):

[hadoop fs -命令 源文件夹/文件 目标文件夹/文件]


1.创建一个三国文件夹
       

         vim weiguo.txt
         vim shuguo.txt
         vim wuguo.txt
         vim weiguo2.txt


2.1上传:
    2.1.1本地文件(shuguo.txt)剪切粘贴到hdfs的(sanguo文件夹)
       

   hadoop fs -moveFromLocal ./shuguo.txt /sanguo


    2.1.2本地文件(weiguo.txt)复制粘贴到hdfs的(sanguo文件夹)
       

   hadoop fs -copyFromLocal weiguo.txt /sanguo


          (hadoop fs -copyFromLocal weiguo.txt /sanguo 这两个运行是一样的不必拘泥于路径的配置)
     2.1.3使用put复制粘贴(等同于copyFromlocal)
         

   hadoop fs -put ./wuguo.txt /sanguo


     2.1.4使用appendToFile追加数据(hdfs的缺点:只允许追加不允许修改且只能在文件末尾追加)
         

  hadoop fs -appendToFile weiguo2.txt /sanguo/weiguo.txt


2.2下载
      2.2.1(copyToLocal) 从hdfs拷贝sanguo文件夹的所有文件到本地目录
         

   hadoop fs -copyToLocal /sanguo/shuguo.txt ./


      2.2.2 get 将sanguo文件夹的shuguo.txt拷贝为shuguo2.txt
         

  hadoop fs -get /sanguo/shuguo.txt ./shuguo2.txt


2.3直接操作
      2.3.1 ls查看全部文件夹 :

 hadoop fs -ls /


      2.3.2 ls查看当前文件夹的文件:

hadoop fs -ls /sanguo


      2.3.3 cat查看文件:

hadoop fs -cat /sanguo/shuguo.txt


      2.3.4 修改权限(group):

hadoop fs -chown atguigu:atguigu /sanguo/shuguo.txt


      2.3.5 mkdir创建文件夹:

hadoop fs -mkdir /jinguo


      2.3.6 cp从hdfs的一个路径拷贝到hdfs的另一个路径(相当于hdfs文件之间的拷贝):

hadoop fs -cp /sanguo/shuguo.txt  /jinguo


       2.3.7 mv在hdfs中剪切移动文件:

hadoop fs -mv /sanguo/wuguo.txt  /jinguo


       2.3.8 rm删除文件或者文件夹:

hadoop fs -rm /sanguo/weiguo2.txt


       2.3.9 对副本的修改(如只需要一个副本)-遵循距离最近向量算法
             

 hadoop fs -setrep 10 /jinguo/shuguo.txt

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值