标注一下:最近学hadoop,看的是尚硅谷的视频,做的笔记
hdfs[hadoop2]使用命令(不管打开opt下的hadoop还是不打开都没有干扰):
[hadoop fs -命令 源文件夹/文件 目标文件夹/文件]
1.创建一个三国文件夹
vim weiguo.txt
vim shuguo.txt
vim wuguo.txt
vim weiguo2.txt
2.1上传:
2.1.1本地文件(shuguo.txt)剪切粘贴到hdfs的(sanguo文件夹)
hadoop fs -moveFromLocal ./shuguo.txt /sanguo
2.1.2本地文件(weiguo.txt)复制粘贴到hdfs的(sanguo文件夹)
hadoop fs -copyFromLocal weiguo.txt /sanguo
(hadoop fs -copyFromLocal weiguo.txt /sanguo 这两个运行是一样的不必拘泥于路径的配置)
2.1.3使用put复制粘贴(等同于copyFromlocal)
hadoop fs -put ./wuguo.txt /sanguo
2.1.4使用appendToFile追加数据(hdfs的缺点:只允许追加不允许修改且只能在文件末尾追加)
hadoop fs -appendToFile weiguo2.txt /sanguo/weiguo.txt
2.2下载
2.2.1(copyToLocal) 从hdfs拷贝sanguo文件夹的所有文件到本地目录
hadoop fs -copyToLocal /sanguo/shuguo.txt ./
2.2.2 get 将sanguo文件夹的shuguo.txt拷贝为shuguo2.txt
hadoop fs -get /sanguo/shuguo.txt ./shuguo2.txt
2.3直接操作
2.3.1 ls查看全部文件夹 :
hadoop fs -ls /
2.3.2 ls查看当前文件夹的文件:
hadoop fs -ls /sanguo
2.3.3 cat查看文件:
hadoop fs -cat /sanguo/shuguo.txt
2.3.4 修改权限(group):
hadoop fs -chown atguigu:atguigu /sanguo/shuguo.txt
2.3.5 mkdir创建文件夹:
hadoop fs -mkdir /jinguo
2.3.6 cp从hdfs的一个路径拷贝到hdfs的另一个路径(相当于hdfs文件之间的拷贝):
hadoop fs -cp /sanguo/shuguo.txt /jinguo
2.3.7 mv在hdfs中剪切移动文件:
hadoop fs -mv /sanguo/wuguo.txt /jinguo
2.3.8 rm删除文件或者文件夹:
hadoop fs -rm /sanguo/weiguo2.txt
2.3.9 对副本的修改(如只需要一个副本)-遵循距离最近向量算法
hadoop fs -setrep 10 /jinguo/shuguo.txt