1、查看指定目录下内容
hadoop fs -ls /user/vsearch/vts_sy/liweiya/6m_10m_newbook_chapter_pv
2、查看指定文件前几条数据
hadoop fs -cat /user/vsearch/vts_sy/liweiya/20211001/000000_0 | head
3、从hdfs下载文件/文件夹到开发机
hadoop fs -get [hadoop文件/文件夹路径] [本地文件/文件夹路径]
hadoop fs -get /user/vsearch/vts_sy/liweiya/20211001/000000_0
4、将本地文件/文件夹存储至hadoop
hadoop fs –put [本地地址] [hadoop目录]
例:hadoop fs –put /home/t/file.txt /user/t
hadoop fs –put [本地目录] [hadoop目录]
例:hadoop fs –put /home/t/dir_name /user/t
(dir_name是文件夹名)
5、将hadoop上某个文件down至本地已有目录下
hadoop fs -get [文件目录] [本地目录]
hadoop fs –get /user/t/ok.txt /home/t
6、删除hadoop上指定文件
hadoop fs –rm [文件地址]
hadoop fs –rm /user/t/ok.txt
7、删除hadoop上指定文件夹(包含子目录等)
hadoop fs –rm [目录地址]
hadoop fs –rmr /user/t
8、在hadoop指定目录内创建新目录
hadoop fs –mkdir /user/t
hadoop fs -mkdir - p /user/centos/hadoop
9、在hadoop指定目录下新建一个空文件
hadoop fs -touchz /user/new.txt
10、将hadoop上某个文件重命名
hadoop fs –mv /user/test.txt /user/ok.txt (将test.txt重命名为ok.txt)
11、将hadoop指定目录下所有内容保存为一个文件,同时down至本地
hadoop fs –getmerge /user /home/t
注意:
1.getmerge方法只能将文件夹底下的全部文件合并,不支持通配符;
2.使用cat命令,cat支持通配符,但是它合并成的文件还是在hdfs上,只能合并完之后拉到本地。
例如:hadoop fs -cat /app/ecom/fcr/ztc-datas/tmp/liuxiao/test/*A | hadoop fs -put - /app/ecom/fcr/ztc-datas/tmp/liuxiao/test/merge.txt
这个命令是将test文件夹底下的全部以A结尾的文件合并成merge.txt;
然后再hadoop fs -get将merge.txt拉到本地就可以了;
补充
1.对hdfs操作的命令格式是hdfs dfs
1.1 -ls 表示对hdfs下一级目录的查看
1.2 -lsr 表示对hdfs目录的递归查看
1.3 -mkdir 创建目录
1.4 -put 从Linux上传文件到hdfs
1.5 -get 从hdfs下载文件到linux
1.6 -text 查看文件内容
1.7 -rm 表示删除文件
开发机配置hadoop命令:
1、下载hadoop-client客户端
2、正常使用Hadoop的机器拉一个conf文件到开发机
3、修改环境变量,取别名:
vim ~/.bashrc
# 最后一行增加下面这条语句
alias hadoop='hadoop --config /home/liweiya/hadoop-client/hadoop/conf'