启动Hadoop
- 进入HADOOP_HOME目录。
- 执行sh bin/start-all.sh
关闭Hadoop
- 进入HADOOP_HOME目录。
- 执行sh bin/stop-all.sh
1、查看指定目录下内容
hadoop dfs –ls [文件目录]
eg: hadoop dfs –ls /user/
2、打开某个已存在文件
hadoop dfs –cat [file_path]
eg:hadoop dfs -cat /user/susu
3、将本地文件存储至hadoop
hadoop fs –put [本地地址] [hadoop目录]
Eg:hadoop fs –put /home/susu/text.txt /user/susu/text.txt
(text.txt是文件名)
4、将本地文件夹存储至hadoop
hadoop fs –put [本地目录] [hadoop目录]
eg: hadoop fs –put /home/susu/dir_name /user/text.txt
(dir_name是文件夹名)
5、将hadoop上某个文件down至本地已有目录下
hadoop fs -get [文件目录] [本地目录]
eg:hadoop fs –get /user/susu/ok.txt /home/susu
6、删除hadoop上指定文件
Hadoop fs –rm [文件地址]
Eg: hadoop fs –rm /user/susu/text.txt
7、删除hadoop上指定文件夹(包含子目录等)
Hadoop fs –rm [目录地址]
Eg:hadoop fs –rmr /user/susu
8、在hadoop指定目录内创建新目录
hadoop fs –mkdir /user/susu
9、在hadoop指定目录下新建一个空文件
使用touchz命令:
hadoop fs -touchz /user/text.txt
10、将hadoop上某个文件重命名
使用mv命令:
hadoop fs –mv /user/test.txt /user/susu.txt (将test.txt重命名为susu.txt )
11、将hadoop指定目录下所有内容保存为一个文件,同时down至本地
Hadoop dfs –getmerge /user /home/susu
12、将正在运行的hadoop作业kill掉
Hadoop job –kill [job-id]
13、检查文件是否存在
hadoop fs -test -e /home/susu/text.txt
14、检查文件是否为0字节
hadoop fs -test -z /home/susu/text.txt
15、检查路径是否是目录
hadoop fs -test -d /home/susu