HDFS常用操作(一)
1.列出HDFS下的文件
$ cd /usr/local/hadoop
$ hadoop dfs -ls
2.列出HDFS下指定目录中的文件
$ cd /usr/local/hadoop
$ hadoop dfs -ls in
3.上传文件到HDFS指定目录并且重新命名
$ cd /usr/local/hadoop
$ hadoop dfs -put local_file1 hdfs_file1
注:可操作文件也可操作目录,只有所有的DataNode都接收完数据才算成功
4.从HDFS获取文件并且重新命名
$ cd /usr/local/hadoop
$ hadoop dfs -get hdfs_file1_1 locol_file1_1
注:同put一样可操作文件也可操作目录
5.从HDFS上删除指定文件
$ cd /usr/local/hadoop
$ hadoop dfs -rmr out
6.查看HDFS上指定目录的内容
$ cd /usr/local/hadoop
$ hadoop dfs -cat in/*
7.查看HDFS的基本统计信息
$ cd /usr/local/hadoop
$ hadoop dfsadmin -report
8.进入安全模式
$ cd /usr/local/hadoop
$ hadoop dfsadmin -safemode enter
9.退出安全模式
$ cd /usr/local/hadoop
$ hadoop dfsadmin -safemode leave
10.提交MapReduce JOB模式
原则上,hadoop所有的MapReduce Job都是一个jar 包
$ cd /usr/local/hadoop
运行/home/hadoop/myjob.jar的MapReduce Job
$ hadoop jar /home/hadoop/myjob.jar [jobMainClass] [jobArgs]