1、创建user文件夹
hadoop -mkdir /user
2、显示目录下所有文件夹和文件
hadoop fs -ls #显示所有的文件
hadoop fs -ls -R #显示所有文件夹和文件
3、本地文件系统与HDFS
echo "this is a test.">>test.txt #创建一个test.txt
cat test.txt #通过cat检查文件并查看内容
hadoop fs-copyFromLocal test.txt #复制本地文件到HDFS
hadoop fs -cat test.txt #查看内容
存在hadoop fs即为hadoop命令,否则为本机系统命令。
4、安全模式
enter | leave | get | wait:安全模式命令。安全模式是NameNode的一种状态,在这种状态下,NameNode不接受对名字空间的更改(只读);不复制或删除块。
类似报错:SafeModeException: Cannot create directory /user/root/input/conf. Name node is in safe mode.
cat test.txt #通过cat检查文件并查看内容
hadoop fs-copyFromLocal test.txt #复制本地文件到HDFS
hadoop fs -cat test.txt #查看内容
(Ps:一早上都是leave完后get状态是off,但是下一步执行时又报错,重新get发现状态又变为on。下午上课回来后莫名可以leave了。)
5、执行Wordcount
hadoop jar /home/hadoop/hadoop-2.2.0/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.2.0.jar wordcount /user/hadoop/data/test.txt /user/hadoop/data/out
hadoop fs -cat /user/hadoop/data/out/part-r-00000 #查看结果
更多关于HDFS基础指令:点击打开链接