HDFS目录和文件Shell操作
推荐使用Ubuntu16+Hadoop 2.7.x版本,不会出现什么问题
1、首先进入Hadoop环境
cd /usr/local/hadoop
2、启动Hadoop
./sbin/start-dfs.sh
3、查看Hadoop是否启动成功
jps
看到以上内容说明启动成功了
4、查看hadoop fs支持的所有命令
./bin/hdfs dfs
5、查看Hadoop下put的使用方法
./bin/hadoop fs -help put
6、创建一个用户目录
./bin/hdfs dfs -mkdir -p /user/hadoop
7、用shell查询命令查看我们在路径user下面创建的文件夹
./bin/hdfs dfs -ls /user
8、创建一个二级目录, 在根目录下创建一个input文件夹
./bin/hdfs dfs -mkdir /input
9、查看根目录下创建的文件夹
./bin/hdfs dfs -ls /
10、删除目录,删除刚才创建的input文件夹
./bin/hdfs dfs -rm -r /input
11、查看input文件夹是否被删除
./bin/hdfs dfs -ls /
可以看见创建的input文件夹已经被删除了
12、创建一个txt文件、编辑文件内容
touch first.txt
gedit first.txt
13、将first.txt文件上传到user/Hadoop/input目录下
./bin/hdfs dfs -put ./first.txt /user/hadoop/input
14、在[user/hadoop/input]目录下查看上传的first.txt文件
./bin/hdfs dfs -ls /user/hadoop/input
15、查看first.txt文件内容
./bin/hdfs dfs -cat /user/hadoop/input/first.txt
16、将HDFS中的first.txt文件下载到本地文件系统中
./bin/hdfs dfs -get /user/hadoop/input/first.txt /home/zhangjian/下载
已经成功将first.txt文件从HDFS文件系统下载到本地了