主要面对终端操作
启动虚拟机集群,master data1 data2 data3
主要操作在master这台机器上完成
开启hdfs和yarn 同时开启
./sbin/start-all.sh 开启
./sbin/stop-all.sh 关闭
将本地文件复制到HDFS上,操作指令:
(1)将文件复制到HDFS上的目录
/usr/local/hadoop/bin/hadoop fs -copyFromLocal /usr/local/hadoop/README.txt /user/hadoop/test
如果文件已经存在:
文件存在,就会报错
(2)将文件复制到目标文件上:
/usr/local/hadoop/bin/hadoop fs -copyFromLocal /usr/local/hadoop/README.txt /user/hadoop/test/text2.txt
操作完成之后,显示HDFS上面的文件:
/usr/local/hadoop/bin/hadoop fs -ls /user/hadoop/test
查看HDFS目录下的文件内容
/usr/local/hadoop/bin/hadoop fs -cat /user/hadoop/test/README.txt
如果文件太大,可以加上‘|more’在命令的末尾,一页一页的显示
‘|more’指令之后,可以按页显示
复制多个本地文件至HDFS
/usr/local/hadoop/bin/hadoop fs -copyFromLocal /usr/local/hadoop/README.txt /usr/local/hadoop/NOTICE.txt /user/hadoop/test
复制成功之后
注意点:
-copyFromLocal
-put
(1)都是复制文件的指令,但是-put指令如果文件已经存在,系统不会显示文件已经存在,会直接覆盖
(2)put命令接收标准输入
echo hello_myself hadoop | /usr/local/hadoop/bin/hadoop fs -put - /user/hadoop/test/myselfhello_new.txt
成功之后的显示,使用cat指令打开目标文件
将HDFS的文件复制到本地计算机
/usr/local/hadoop/bin/hadoop fs -copyToLocal /user/hadoop/test/myselfhello_new.txt
注意点:
-copyToLocal
-get