查看集群下的文件:hadoop fs -ls /
删除某个文件:hadoop fs -rm /文件名
要从HDFS中删除文件夹,可以使用以下命令:
hadoop fs -rm -r -skipTrash /folder_name
创建目录:hadoop fs -mkdir /目录名
查看文件内容(文本文件):hadoop fs -text /文件名
上传文件到hadoop根目录:hadoop fs -put ./hadoop-2.7.3.tar.gz /
此时我们到网页里查看信息也显示出来了。
点进去查看
分为了两个块,大小也有显示,位于了slave1/2/3三台机器上。
修改hadoop默认复制存储文件数(最多512份)
vim hdfs-site.xml
如下代码,我修改为两份:
<configuration>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
</configuration>
还可以设置检查时间为每隔两分钟检查机器(默认5分钟300000ms),这里没做实验。
<configuration>
<property>
<name>dfs.replication</name>
<value>2</value>
</property><property>
<name>dfs.namenode.hearbeat.recheck-interval</name>
<value>120000</value>
</property>
</configuration>
关闭集群 stop-dfs.sh
再开启集群 start-dfs.sh
然后将JDK文件上传到hadoop集群查看效果
如图,完成!