云计算-HDFS部分复习(自用)

一、HDFS的架构

二、HDFS的优缺点

三、HDFS的基本组成

NameNode, SecondaryNameNode及DataNode

NameNode

        namenode下 edit log(操作日志)和fsimage(元信息,即最终剩下的信息)

DataNode

DataNode的机架感知策略(重点)

一拖三

这个就是一拖三

默认为副本数为3; HDFS上的文件对应的数据块保存有多个副本,且提供容错机制,副本丢失或宕机时自动恢复
第一个副本:放置在上传文件的数据节点;如果是集群外提交,则随机挑选一台磁盘不太满、CPU不太忙的节点。
第二个副本:放置在与第一个副本不同的机架的节点上。
第三个副本:与第二个副本相同机架的其他节点上。
更多副本:随机节点
 

SecondNameNode

HDFS的三种访问方式

1.通过Web Console

NameNode web的端口号为50070

SecondaryNameNode web的端口号为50090

四、HDFS基本操作

1.创建目录

hdfs dfs -mkdir [-p] <path>

2.列出文件和目录信息

hdfs dfs -ls [-d][-h][-R]<path>

3.查看存储系统信息

hdf dfsadmin -report[-live][-dead][-decommission]

4.上传文件到HDFS

1)hdfs dfs -put [-f][-p][-l]<localsrc>...<dst>

2)hdfs dfs -copyFromLocal [-f][-p][-l]<localsrc>...<dst>

3)hdfs dfs -moveFromLocal <localsrc>...<dst>(剪切)

5.查看文件内容

1)hdfs dfs -cat [-ignoreCrc] <src>...

2)hdfs dfs -text [-ignoreCrc] <src>...

3)hdfs dfs -tail [-f] <file>

6.合并小文件上传

hdfs dfs -appendToFile <localsrc>...<dst>

7.合并HDFS一个目录下所有文件并下载到本地

hdfs dfs -getmerge[-nl] <src> <localdst>

8.下载文件到本地文件系统

hdfs dfs -get [-p][-ignoreCrc][-crc]<src>...<localdst>

hdfs dfs -copyToLocal [-p][-ignoreCrc][-crc]<src>...<localdst>

9.删除文件和目录

hdfs dfs [-rm [-f][-r][-R][-skopTrash] <src> ...]

hdfs dfs [-rmdir[--ignore-fail-on-non-empty]<dir>...]

  • 9
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值