Hadoop-HDFS基本原理

Hadoop (HDFS)

Hadoop Distributed File System,分布式文件系统
hdfs-architecture.png
架构中的基本概念

  • block

    • 基本存储单位,一般64M,比数据库中的页要大很多
    • 基本的读写单位,类似于磁盘的页,每次都是读写一个块
    • 每个块都会被复制到多台机器,默认复制3份
    • 配置大的block 减少搜寻时间,一般硬盘传输速率比寻道时间要快,大的块可以减少寻道时间
    • 每个块都需要在NameNode上有对应的记录
    • 对数据块进行读写,减少建立网络的连接成本
    • 一个大文件会被拆分成一个个的块,然后存储于不同的机器。如果一个文件少于Block大小,那么实际占用的空间为其文件的大小
  • NameNode

    • 存储文件的metadata,运行时所有数据都保存到内存,整个HDFS可存储的文件数受限于NameNode的内存大小
    • 一个Block在NameNode中对应一条记录(一般一个block占用150字节),如果是大量的小文件,会消耗大量内存。同时map task的数量是由splits来决定的,所以用MapReduce处理大量的小文件时,就会产生过多的map task,线程管理开销将会增加作业时间。处理大量小文件的速度远远小于处理同等大小的大文件的速度。因此Hadoop建议存储大文件
    • 数据会定时保存到本地磁盘,但不保存block的位置信息,而是由DataNode注册时上报和运行时维护
    • NameNode中与DataNode相关的信息并不保存到NameNode的文件系统中,而是NameNode每次重启后,动态重建
    • NameNode失效则整个HDFS都失效了,所以要保证NameNode的可用性
  • Secondary NameNode

    • 定时与NameNode进行同步,定期合并文件系统镜像和编辑日志,然后把合并后的传给NameNode,替换其镜像,并清空编辑日志,类似于CheckPoint机制
    • NameNode失效后仍需要手工将其设置成主机
  • DataNode

    • 保存具体的block数据
    • 负责数据的读写操作和复制操作
    • DataNode启动时会向NameNode报告当前存储的数据块信息,后续也会定时报告修改信息
    • DataNode之间会进行通信,复制数据块,保证数据的冗余性
      HDFS 可靠性
  • datanode不可靠,datanode定时发送心跳到Namenode,如果一段时间namenode没有datanode的心跳,则认为其失效,这时Namenode就会将该节点的数据从该节点的复制节点中copy到另外的datanode中,来保证datanode的复制数[图片上传中…(hdfs-read.png-b7387-1550415506760-0)]

  • 数据可以毁坏,和datanode失效一样,如果通过检验码检测到数据有问题,同样会复制一份正确的数据到健康的节点

  • Namenode也是有可能损坏的,要注意,namenode损坏后整个HDFS就毁了了,所以要做好Namenode备份工作,比如建立HA,或者把namenode数据写入外部库

HDFS - 写文件

hdfs-write.png

  1. 客户端发起将数据写入文件
  2. 数据会先写入本地临时文件,当临时文件达到一个block的大小时,HDFS client通知NameNode,申请写入文件
  3. NameNode在HDFS的文件系统中创建文件,并把blockid和datanode的列表返回给客户端
  4. 客户端收到信息,将临时文件写入DataNodes
    1. 客户端将文件内容写入第一个DataNode,一般以4Kb为单位进行传输
    2. 第一个DataNode接收后,将数据写入本地磁盘,同时也传输给第二个DataNode
    3. 依此类推到最后一个DataNode,数据在DataNode之间是通过pipeline的方式进行复制的
    4. 后面的DataNode接收完数据后,都会发送一个确认给前一个DataNode,最终第一个DataNode返回确认给客户端
    5. 当客户端接收到整个block的确认后,会向NameNode发送一个最终的确认信息
    6. 如果写入某个DataNode失败,数据会继续写入其他的DataNode。然后NameNode会找另外一个好的DataNode继续复制,以保证冗余性
    7. 每个block都会有一个校验码,并存放到独立的文件中,以便读的时候来验证其完整性
  5. 文件写完后,客户端关闭.NameNode提交文件,这时文件才可见.

HDFS-读文件

hdfs-read.png

  1. client向Namenode发送数据请求
  2. NameNode返回记录的文件的block和block所在的所有的datanode,包含复制节点
  3. client直接从DataNode中读取数据,如果datanode读取失败则从复制节点中读取

HDFS 命令

  • fsck :检查文件的完整性
  • start-balancer.sh 重新平衡HDFS
  • hdfs dfs -copyFromLocal 从本地磁盘复制文件到HDFS
  • 未完待续
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值