HadoopHDFS

使用场景

hdfs适合超大文件的存储,指的是几百M,几百G甚至几百T的文件。

由于namenode将文件系统的元数据存储在内存中,因此文件系统所能存储的文件总数受限于namenode的内存容量。每个文件、目录和数据块的存储信息大约占用150字节,如果有一百万个文件、每个文件一个数据块,大约需要300M的内存。

一般概念

HDFS有block的概念,默认是128M。HDFS的块比磁盘块(一般512字节)大,可以最小化寻址开销。但是参数不应该设置过大,MapReduce任务通常一次只处理一个块中的数据,如果任务数太少,作业运行会比较慢。

namenode:
管理文件系统命名空间,维护文件系统树以及整棵树内所有的文件和目录。如果namenode丢失,文件系统上的所有文件都会丢失,因为不能根据datanode上的块重建namenode文件。

datanode:
工作节点,根据需要存储并检索数据块。

块缓存:
通常datanode从磁盘读取数据,但是对于访问频繁的文件,其对应的块可能被显示地缓存在datanode的内存中,以堆外块缓存的形式存在。默认配置下,一个块仅缓存在一个datanode的内粗中,可以针对每个文件配置datanode的数量。 用户可以通过在缓存池(cache pool)中增加一个cache directive来告诉namenode需要缓存哪些文件及多久。

联邦HDFS:
namenode内存会成为限制集群的瓶颈。联邦配置可以让每个namenode管理文件系统一部分的命名空间,比如一个namenode管理/user目录下的文件,另一个namenode管理/share目录下的文件。
每个namenode维护一个命名空间卷,由命名空间的元数据和一个数据块池组成,数据块池包含改命名空间下文件的所有数据块。命名卷之间相互独立,不互相通信,一个namenode失效,不会影响其他正常运行的namenode维护的命名空间的可用性。数据块池不进行切分,因此一个datanode,需要注册到每个namenode,并且存储着来自多个数据块池的数据。

journalnode:
实现共享编辑日志的功能,实现hdfs ha。

zkfc:
通过一个简单的心跳机制实现,监视namenode是否失效,并在namenode失效时进行故障切换。

hdfs权限:
rwx r:只读权限 w:写权限 x:可执行权限,与普通概念不同,hdfs上无法执行文件,这个权限用于访问一个目录的子项,对于文件而言,这个权限没有意义。

其他访问方式:
非Java访问hdfs
第一种,namenode和datanode内嵌的web服务器作为WebHDFS端节点。
第二种,通过Httpfs作为代理访问,默认监听14000端口。

读数据流程
写数据流程

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值