Hadoop根据加工数据量计算Datanode数量

根据数据量及Hadoop参数计算Datanode的个数

  • 每天加工数据量:100GB
  • 复制因子:3
  • 月增长量:5%
  • MapReduce中间数据:25%
  • 非HDFS空间:30%
  • 节点磁盘空间:4T

计算方法:

  1. 每天存储数据量所需要空间 = 每天加工数据量 x 复制因子 = 300GB
  2. 每月数据量 = (300 x 30) x (1 + 5%) = 9450GB
  3. 节点实际容量 = 4 x (1 - (0.25 + 0.30)) = 1.8T

**所需Datanode个数(当月):9.450/1800 ~= 6 **

如果要计算全年数据量所需要节点数,需考虑到月增长率

另:因为hdfs自身复制机制,所以没必要在Datanode上使用RAID机制

转载于:https://my.oschina.net/snowpipe/blog/748649

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值