第118讲:Hadoop内存需求量及Namenode内存使用详解学习笔记

118讲:Hadoop内存需求量及Namenode内存使用详解学习笔记

本期内容:

1.hadoop的内存使用

2.namenode内存使用详解

namenode内存大小涉及到集群的规模。

hadoop默认为每一个终端分配1GBm内存

hadoop2.6.0mapperreducer都叫yarn child

具体在worker上运行的mapreduc任务个数取决于cpu个数。

如果设定mapreduc任务个数超过cpu个数,能得到更好的利用率。

mapreduc任务个数设为cpu(core)的个数的1-2倍比较好。

现在生产环境中每台worker机的内存一般为32G内存。

ganglia监控集群中的内存和cpu的使用状况。

namenode节点非常消耗内存:

1.block个数

2.文件名称的长度 

3.系统目录的个数

 

1GB内存可以管理百万个block文件。

例:bolck128M,副本为3个,200台集群,4TB数据,需要的Namenode内存为:

200x 4000000MB / (128MB x 3)

 

secondary namenode需要的内存与namenode需要的内存大概一样。

一般secondary namenodenamenodef运行在不同机器上。

 

以上内容是从王家林老师DT大数据课程第118讲的学习笔记。
DT大数据微信公众账号:DT_Spark  

王家林老师QQ:1740415547 

王家林老师微信号:18610086859
DT大数据梦工厂1至118集scala的所有视频、PPT和代码在百度云盘的链接:http://pan.baidu.com/share/home?uk=4013289088#category/type=0&qq-pf-to=pcqq.group

 

第118讲视频网站地址:

51CTO

http://edu.51cto.com/lesson/id-77404.html

 

 

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值