Map/Reduce的内存使用设置

本文介绍了在10台异构机器组成的Hadoop集群上进行500G数据运算分析的测试过程。通过调整Map/Reduce并发数及内存设置,解决了内存不足的问题,提出配置优化原则:Map并发数不超过CPU核数,且Map的并发数乘以每个任务内存占用不应超过节点总内存。此外,强调了硬件性能对计算效率的影响,以及在异构集群中考虑差异化配置的重要性。
摘要由CSDN通过智能技术生成

一、背景

今天采用10台异构的机器做测试,对500G的数据进行运算分析,业务比较简单,集群机器的结构如下:

A:双核CPU×1、500G硬盘×1,内存2G×1(Slaver),5台

B:四核CPU×2、500G硬盘×2,内存4G×2(Slaver),4台

C:四核CPU×2、500G硬盘×2,内存4G×8(Master),1台

软件采用Hadoop 0.20.2,Linux操作系统。

二、过程

1、制造了500G的数据存放到集群中。

2、修改配置,主要是并发的Map和Reduce数量。修改如下图:

QQ截图未命名

3、修改mapred-site.xml配置文件中的mapred.child.java.opts参数为-Xmx2046m

4、启动Job,半路出现了Cannot allocate memory错误,明显是内存分配不

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值