解决Hadoop运行jar包时MapReduce任务启动前OutOfMemoryError:Java heap space问题

在研究Mahout时,通过Hadoop执行jar包遇到MapReduce任务启动前的OutOfMemoryError。尝试了IDE配置、shell参数、JDK设置均未成功。最后在CSDN论坛找到解决方案,需要在hadoop-env.sh中添加-Xmx参数来调整内存配置。
摘要由CSDN通过智能技术生成

最近在研究Mahout开源代码时尝试利用MapReduce加载本地训练好的机器学习模型至集群并进行分布式预测,整个程序通过Hadoop jar XXXX.jar来执行,

期间由于需要在本地进行模型训练同时训练数据集条目较多模型规模比较大,导致在本地训练模型时JAVA报错:java.error.OutOfMemoryError:Java heap space

遇到问题后尝试通过Idea14的前端配置页面进行配置,无效;尝试在shell中添加-Xmx配置参数,无效;尝试在jdk中更改-Xmx参数,同样无效。

最终在http://bbs.csdn.net/topics/390922318 中找到ID为ramontop1的大神的正确解决方案:

前往hadoop安装目录下的hadoop-env.sh,我的Mac的相应目录路径为$~/hadoop-2.6.1/etc/hadoop/hadoop-env.sh

vi后找到如下的参数配置并添加-Xmx配置:

# Extra Java runtime options.  Empty by default.
exp
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值