关于HADOOP_HEAPSIZE参数(转)

原文链接: http://www.oratea.net/?p=821

HADOOP_HEAPSIZE参数是控制hadoop的jvm内存大小的。

这个参数的设置要结合当前服务器的内存情况。

今天测试环境的hadoop出现问题,一些与jvm相关的操作都会报内存不够的错误,如下:

[hadoop@jdk1.6.0_20]$ jps Error occurred during initialization of VM Could not reserve enough space for object heap Could not create the Java virtual machine.
 
查看发现当前的HADOOP_HEAPSIZE大小为500M,而由于是测试环境,所以将NameNode,SecondNameNode以及DataNode都设置在这一台服务器上,所以当hadoop启动的时候会占据大量的内存,导致其他的jvm相关操作就报内存不够的错误。
 
最后将HADOOP_HEAPSIZE减少到200M,问题消失。
不过因为这台机器的内存比较小,以后执行那些大任务的时候可能200M不够用,还是有可能报内存不过的错误。

转载于:https://www.cnblogs.com/devops/archive/2013/04/23/3038977.html

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值