使用tez引擎出现内存溢出问题

当我们使用hive引擎的时候,有时候会出现yarn调度资源内存不足或者java堆内存溢出的问题:

[Error: Error while running task ( failure ) : java.lang.OutOfMemoryError: Java heap space
[2020-12-25 15:17:34,519] {bash_operator.py:127} INFO -  at java.nio.HeapByteBuffer.<init>(HeapByteBuffer.java:57)

第一步: 打开hive-env.sh文件,修改hadoop 堆内存大小:

export HADOOP_HEAPSIZE=3072

第二步: 打开hadoop 的yarn-site.xml文件,增加如下内容::

<property>
        <name>yarn.scheduler.maximum-allocation-mb</name>
        <value>2048</value>
</property>
<property>
        <name>yarn.scheduler.minimum-allocation-mb</name>
        <value>2048</value>
</property>
<property>
        <name>yarn.nodemanager.vmem-pmem-ratio</name>
        <value>2.1</value>
</property>
<!--增加java运行内存-->
<property>
        <name>mapred.child.java.opts</name>
        <value>-Xmx1024m</value>
</property>
<!--关闭yarn的虚拟检查-->
<property>
<name>yarn.nodemanager.vmem-check-enabled</name>
<value>false</value>
</property>

到这里一般就可以了,如果还不行,尝试使用下面第三步参数调优!

第三步: 调优(资源允许的情况下)

这个时候需要我们调整tez的参数,如下

–修改tez container大小由2G调到8G

hive.tez.container.size=8192

–TEZ MAP split最小值由16M调为64M

tez.grouping.min-size=67108864 (需要在hive-site文件中自定义新增)

–tez 设置输出排序内存大小由512M调整至2G

tez.runtime.io.sort.mb=2048

–表小于2G时把join转为MAPJOIN

hive.auto.convert.join.noconditionaltask.size=2147483648

–使用的缓冲区大小

tez.runtime.unordered.output.buffer.size-mb=512

参数调整完毕,问题解决

  • 1
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值