【Flink】Flink RocksDBListState getInternal 状态太大 导致OOM Java heap space

本文探讨了在Flink使用RocksDBListState时遇到的Java heap space OOM问题,分析了可能由于窗口内数据过多导致的内存溢出,并提出了缩小状态大小或调整窗口大小的解决方案。
摘要由CSDN通过智能技术生成

在这里插入图片描述
20220910 01:03 睡不着了,想着今天晚上一个小时重新撸了一遍开发了2个月的代码,重写了一遍。然后到家后发现又失眠了,最近总是容易失眠,九师兄干脆起来学习。

1.概述

FLink使用RocksDBListState 这个内存溢出,是不是这个窗口里面的数据太多了导致的?

在这里插入图片描述

本文出自 csdn 九师兄,防伪标志,本文由九师兄唯一发布。原地址:https://blog.csdn.net/qq_21383435

根据报错找到报错位置

    @Override
    public Iterable<V> get
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
当你在使用Flink时遇到"java.lang.OutOfMemoryError: Java heap space"错误时,这意味着Java堆内存不足以处理当前的任务或数据量。这通常是由于以下几个原因导致的: 1. 数据量过大:如果你的任务处理的数据量非常大,超过了Java堆内存的限制,就导致内存溢出错误。这可能是因为你的输入数据集太大,或者你的计算逻辑导致了大量的中间数据产生。 2. 内存设置不合理:Flink的任务执行需要合理的内存配置。如果你的任务需要更多的内存来处理数据,你可以通过调整Flink的任务管理器和执行器的内存设置来解决问题。 解决这个问题的方法有以下几种: 1. 增加Java堆内存:你可以通过增加Java堆内存的大小来解决这个问题。可以通过修改Flink的启动脚本或配置文件中的相关参数来实现。例如,可以通过设置`-Xmx`参数来增加最大堆内存大小。 2. 优化任务逻辑:检查你的任务逻辑是否存在内存泄漏或者不必要的数据复制等问题。尽量减少中间数据的产生和复制,可以使用Flink提供的一些优化技术,如状态后端选择、数据本地性等。 3. 增加并行度:如果你的任务可以进行并行处理,可以尝试增加任务的并行度。这样可以将数据分散到更多的任务实例中,减少每个任务实例的内存压力。 4. 使用外部存储:如果你的数据量非常大,无法在有限的内存中处理,可以考虑使用外部存储来存储和处理数据。Flink提供了与各种外部存储系统(如Hadoop HDFS、Amazon S3等)的集成,可以将数据存储在外部存储中,并通过Flink进行处理。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

九师兄

你的鼓励是我做大写作的动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值