本文为博主九师兄(QQ:541711153 欢迎来探讨技术)原创文章,未经允许博主不允许转载。
1.概述
事情是这样的。使用开源的修改 https://github.com/ivi-ru/flink-clickhouse-sink flink http方式写入Clickhouse.
开始数据量小了没问题,最后数据量大了就会频繁OOM. 然后经过很长时间的排查
开始的现象是:【Flink】kafka Response from server for which there are no in-flight requests NETWORK_EXCEPTION
不是ck写入失败导致的因此和最新的代码没有什么关系
- 网络问题 您收到了 NETWORK_EXCEPTION,所以这应该告诉您与您生产的 Kafka Broker 的网络连接有问题。由于某种原因,代理关闭或 TCP 连接关闭。
- 出现了奇

博主九师兄分析了使用Flink通过HTTP方式写入Clickhouse时遇到的大对象导致的内存溢出(OOM)问题。问题源于大量数据直接进入老年代,且由于网络问题、Kafka缓存和重试机制,加剧了内存压力。解决方案包括调整NettyClient配置、减少并行度、优化重试机制等。
订阅专栏 解锁全文
662

被折叠的 条评论
为什么被折叠?



