【Spark 实战系列】sparkstreaming 任务出现堆积如何优化?(流量突然大增资源不够怎么办?)

本文探讨了SparkStreaming任务数据堆积的原因和影响,包括任务延迟和应用崩溃。提出了反压优化策略,如并发任务数增加、开启反压机制、限制拉取速率,并结合代码配置实例进行说明。此外,通过动态资源分配应对业务高峰期,避免资源浪费,确保数据处理效率。
摘要由CSDN通过智能技术生成

sparkstreaming 任务出现堆积如何优化?(流量突然大增资源不够怎么办?)

前言

在日常的生产中,什么情况下会出现数据堆积呢?大概有两种情况:

  1. 由于要修改业务逻辑,streaming 任务暂停,但是这个时候上游 kafka 里面的数据在不断的生产,等你修改完代码,重新启动任务的时候,kafka 里面就会堆积了很多的数据,在一个 interval 时间内处理不完,就造成了堆积。
  2. 平时正常运行的任务,在业务高峰期,有高于正常情况几倍甚至几十倍的数据打到 kafka 里,这个时候因为资源是固定的,就会出现处理不过来的情况,任务就会堆积,你总不能等到高峰期来的时候把任务停掉,增加资源后再启动吧?或者可以提前把资源给多一点,但是这样会造成资源的浪费,因为平时是用不了那么多资源的,只有在业务高峰的时候才会用到。

数据堆积有什么影响呢?

在出现堆积的时候,本应该 12 点整调度起来的任务,延迟了 5 分,在 12 点 5 分调度起来,后面的任务都会延迟,堆积的 job 就会越来越多,可能会达到几万个,最后出现的情况就是数据处理延迟变大,甚至会

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

JasonLee实时计算

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值