kafka.common.OffsetOutOfRangeException 问题处理

昨天夜里,storm的一个程序出问题了,诚惶诚恐啊。报kafka.common.OffsetOutOfRangeException 异常:


分析一下原因:

是由于 kafka-spout 获取kafka的数据的时候获取不到,kafka 的 offset 超出现存的范围。
深入分析:
        由于storm程序启动的时候,读取kafka数据的方式是从头读取(-2),当kafkaspout 的task      发生异常,storm会重新调度,重新起一个kafspout任务运行。新的kafkaspout会从zookeeper中获取最早的offset,而我们的kafka保存数据的时间为一天。这个时候kafkaspout获取的offset仍然是zookeeper中保存的以前初始的offset,这个offset的数据已经不存在了。

后续处理:
        首先,将任务重跑,使用的读取模式仍然是从头读取,将任务统计的数据先补上。等到零点,重新运行程序,需要在任务启动的时候使用当前的offset模式(-1)。

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
这个错误是由于在配置中将序列化器(serializer)错误地设置为反序列化器(deserializer)引起的。根据引用\[1\]和引用\[2\]的信息,错误信息显示了key.serializer的配置错误,将org.apache.kafka.common.serialization.StringSerializer错误地设置为了org.apache.kafka.common.serialization.Deserializer。这是一个配置错误,因为key.serializer应该是一个实现了org.apache.kafka.common.serialization.Serializer接口的类。同样,根据引用\[3\]的信息,错误信息还显示了key.deserializer的配置错误,将org.apache.kafka.common.serialization.StringDeserializer错误地设置为了org.apache.kafka.common.serialization.StringDeserializer。这也是一个配置错误,因为key.deserializer应该是一个实现了org.apache.kafka.common.serialization.Deserializer接口的类。要解决这个问题,你需要将key.serializer和key.deserializer的配置正确地设置为实现了相应接口的类。 #### 引用[.reference_title] - *1* [class org.apache.kafka.common.serialization.StringSerializer is not an instance of org.apache.kafka.](https://blog.csdn.net/m0_58353740/article/details/129407257)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [org.apache.kafka.common.serialization.StringDeserializer could not b](https://blog.csdn.net/weixin_46376562/article/details/125402974)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [kafka消费者报错:Class org.apache.kafka.common.serialization.StringDeserializer could not be found.](https://blog.csdn.net/yixiaoqi2010/article/details/88987929)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值