kafka一些问题

本文讨论了在遇到Kafka数据大小超过max.request.size限制时的问题及解决方案。主要内容包括调整Kafka配置参数,如max.partition.fetch.bytes和max.request.size,以及处理大消息的策略,如消息切片、压缩和使用共享存储。此外,还提到了性能、内存管理和垃圾回收的影响,强调在设计之初就要考虑大消息的影响。
摘要由CSDN通过智能技术生成

调优(max.request.size)

严重的bug,现象是:

       1.一执行迁移程序,数据库连接就超时。

       2.kafka连接不上,同时查看error.log日志,kafka一直报数据大小超过kafka最大的发送size(kafka max.request.size)。也就是那天根本没有上线成功是失败的。那么我们是怎么处理的呢?

 

下面以yml配置为例:

消费数据:

    properties:

        max.partition.fetch.bytes: 15000000

生产数据:

    properties:

        max.request.size: 15000000

 

总结

整理问题:

        1.熟悉线上环境数据有多大。

        2.认真熟悉kafka的配置文件。同时配置越大并不一定是万能的,需要配置加上代码相互。

补充知识点:

Kafka设计的初衷是迅速处理短小的消息,一般10K大小的消息吞吐性能最好(可参见LinkedIn的kafka性能测试)。但有时候,我们需要处理更大的消息,比如XML文档或JSON内容,一个消息差不多有10-100M,这种情况下,Kakfa应该如

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值