librdkafka producer封装的一点总结

本文总结了librdkafka producer在处理内部队列满时的策略,包括设置队列长度和消息超时时间,以及如何利用DeliveryReportCb处理超时数据,避免数据丢失。在程序退出时,通过调用flush方法和序列化缓存队列到本地文件,确保数据完整性。探讨了librdkafka内部队列可能导致的数据丢失问题及其解决方案。
摘要由CSDN通过智能技术生成

librdkafka的producer有一个内部的队列,我们可以设置队列的最大长度(或者内存),队列满了之后,调用produce接口会返回RdKafka::ERR__QUEUE_FULL,此时可以把数据重新添加到我们自己的缓存队列
比如将队列长度设置为10000,

if (conf->set("queue.buffering.max.messages", "10000", errstr) != RdKafka::Conf::CONF_OK) {
   
			printf_s("RdKafka conf set brokerlist failed :%s\n", errstr.c_str())
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值