菜鸟笔记1:记一次kafka消费者异常掉线排查

导出文件的时候数据量比较大,采用异步的方案,页面点击导出,发送消息到kafka队列
消费者接收到消息之后开始处理数据导出文件,但是处理到一半,消费者突然没了

导致topic为data-export的这个主题的消息开始堆积

排查问题,发现只能在服务器上复现,本地程序能够正常消费的
1、怀疑是服务器上面的程序问题
2、怀疑是消费时超时导致的掉线

尝试过的解决方案:
1、排查代码,发现服务器上面的代码阻塞在下面的代码上,没有后续的日志输出

kafka

public static StringBuilder assembleData(List<Map<String,Object>> beans, List<InterfaceFileField> interfaceFileFieldList){
    StringBuilder data = new StringBuilder();
    for (Map<String,Object> dataMap:beans){
        for (InterfaceFileField interfaceFileField : interfaceFileFieldList){
            data = data.append(dataMap.get(interfaceFileField.getFieldCode().toUpperCase()));
        }
        data.append("\r\n");
    }
    return data;
}

a.怀疑是for循环次数过多,导致的超时假死,本地设置等待时间1分钟,结果正常消费,再服务器上写测试方法,这个循环时间在2秒内,排除;
b.调整服务器上面的应用启动内存 ,由原来的400M,修改为 800M,消费者可以正常消费,但在消费多次之后,消费者丢失,怀疑写TXT文件时内存没有及时释放

最后解决方案:
再次排查后发现原因时写TXT文件时内存没有及时释放,导致内存占用过高,线程挂起,消费者消费超时导致的消费者假死
修改写TXT文件的逻辑,改为单条写,写完释放内存

修改前:

StringBuilder stringBuilder = assembleData(beans, interfaceFileFieldList);
log.info("生成文件头:{},开始写文件内容");
BufferedWriter out = new BufferedWriter(new OutputStreamWriter(new FileOutputStream(path,appendFlag)));
out.write(fileHeader+"\r\n");
out.write(stringBuilder.toString());
out.write(fileEnd+"\r\n");
out.close();

修改后:

BufferedWriter out = new BufferedWriter(new OutputStreamWriter(new FileOutputStream(path,appendFlag)));
out.write(fileHeader+"\r\n");
for (Map<String,Object> dataMap:beans){
    StringBuilder stringBuilder = assembleData(dataMap, interfaceFileFieldList);
    out.write(stringBuilder.toString());
    out.flush();
}
out.write(fileEnd+"\r\n");
out.close();
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值