比如在flink 消费kafka的程序中,出现多次kafka fetcher,map 2/10类似的日志,是因为在执行的任务的依赖里有log相关的依赖,建议exclue掉当前执行的任务的依赖中所有log4j,sl4j,logback等相关依赖,就可以解决这个问题
Flink 程序打印过多日志问题,日志过多解决
最新推荐文章于 2024-07-01 02:25:02 发布
在Flink程序中遇到kafkafetcher和map2/10的日志重复出现,可能由于任务依赖包含了log相关库。为消除这个问题,建议从当前任务的依赖中排除log4j、sl4j和logback等日志框架的依赖。
摘要由CSDN通过智能技术生成