Flink使用log4j.properties不打印日志问题

日志配置文件log4j.properties用于设置Flink程序的日志级别,但因log4j2的依赖导致日志未正常打印。解决方案是移除lib目录下的log4j2相关jar包,如log4j-1.2-api-2.12.1.jar等。配置中包括了对akka、Kafka、Hadoop和Zookeeper的日志级别设定,以及日志滚动和大小限制的设置。
摘要由CSDN通过智能技术生成

日志配置文件选择使用log4j.properties flink程序不打印日志。

问题原因
        日志依赖包冲突

解决办法
        将lib目录下的log4j2依赖移除,如下:
        log4j-1.2-api-2.12.1.jar
        log4j-api-2.12.1.jar
        log4j-core-2.12.1.jar
        log4j-slf4j-impl-2.12.1.jar

log4j.properties

# This affects logging for both user code and Flink
log4j.rootLogger=INFO, infoFile

# The following lines keep the log level of common libraries/connectors on
# log level INFO. The root logger does not override this. You have to manually
# change the log levels here.
log4j.logger.akka=INFO
log4j.logger.org.apache.kafka=INFO
log4j.logger.org.apache.hadoop=INFO
log4j.logger.org.apache.zookeeper=INFO

# Log all infos in the given file
log4j.appender.infoFile=org.apache.log4j.RollingFileAppender
log4j.appender.infoFile.File=${log.file}
log4j.appender.infoFile.layout=org.apache.log4j.PatternLayout
log4j.appender.infoFile.layout.ConversionPattern=%d{yyyy/MM/dd HH:mm:ss,SSS} %p %C.%M(%L) | %m%n
log4j.appender.infoFile.append=true
log4j.appender.infoFile.MaxFileSize=32MB
log4j.appender.infoFile.MaxBackupIndex=128

# Suppress the irrelevant (wrong) warnings from the Netty channel handler
log4j.logger.org.apache.flink.shaded.akka.org.jboss.netty.channel.DefaultChannelPipeline=ERROR, file

# We only log the kafka appender logs to File to avoid deadlocks
log4j.logger.cloudera.shaded.org.apache.kafka=INFO, file
log4j.additivity.cloudera.shaded.org.apache.kafka=false

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值