Slf4j,LogBack,Log4j之间的关系
slf4j 是The Simple Logging Facade for Java的简称,是一个简单日志门面抽象框架,它本身只提供了日志Facade API和一个简单的日志类实现,一般常配合 Log4j , LogBack , java.util.logging 使用。Slf4j作为应用层的Log接入时,程序可以根据实际应用场景动态调整底层的日志实现框架(Log4j/LogBack/JdkLog...);
LogBack 和Log4j都是开源日记工具库,LogBack是Log4j的改良版本,比Log4j拥有更多的特性,同时也带来很大性能提升。
LogBack 官方建议配合Slf4j使用,这样可以灵活地替换底层日志框架。
LogBack的结构
LogBack分为3个组件,logback-core, logback-classic 和 logback-access。
logback-core提供了LogBack的核心功能,是另外两个组件的基础。
logback-classic则实现了Slf4j的API,所以当想配合Slf4j使用时,则需要引入这个包。
logback-access是为了集成Servlet环境而准备的,可提供HTTP-access的日志接口。
LogBack取代Log4j的理由
1、更快的实现
Logback的内核重写了,在一些关键执行路径上性能提升10倍以上。而且logback不仅性能提升了,初始化内存加载也更小了。
2、Logback-classic非常自然实现了SLF4j
Logback-classic实现了SLF4j。在使用SLF4j中,你都感觉不到logback-classic。而且因为logback-classic非常自然地实现了SLF4J,所以切换到log4j或者其他,非常容易,只需要提供成另一个jar包就OK,根本不需要动那些通过SLF4JAPI实现的代码。
3、非常充分的文档
官方网站有两百多页的文档。
4、自动重新加载配置文件
当配置文件修改了,Logback-classic能自动重新加载配置文件。扫描过程快且安全,它并不需要另外创建一个扫描线程。这个技术充分保证了应用程序能跑得很欢在JEE环境里面。
5、Lilith
Lilith是log事件的观察者,和log4j的chainsaw类似。而lilith还能处理大数量的log数据 。
6、谨慎的模式和非常友好的恢复
在谨慎模式下,多个FileAppender实例跑在多个JVM下,能 够安全地写道同一个日志文件。RollingFileAppender会有些限制。Logback的FileAppender和它的子类包括 RollingFileAppender能够非常友好地从I/O异常中恢复。
7、配置文件可以处理不同的情况
开发人员经常需要判断不同的Logback配置文件在不同的环境下(开发,测试,生产)。而这些配置文件仅仅只有一些很小的不同,可以通过 <if>,<then>和<else>标签来实现,这样一个配置文件就可以适应多个环境。
8、Filters(过滤器)
有些时候,需要诊断一个问题,需要打出日志。在log4j,只有降低日志级别,不过这样会打出大量的日志,会影响应用性能。在Logback,你可以继续 保持那个日志级别而除掉某种特殊情况,如alice这个用户登录,她的日志将打在DEBUG级别而其他用户可以继续打在WARN级别。要实现这个功能只需 加4行XML配置。可以参考MDCFIlter 。
9、SiftingAppender(一个非常多功能的Appender)
它可以用来分割日志文件根据任何一个给定的运行参数。如,SiftingAppender能够区别日志事件跟进用户的Session,然后每个用户会有一个日志文件。
10、自动压缩已经打出来的log
RollingFileAppender在产生新文件的时候,会自动压缩已经打出来的日志文件。压缩是个异步过程,所以甚至对于大的日志文件,在压缩过程中应用不会受任何影响。
11、堆栈树带有包版本
Logback在打出堆栈树日志时,会带上包的数据。
12、自动去除旧的日志文件
通过设置TimeBasedRollingPolicy或者SizeAndTimeBasedFNATP的maxHistory属性,你可以控制已经产生日志文件的最大数量。如果设置maxHistory 12,那那些log文件超过12个月的都会被自动移除。
总之,logback比log4j太优秀了 !!!
Maven依赖
<!-- slf4j-api -->
<dependency>
<groupId>org.slf4j</groupId>
<artifactId>slf4j-api</artifactId>
<version>1.7.12</version>
</dependency>
<!-- logback -->
<dependency>
<groupId>ch.qos.logback</groupId>
<artifactId>logback-core</artifactId>
<version>1.1.3</version>
</dependency>
<dependency>
<groupId>ch.qos.logback</groupId>
<artifactId>logback-classic</artifactId>
<version>1.1.3</version>
</dependency>
配置文件说明(详细说明见:https://www.cnblogs.com/DeepLearing/p/5663178.htm)(https://www.cnblogs.com/warking/p/5710303.html)
<?xml version="1.0" encoding="UTF-8"?>
<configuration>
<!--定义日志文件的存储地址 勿在 LogBack 的配置中使用相对路径-->
<property name="LOG_HOME" value="c:/log" />
<!-- 目的地1:控制台输出 -->
<appender name="STDOUT" class="ch.qos.logback.core.ConsoleAppender">
<!-- 日志输出编码 -->
<Encoding>UTF-8</Encoding>
<layout class="ch.qos.logback.classic.PatternLayout">
<!--格式化输出:%d表示日期,%thread表示线程名,%-5level:级别从左显示5个字符宽度%msg:日志消息,%n是换行符-->
<pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger{50} - %msg%n
</pattern>
</layout>
</appender>
<!-- 目的地2:按照每天生成日志文件 -->
<appender name="FILE" class="ch.qos.logback.core.rolling.RollingFileAppender">
<Encoding>UTF-8</Encoding>
<rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
<!--日志文件输出的文件名-->
<FileNamePattern>${LOG_HOME}/myApp.log.%d{yyyy-MM-dd}.log</FileNamePattern>
<!--最多保留30天log-->
<MaxHistory>30</MaxHistory>
</rollingPolicy>
<layout class="ch.qos.logback.classic.PatternLayout">
<!--格式化输出:%d表示日期,%thread表示线程名,%-5level:级别从左显示5个字符宽度%msg:日志消息,%n是换行符-->
<pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger{50} - %msg%n</pattern>
</layout>
<!--日志文件超过20兆时,出发滚动策略-->
<triggeringPolicy class="ch.qos.logback.core.rolling.SizeBasedTriggeringPolicy">
<MaxFileSize>20MB</MaxFileSize>
</triggeringPolicy>
</appender>
<!--目的地3;日志异步到数据库 -->
<appender name="DB" class="ch.qos.logback.classic.db.DBAppender">
<!--日志异步到数据库 -->
<connectionSource class="ch.qos.logback.core.db.DriverManagerConnectionSource">
<!--连接池 -->
<dataSource class="com.mchange.v2.c3p0.ComboPooledDataSource">
<driverClass>com.mysql.jdbc.Driver</driverClass>
<url>jdbc:mysql://127.0.0.1:3306/databaseName</url>
<user>root</user>
<password>root</password>
</dataSource>
</connectionSource>
</appender>
<!-- show parameters for hibernate sql 专为 Hibernate 定制 -->
<logger name="org.hibernate.type.descriptor.sql.BasicBinder" level="TRACE" />
<logger name="org.hibernate.type.descriptor.sql.BasicExtractor" level="DEBUG" />
<logger name="org.hibernate.SQL" level="DEBUG" />
<logger name="org.hibernate.engine.QueryParameters" level="DEBUG" />
<logger name="org.hibernate.engine.query.HQLQueryPlan" level="DEBUG" />
<!-- 日志输出级别 -->
<root level="INFO">
<appender-ref ref="STDOUT" />
<appender-ref ref="FILE" />
</root>
</configuration>
例子:
<?xml version="1.0" encoding="UTF-8"?>
<configuration scan="false" scanPeriod="300 seconds" debug="true">
<!--本地日志目录-->
<property name="USER_HOME" value="D://logs//logback-srv"/>
<property name="LOG_MSG" value="%X{sid}%d{yyyy-MM-dd HH:mm:ss.SSS} [%t] %-5p [%c:%L] - %m%n"/>
<property name="LOG_DIR" value="${USER_HOME}/%d{yyyyMMdd}"/>
<appender name="STDOUT" class="ch.qos.logback.core.ConsoleAppender">
<encoder>
<pattern>${LOG_MSG}</pattern>
</encoder>
</appender>
<appender name="DEBUG_LOG" class="ch.qos.logback.core.rolling.RollingFileAppender">
<filter class="ch.qos.logback.classic.filter.ThresholdFilter">
<level>DEBUG</level>
</filter>
<File>${USER_HOME}/service_debug.log</File>
<rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
<FileNamePattern>${LOG_DIR}/service_debug%i.log</FileNamePattern>
<TimeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP">
<maxFileSize>20MB</maxFileSize>
</TimeBasedFileNamingAndTriggeringPolicy>
</rollingPolicy>
<encoder>
<pattern>${LOG_MSG}</pattern>
</encoder>
</appender>
<appender name="SQL_LOG" class="ch.qos.logback.core.rolling.RollingFileAppender">
<filter class="ch.qos.logback.classic.filter.ThresholdFilter">
<level>DEBUG</level>
</filter>
<File>${USER_HOME}/service_sql.log</File>
<rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
<FileNamePattern>${LOG_DIR}/service_sql%i.log</FileNamePattern>
<TimeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP">
<maxFileSize>20MB</maxFileSize>
</TimeBasedFileNamingAndTriggeringPolicy>
</rollingPolicy>
<encoder>
<pattern>${LOG_MSG}</pattern>
</encoder>
</appender>
<appender name="INFO_LOG" class="ch.qos.logback.core.rolling.RollingFileAppender">
<file>${USER_HOME}/service_info.log</file>
<!--
logger和root是界别取用精确的logger;filter是在确定级别后进行过滤
如果确定级别后是info级别 而filter是debug级别 则按照info
如果确定级别后是debug级别 而filter是indo级别 则按照info
就是说确定级别后的级大于filter的级别则不需要过滤,如果确定级别后的级小于filter的级别则需要过滤取用filter的级别
-->
<filter class="ch.qos.logback.classic.filter.ThresholdFilter">
<level>INFO</level>
</filter>
<rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
<fileNamePattern>${LOG_DIR}/service_info%i.log</fileNamePattern>
<appender-ref ref="ERROR_LOG"/>
<appender-ref ref="INFO_LOG"/>
<TimeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP">
<maxFileSize>20MB</maxFileSize>
</TimeBasedFileNamingAndTriggeringPolicy>
</rollingPolicy>
<encoder>
<pattern>${LOG_MSG}</pattern>
</encoder>
</appender>
<appender name="ERROR_LOG" class="ch.qos.logback.core.rolling.RollingFileAppender">
<file>${USER_HOME}/service_error.log</file>
<filter class="ch.qos.logback.classic.filter.ThresholdFilter">
<level>ERROR</level>
</filter>
<rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
<fileNamePattern>${LOG_DIR}/service_error%i.log</fileNamePattern>
<TimeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP">
<maxFileSize>20MB</maxFileSize>
</TimeBasedFileNamingAndTriggeringPolicy>
</rollingPolicy>
<encoder>
<pattern>${LOG_MSG}</pattern>
</encoder>
</appender>
<logger name="org.springframework" level="WARN"/>
<logger name="org.springframework.amqp.rabbit.listener.BlockingQueueConsumer" level="INFO"/>
<logger name="org.springframework.core.task.SimpleAsyncTaskExecutor" level="INFO"/>
<logger name="org.apache.zookeeper" level="WARN"/>
<logger name="com.dangdang.config" level="WARN"/>
<logger name="com.alibaba.cobar.client.router" level="WARN"/>
<logger name="org.apache.curator" level="INFO"/>
<logger name="com.alibaba.dubbo" level="WARN"/>
<logger name="org.I0Itec.zkclient" level="ERROR" additivity="true">
<!--
若是不指明 <appender-ref ref="" />
①若additivity="true"(默认为true) 则对root的appender-ref所有appender生效
②若additivity="false"
a.不指明 <appender-ref ref="" />
则报No appenders present in context [default] for logger [org.I0Itec.zkclient.ZkConnection]
没有地方可打印org.I0Itec.zkclient下的日志
b.指明<appender-ref ref="STDOUT"/>
则org.I0Itec.zkclient包下的日志 只打印到 STDOUT 目的地下 其他目的地不打印
-->
<appender-ref ref="STDOUT"/>
</logger>
<logger name="com.emax.paycenter.dao.mapper" level="DEBUG" additivity="false">
<!--
若是指明 <appender-ref ref="" />将com.emax.paycenter.dao.mapper此包下的日志 打印到SQL_LOG下
①additivity="true" 开启传播机制 输出为各自生效
不仅对此处的appender-ref ref="SQL_LOG"生效,并且对root的appender-ref生效
②additivity="false" 关掉传播机制 输出为各自不生效
只对此处的appender-ref ref="SQL_LOG"生效,并不对root的appender-ref生效
并且所有com.emax.paycenter.dao.mapper包下的日志只打印到此处配置的appender下
-->
<appender-ref ref="SQL_LOG"/>
<!--<appender-ref ref="DEBUG_LOG"/>
如果additivity="false"不指明此目的地
则DEBUG_LOG下不会有com.emax.paycenter.dao.mapper包下的任何日志
-->
</logger>
<logger name="druid.sql.Statement" level="DEBUG" additivity="false">
<appender-ref ref="SQL_LOG"/>
</logger>
<logger name="com.alibaba.druid.filter.stat" additivity="false">
<appender-ref ref="SQL_LOG"/>
</logger>
<root level="INFO">
<appender-ref ref="STDOUT"/>
<appender-ref ref="DEBUG_LOG"/>
<appender-ref ref="ERROR_LOG"/>
<appender-ref ref="INFO_LOG"/>
<!--<appender-ref ref="SQL_LOG"/>
root不指明此目的地 ref="SQL_LOG"
说明SQL_LOG不打印任何日志,除了com.emax.paycenter.dao.mapper(打印此包的日志 在上面配置好)下的任何日志-->
</root>
</configuration>