logBack

Slf4j,LogBack,Log4j之间的关系

      slf4j 是The Simple Logging Facade for Java的简称,是一个简单日志门面抽象框架,它本身只提供了日志Facade API和一个简单的日志类实现,一般常配合 Log4j , LogBack , java.util.logging 使用。Slf4j作为应用层的Log接入时,程序可以根据实际应用场景动态调整底层的日志实现框架(Log4j/LogBack/JdkLog...);

LogBack 和Log4j都是开源日记工具库,LogBack是Log4j的改良版本,比Log4j拥有更多的特性,同时也带来很大性能提升。

LogBack 官方建议配合Slf4j使用,这样可以灵活地替换底层日志框架。

LogBack的结构

LogBack分为3个组件,logback-core, logback-classic 和 logback-access。 

    logback-core提供了LogBack的核心功能,是另外两个组件的基础。

    logback-classic则实现了Slf4j的API,所以当想配合Slf4j使用时,则需要引入这个包。

    logback-access是为了集成Servlet环境而准备的,可提供HTTP-access的日志接口。

LogBack取代Log4j的理由

1、更快的实现 
Logback的内核重写了,在一些关键执行路径上性能提升10倍以上。而且logback不仅性能提升了,初始化内存加载也更小了。
2、Logback-classic非常自然实现了SLF4j   
Logback-classic实现了SLF4j。在使用SLF4j中,你都感觉不到logback-classic。而且因为logback-classic非常自然地实现了SLF4J,所以切换到log4j或者其他,非常容易,只需要提供成另一个jar包就OK,根本不需要动那些通过SLF4JAPI实现的代码。
3、非常充分的文档 
官方网站有两百多页的文档。
4、自动重新加载配置文件  
当配置文件修改了,Logback-classic能自动重新加载配置文件。扫描过程快且安全,它并不需要另外创建一个扫描线程。这个技术充分保证了应用程序能跑得很欢在JEE环境里面。
5、Lilith  
Lilith是log事件的观察者,和log4j的chainsaw类似。而lilith还能处理大数量的log数据 。
6、谨慎的模式和非常友好的恢复  
在谨慎模式下,多个FileAppender实例跑在多个JVM下,能 够安全地写道同一个日志文件。RollingFileAppender会有些限制。Logback的FileAppender和它的子类包括 RollingFileAppender能够非常友好地从I/O异常中恢复。
7、配置文件可以处理不同的情况   
开发人员经常需要判断不同的Logback配置文件在不同的环境下(开发,测试,生产)。而这些配置文件仅仅只有一些很小的不同,可以通过 <if>,<then>和<else>标签来实现,这样一个配置文件就可以适应多个环境。
8、Filters(过滤器)  
有些时候,需要诊断一个问题,需要打出日志。在log4j,只有降低日志级别,不过这样会打出大量的日志,会影响应用性能。在Logback,你可以继续 保持那个日志级别而除掉某种特殊情况,如alice这个用户登录,她的日志将打在DEBUG级别而其他用户可以继续打在WARN级别。要实现这个功能只需 加4行XML配置。可以参考MDCFIlter 。
9、SiftingAppender(一个非常多功能的Appender) 
它可以用来分割日志文件根据任何一个给定的运行参数。如,SiftingAppender能够区别日志事件跟进用户的Session,然后每个用户会有一个日志文件。
10、自动压缩已经打出来的log  
RollingFileAppender在产生新文件的时候,会自动压缩已经打出来的日志文件。压缩是个异步过程,所以甚至对于大的日志文件,在压缩过程中应用不会受任何影响。
11、堆栈树带有包版本  
Logback在打出堆栈树日志时,会带上包的数据。
12、自动去除旧的日志文件 
通过设置TimeBasedRollingPolicy或者SizeAndTimeBasedFNATP的maxHistory属性,你可以控制已经产生日志文件的最大数量。如果设置maxHistory 12,那那些log文件超过12个月的都会被自动移除。
总之,logback比log4j太优秀了 !!!

Maven依赖

<!-- slf4j-api -->
<dependency>
    <groupId>org.slf4j</groupId>
    <artifactId>slf4j-api</artifactId>
    <version>1.7.12</version>
</dependency>
<!-- logback -->
<dependency> 
    <groupId>ch.qos.logback</groupId> 
    <artifactId>logback-core</artifactId> 
    <version>1.1.3</version> 
</dependency> 
<dependency> 
    <groupId>ch.qos.logback</groupId> 
    <artifactId>logback-classic</artifactId> 
    <version>1.1.3</version> 
</dependency>

配置文件说明(详细说明见:https://www.cnblogs.com/DeepLearing/p/5663178.htm

<?xml version="1.0" encoding="UTF-8"?>
<configuration>
    <!--定义日志文件的存储地址 勿在 LogBack 的配置中使用相对路径-->  
    <property name="LOG_HOME" value="c:/log" />  

    <!-- 目的地1:控制台输出 -->   
    <appender name="STDOUT" class="ch.qos.logback.core.ConsoleAppender">
       <!-- 日志输出编码 -->  
       <Encoding>UTF-8</Encoding>   
        <layout class="ch.qos.logback.classic.PatternLayout">   
             <!--格式化输出:%d表示日期,%thread表示线程名,%-5level:级别从左显示5个字符宽度%msg:日志消息,%n是换行符--> 
            <pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger{50} - %msg%n   
            </pattern>   
        </layout>   
    </appender> 
    
    <!-- 目的地2:按照每天生成日志文件 -->   
    <appender name="FILE"  class="ch.qos.logback.core.rolling.RollingFileAppender">   
        <Encoding>UTF-8</Encoding>   
        <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
            <!--日志文件输出的文件名-->
            <FileNamePattern>${LOG_HOME}/myApp.log.%d{yyyy-MM-dd}.log</FileNamePattern> 
	    <!--最多保留30天log-->
            <MaxHistory>30</MaxHistory>
        </rollingPolicy>   
        <layout class="ch.qos.logback.classic.PatternLayout">  
            <!--格式化输出:%d表示日期,%thread表示线程名,%-5level:级别从左显示5个字符宽度%msg:日志消息,%n是换行符--> 
            <pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger{50} - %msg%n</pattern>   
       </layout> 
        <!--日志文件超过20兆时,出发滚动策略-->
       <triggeringPolicy class="ch.qos.logback.core.rolling.SizeBasedTriggeringPolicy">
         <MaxFileSize>20MB</MaxFileSize>
       </triggeringPolicy>
    </appender> 

     <!--目的地3;日志异步到数据库 -->  
    <appender name="DB" class="ch.qos.logback.classic.db.DBAppender">
        <!--日志异步到数据库 --> 
        <connectionSource class="ch.qos.logback.core.db.DriverManagerConnectionSource">
           <!--连接池 --> 
           <dataSource class="com.mchange.v2.c3p0.ComboPooledDataSource">
              <driverClass>com.mysql.jdbc.Driver</driverClass>
              <url>jdbc:mysql://127.0.0.1:3306/databaseName</url>
              <user>root</user>
              <password>root</password>
            </dataSource>
        </connectionSource>
    </appender> 

    <!-- show parameters for hibernate sql 专为 Hibernate 定制 -->  
    <logger name="org.hibernate.type.descriptor.sql.BasicBinder"  level="TRACE" />  
    <logger name="org.hibernate.type.descriptor.sql.BasicExtractor"  level="DEBUG" />  
    <logger name="org.hibernate.SQL" level="DEBUG" />  
    <logger name="org.hibernate.engine.QueryParameters" level="DEBUG" />  
    <logger name="org.hibernate.engine.query.HQLQueryPlan" level="DEBUG" />  
    
    <!-- 日志输出级别 -->
    <root level="INFO">   
        <appender-ref ref="STDOUT" />   
        <appender-ref ref="FILE" />   
    </root> 
</configuration>

例子:

<?xml version="1.0" encoding="UTF-8"?>
<configuration scan="false" scanPeriod="300 seconds" debug="true">
	<!--本地日志目录-->
	<property name="USER_HOME" value="${catalina.base}/logs/logback-srv" />
	<property name="LOG_MSG" value="%X{sid}%d{yyyy-MM-dd HH:mm:ss.SSS} [%t] %-5p [%c:%L] - %m%n" />
	<property name="LOG_DIR" value="${USER_HOME}/%d{yyyyMMdd}"/>

	<appender name="STDOUT" class="ch.qos.logback.core.ConsoleAppender">
		<encoder>
			<pattern>${LOG_MSG}</pattern>
		</encoder>
	</appender>
	
<!--  	<appender name="KAFKA_OUT" class="com.emei.log.kafka.logback.KafkaLogbackAppender">
		<topic>cmplog</topic>
		<brokerList>localhost:9092</brokerList>
		<encoder>
			<pattern>${LOG_MSG}</pattern>
		</encoder>		
	</appender> -->

	<appender name="DEBUG_LOG" class="ch.qos.logback.core.rolling.RollingFileAppender">
		<filter class="ch.qos.logback.classic.filter.ThresholdFilter">
			<level>DEBUG</level>
		</filter>
		<File>${USER_HOME}/service_debug.log</File>
		<rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
			<FileNamePattern>${LOG_DIR}/service_debug%i.log</FileNamePattern>
			<TimeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP">
				<maxFileSize>20MB</maxFileSize>
			</TimeBasedFileNamingAndTriggeringPolicy>
		</rollingPolicy>
		<encoder>
			<pattern>${LOG_MSG}</pattern>
		</encoder>
	</appender>
	<appender name="SQL_LOG" class="ch.qos.logback.core.rolling.RollingFileAppender">
		<filter class="ch.qos.logback.classic.filter.ThresholdFilter">
			<level>DEBUG</level>
		</filter>
		<File>${USER_HOME}/service_sql.log</File>
		<rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
			<FileNamePattern>${LOG_DIR}/service_sql%i.log</FileNamePattern>
			<TimeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP">
				<maxFileSize>20MB</maxFileSize>
			</TimeBasedFileNamingAndTriggeringPolicy>
		</rollingPolicy>
		<encoder>
			<pattern>${LOG_MSG}</pattern>
		</encoder>
	</appender>
	<appender name="JOB_LOG" class="ch.qos.logback.core.rolling.RollingFileAppender">
		<filter class="ch.qos.logback.classic.filter.ThresholdFilter">
			<level>DEBUG</level>
		</filter>
		<File>${USER_HOME}/service_job.log</File>
		<rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
			<FileNamePattern>${LOG_DIR}/service_job%i.log</FileNamePattern>
			<TimeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP">
				<maxFileSize>20MB</maxFileSize>
			</TimeBasedFileNamingAndTriggeringPolicy>
		</rollingPolicy>
		<encoder>
			<pattern>${LOG_MSG}</pattern>
		</encoder>
	</appender>
	<appender name="INFO_LOG" class="ch.qos.logback.core.rolling.RollingFileAppender">
		<file>${USER_HOME}/service_info.log</file>
		<filter class="ch.qos.logback.classic.filter.ThresholdFilter">
			<level>INFO</level>
		</filter>
		<rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
			<fileNamePattern>${LOG_DIR}/service_info%i.log</fileNamePattern>
			<appender-ref ref="ERROR_LOG" />
			<appender-ref ref="INFO_LOG" />
			<TimeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP">
				<maxFileSize>20MB</maxFileSize>
			</TimeBasedFileNamingAndTriggeringPolicy>
		</rollingPolicy>
		<encoder>
			<pattern>${LOG_MSG}</pattern>
		</encoder>
	</appender>

	<appender name="ERROR_LOG" class="ch.qos.logback.core.rolling.RollingFileAppender">
		<file>${USER_HOME}/service_error.log</file>
		<filter class="ch.qos.logback.classic.filter.ThresholdFilter">
			<level>ERROR</level>
		</filter>
		<rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
			<fileNamePattern>${LOG_DIR}/service_error%i.log</fileNamePattern>
			<TimeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP">
				<maxFileSize>20MB</maxFileSize>
			</TimeBasedFileNamingAndTriggeringPolicy>
		</rollingPolicy>
		<encoder>
			<pattern>${LOG_MSG}</pattern>
		</encoder>
	</appender>

	<logger name="org.springframework" level="WARN"/>
	<logger name="org.springframework.amqp.rabbit.listener.BlockingQueueConsumer" level="INFO" />
	<logger name="org.springframework.core.task.SimpleAsyncTaskExecutor" level="INFO" />
	<logger name="org.apache.zookeeper" level="WARN"/>
	<logger name="com.dangdang.config" level="WARN"/>
	<logger name="com.alibaba.cobar.client.router" level="WARN" />
	<logger name="org.apache.curator" level="INFO" />
	<logger name="com.alibaba.dubbo" level="INFO" />

	<!--本地调试去掉控制台打印的繁杂的日志 打开此注释即可去掉-->
	<logger name="com.alibaba.dubbo.registry.zookeeper.ZookeeperRegistry" level="ERROR"></logger>
	<logger name="org.I0Itec.zkclient.ZkClient" level="ERROR"></logger>
	<logger name="com.alibaba.dubbo.rpc.protocol.dubbo.DubboProtocol" level="ERROR"></logger>
	<logger name="com.alibaba.dubbo.remoting.transport.AbstractServer" level="ERROR"></logger>


	<logger name="com.emax.paycenter.dao.mapper" level="DEBUG"/>

	<logger name="druid.sql.Statement" level="DEBUG" additivity="false">
		<appender-ref ref="SQL_LOG"/>
	</logger>
	<logger name="com.alibaba.druid.filter.stat" additivity="false">
		<appender-ref ref="SQL_LOG"/>
	</logger>
	<logger name="org.quartz.Job" level="INFO" additivity="false">
		<appender-ref ref="JOB_LOG"/>
	</logger>

	<root level="INFO">
		<appender-ref ref="STDOUT"/>
		<appender-ref ref="DEBUG_LOG" />
		<appender-ref ref="ERROR_LOG" />
		<appender-ref ref="INFO_LOG" />
		<appender-ref ref="CAT_LOG" />
		<!-- <appender-ref ref="KAFKA_OUT"/>  -->		
	</root>
</configuration>

阅读更多
个人分类: Log日志框架
上一篇Log4j
下一篇Log日志框架
想对作者说点什么? 我来说一句

没有更多推荐了,返回首页

关闭
关闭
关闭