一、logback的介绍
Logback是由log4j创始人设计的另一个开源日志组件,官方网站: http://logback.qos.ch。它当前分为下面下个模块:
logback-core:其它两个模块的基础模块
logback-classic:它是log4j的一个改良版本,同时它完整实现了slf4j API使你可以很方便地更换成其它日志系统如log4j或JDK14 Logging
logback-access:访问模块与Servlet容器集成提供通过Http来访问日志的功能
二、logback取代log4j的理由:
更快的实现:Logback的内核重写了,在一些关键执行路径上性能提升10倍以上。而且logback不仅性能提升了,初始化内存加载也更小了。
非常充分的测试:Logback经过了几年,数不清小时的测试。Logback的测试完全不同级别的。
Logback-classic非常自然实现了SLF4j:Logback-classic实现了SLF4j。在使用SLF4j中,你都感觉不到logback-classic。而且因为logback-classic非常自然地实现了slf4j , 所 以切换到log4j或者其他,非常容易,只需要提供成另一个jar包就OK,根本不需要去动那些通过SLF4JAPI实现的代码。
非常充分的文档 官方网站有两百多页的文档。
自动重新加载配置文件,当配置文件修改了,Logback-classic能自动重新加载配置文件。扫描过程快且安全,它并不需要另外创建一个扫描线程。这个技术充分保证了应用程序能跑得很欢在JEE环境里面。
Lilith是log事件的观察者,和log4j的chainsaw类似。而lilith还能处理大数量的log数据 。
谨慎的模式和非常友好的恢复,在谨慎模式下,多个FileAppender实例跑在多个JVM下,能 够安全地写道同一个日志文件。RollingFileAppender会有些限制。Logback的FileAppender和它的子类包括 RollingFileAppender能够非常友好地从I/O异常中恢复。
配置文件可以处理不同的情况,开发人员经常需要判断不同的Logback配置文件在不同的环境下(开发,测试,生产)。而这些配置文件仅仅只有一些很小的不同,可以通过,和来实现,这样一个配置文件就可以适应多个环境。
Filters(过滤器)有些时候,需要诊断一个问题,需要打出日志。在log4j,只有降低日志级别,不过这样会打出大量的日志,会影响应用性能。在Logback,你可以继续 保持那个日志级别而除掉某种特殊情况,如alice这个用户登录,她的日志将打在DEBUG级别而其他用户可以继续打在WARN级别。要实现这个功能只需加4行XML配置。可以参考MDCFIlter 。
SiftingAppender(一个非常多功能的Appender):它可以用来分割日志文件根据任何一个给定的运行参数。如,SiftingAppender能够区别日志事件跟进用户的Session,然后每个用户会有一个日志文件。
自动压缩已经打出来的log:RollingFileAppender在产生新文件的时候,会自动压缩已经打出来的日志文件。压缩是个异步过程,所以甚至对于大的日志文件,在压缩过程中应用不会受任何影响。
堆栈树带有包版本:Logback在打出堆栈树日志时,会带上包的数据。
自动去除旧的日志文件:通过设置TimeBasedRollingPolicy或者SizeAndTimeBasedFNATP的maxHistory属性,你可以控制已经产生日志文件的最大数量。如果设置maxHistory 12,那那些log文件超过12个月的都会被自动移除。
三、logback的配置介绍
Logger、appender及layout
Logger作为日志的记录器,把它关联到应用的对应的context上后,主要用于存放日志对象,也可以定义日志类型、级别。
Appender主要用于指定日志输出的目的地,目的地可以是控制台、文件、远程套接字服务器、 MySQL、PostreSQL、 Oracle和其他数据库、 JMS和远程UNIX Syslog守护进程等。
Layout 负责把事件转换成字符串,格式化的日志信息的输出。
logger context
各个logger 都被关联到一个 LoggerContext,LoggerContext负责制造logger,也负责以树结构排列各logger。其他所有logger也通过org.slf4j.LoggerFactory 类的静态方法getLogger取得。 getLogger方法以 logger名称为参数。用同一名字调用LoggerFactory.getLogger 方法所得到的永远都是同一个logger对象的引用。
有效级别及级别的继承
Logger 可以被分配级别。级别包括:TRACE、DEBUG、INFO、WARN 和 ERROR,定义于ch.qos.logback.classic.Level类。如果 logger没有被分配级别,那么它将从有被分配级别的最近的祖先那里继承级别。root logger 默认级别是 DEBUG。
打印方法与基本的选择规则
打印方法决定记录请求的级别。例如,如果 L 是一个 logger 实例,那么,语句 L.info("..")是一条级别为 INFO的记录语句。记录请求的级别在高于或等于其 logger 的有效级别时被称为被启用,否则,称为被禁用。记录请求级别为 p,其 logger的有效级别为 q,只有则当 p>=q时,该请求才会被执行。
该规则是 logback 的核心。级别排序为: TRACE < DEBUG < INFO < WARN < ERROR
四、logback的默认配置
需要在application-local.properties,或者application.properties中添加logging.config=classpath:log/logback-local.xml的日志配置路径,如果没有这个配置的情况下会去默认配置中找logback-test.xml 和 logback.xml这两个文件
如果配置文件 logback-test.xml 和 logback.xml 都不存在,那么 logback 默认地会调用BasicConfigurator ,创建一个最小化配置。最小化配置由一个关联到根 logger 的ConsoleAppender 组成。输出用模式为%d{HH:mm:ss.SSS} [%thread] %-5level %logger{36} - %msg%n 的 PatternLayoutEncoder 进行格式化。root logger 默认级别是 DEBUG。
Logback的配置文件
Logback 配置文件的语法非常灵活。正因为灵活,所以无法用 DTD 或 XML schema 进行定义。尽管如此,可以这样描述配置文件的基本结构:以<configuration>开头,后面有零个或多个<appender>元素,有零个或多个<logger>元素,有最多一个<root>元素。
Logback默认配置的步骤
尝试在 classpath下查找文件logback-test.xml;
如果文件不存在,则查找文件logback.xml;
如果两个文件都不存在,logback用BasicConfigurator自动对自己进行配置,这会导致记录输出到控制台。
用logging.config设置日志文件路径例如logging.config=`classpath:log/logback.xml`。
根节点<configuration>,包含下面三个属性:
scan: 当此属性设置为true时,配置文件如果发生改变,将会被重新加载,默认值为true。
scanPeriod: 设置监测配置文件是否有修改的时间间隔,如果没有给出时间单位,默认单位是毫秒。当scan为true时,此属性生效。默认的时间间隔为1分钟。
debug: 当此属性设置为true时,将打印出logback内部日志信息,实时查看logback运行状态。默认值为false。
例如:
<configuration scan="true" scanPeriod="60 seconds" debug="false">
<!--其他配置省略-->
</configuration>
子节点<property> :用来定义变量值,它有两个属性name和value,通过<property>定义的值会被插入到logger上下文中,可以使“${}”来使用变量。
name: 变量的名称
value: 的值时变量定义的值
例如:
<configuration scan="true" scanPeriod="60 seconds" debug="false">
<property name="APP_Name" value="myAppName" />
<contextName>${APP_Name}</contextName>
<!--其他配置省略-->
</configuration>
子节点<timestamp>:获取时间戳字符串,他有两个属性key和datePattern
key: 标识此<timestamp> 的名字;
datePattern: 设置将当前时间(解析配置文件的时间)转换为字符串的模式,遵循java.txt.SimpleDateFormat的格式。
例如:
<configuration scan="true" scanPeriod="60 seconds" debug="false">
<timestamp key="bySecond" datePattern="yyyyMMdd'T'HHmmss"/>
<contextName>${bySecond}</contextName>
<!-- 其他配置省略-->
</configuration>
子节点<appender>:负责写日志的组件,它有两个必要属性name和class。name指定appender名称,class指定appender的全限定名
5.1、ConsoleAppender 把日志输出到控制台,有以下子节点:
<encoder>:对日志进行格式化。(具体参数稍后讲解 )
<target>:字符串System.out(默认)或者System.err(区别不多说了)
例如:
<maxHistory>是6,则只保存最近6个月的文件,删除之前的旧文件
<maxFileSize>:这是活动文件的大小,默认值是10MB。
<fileNamePattern>:必须包含“%i”例如,假设最小值和最大值分别为1和2,命名模式为 mylog%i.log,会产生归档文件mylog1.log和mylog2.log。还可以指定文件压缩选项,例如,mylog%i.log.gz 或者 没有log%i.log.zip
%c: 输出日志信息所属的类目,通常就是所在类的全名
%l: 输出日志事件的发生位置,相当于%C.%M(%F:%L)的组合,包括类目名、发生的线程,以及在代码中的行数。
%x: 输出和当前线程相关联的MDC(嵌套诊断环境)
%L: 输出代码中的行号
logback的使用:
logback使用需要和slf4j一起使用,所以总共需要添加依赖的包有slf4j-api.jar,logback-core.jar,logback-classic.jar,logback-access.jar这个暂时用不到所以不添加依赖了,maven配置
<properties>
<project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
<logback.version>1.1.7</logback.version>
<slf4j.version>1.7.21</slf4j.version>
</properties>
<dependencies>
<dependency>
<groupId>org.slf4j</groupId>
<artifactId>slf4j-api</artifactId>
<version>${slf4j.version}</version>
<scope>compile</scope>
</dependency>
<dependency>
<groupId>ch.qos.logback</groupId>
<artifactId>logback-core</artifactId>
<version>${logback.version}</version>
</dependency>
<dependency>
<groupId>ch.qos.logback</groupId>
<artifactId>logback-classic</artifactId>
<version>${logback.version}</version>
</dependency>
</dependencies>
在pom文件中需要引入以上配置
以下是一个案例:
<?xml version="1.0" encoding="UTF-8"?>
<configuration>
<!--定义日志文件的存储地址 勿在 LogBack 的配置中使用相对路径 -->
<property name="LOG_HOME" value="/home/service/var/logs/"/>
<!--<property name="LOG_HOME" value="F:/newBranch/bot-voice"/>-->
<!--项目名称 -->
<property name="PRO_NAME" value="bot-voice"/>
<!--<property name="PRO_NAME" value="bot-voice-asr-log"/>-->
<!-- 控制台输出 -->
<appender name="STDOUT" class="ch.qos.logback.core.ConsoleAppender">
<encoder>
<!--格式化输出:%d表示日期,%thread表示线程名,%-5level:级别从左显示5个字符宽度 %msg:日志消息,%n是换行符 %c: 输出日志信息所属的类目,通常就是所在类的全名 -->
<pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%level][%class{0}.%M][%X{recordId}][%X{imei}] - %msg - [%thread][%X{clientIp}]%replace(%caller{1}){'\t|Caller.{1}0|\r\n', ''}%n</pattern>
</encoder>
</appender>
<!-- 按照每天生成日志文件 -->
<appender name="FILE" class="ch.qos.logback.core.rolling.RollingFileAppender">
<rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
<!--日志文件输出的文件名 -->
<FileNamePattern>${LOG_HOME}/${PRO_NAME}/${PRO_NAME}-%d{yyyyMMdd}.%i.log</FileNamePattern>
<MaxHistory>30</MaxHistory> //只保存最近30天的日志文件,删除之前的旧文件
<TimeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP">
<MaxFileSize>50MB</MaxFileSize>//活动文件的大小,默认值是10MB超过该值之后生成下一个文件
</TimeBasedFileNamingAndTriggeringPolicy>
</rollingPolicy>
<encoder>
<pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%level][%class{0}.%M][%X{recordId}][%X{imei}] - %msg - [%thread][%X{clientIp}]%replace(%caller{1}){'\t|Caller.{1}0|\r\n', ''}%n</pattern>
</encoder>
</appender>
<appender name="BUSINESS-FILE" class="ch.qos.logback.core.rolling.RollingFileAppender">
<rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
<!--日志文件输出的文件名 -->
<FileNamePattern>${LOG_HOME}/${PRO_NAME}/${PRO_NAME}-business-%d{yyyyMMdd}.%i.log</FileNamePattern>
<MaxHistory>100</MaxHistory>
<TimeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP">
<MaxFileSize>50MB</MaxFileSize>
</TimeBasedFileNamingAndTriggeringPolicy>
</rollingPolicy>
<encoder>
<pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} %level %logger{50} [%thread] -%msg%n</pattern>
</encoder>
</appender>
<!-- 定义日志文件异步输出 -->
<appender name="ASYNC" class="ch.qos.logback.classic.AsyncAppender">
<!-- 不丢失日志.默认的,如果队列的80%已满,则会丢弃TRACT、DEBUG、INFO级别的日志 -->
<discardingThreshold>0</discardingThreshold>
<!-- 更改默认的队列的深度,该值会影响性能.默认值为256 -->
<queueSize>512</queueSize>
<includeCallerData>true</includeCallerData>
<!-- 添加附加的appender,最多只能添加一个 -->
<appender-ref ref="FILE"/>
</appender>
<appender name="HTTPLOG" class="com.oppo.basic.logger.appender.logback.HttpAppender"/>
<logger name="com.oppo.bot.voice.asr.sibichi.service.SbcServiceImpl" level="DEBUG" additivity="false">
<appender-ref ref="BUSINESS-FILE"/>
</logger>
<!-- additivity: 是否向上级loger传递打印信息。默认是true。 -->
<logger name="java.sql" level="ERROR" additivity="false">
<appender-ref ref="FILE"/>
</logger>
<logger name="org.apache.zookeeper" level="ERROR" additivity="false">
<appender-ref ref="FILE"/>
</logger>
表示在项目启动时添加环境变量-Dspring.profiles.active=v2时的日志级别
<springProfile name="v2,v5">
<root level="${LOG_LEVEL}">
<appender-ref ref="ASYNC"/>
<appender-ref ref="HTTPLOG"/>
</root>
</springProfile>
<!-- 日志输出级别 ERROR,WARN,INFO,DEBUG -->
<root level="${log.level}">
<!-- 标识这些appender将会添加到这个logger,对于所有没有定义的只要 -->
<appender-ref ref="STDOUT"/>
<appender-ref ref="ASYNC"/>
<appender-ref ref="HTTPLOG"/>
</root>
</configuration>
其中下面这个是将com.oppo.bot.voice.asr.sibichi.service.SbcServiceImpl这个包下面的日志打入appender为BUSINESS-FILE的(<appender-ref ref="BUSINESS-FILE"/>)
name为表达式下面的包名或者具体类名
<logger name="com.oppo.bot.voice.asr.sibichi.service.SbcServiceImpl" level="DEBUG" additivity="false">
<appender-ref ref="BUSINESS-FILE"/>
</logger>
四、MDC
logback内置的日志字段还是比较少,如果我们需要打印有关业务的更多的内容,包括自定义的一些数据,需要借助logback MDC机制,MDC为“Mapped Diagnostic Context”(映射诊断上下文),即将一些运行时的上下文数据通过logback打印出来;此时我们需要借助org.sl4j.MDC类。
MDC类基本原理其实非常简单,其内部持有一个InheritableThreadLocal实例,用于保存context数据,MDC提供了put/get/clear等几个核心接口,用于操作ThreadLocal中的数据;ThreadLocal中的K-V,可以在logback.xml中声明,最终将会打印在日志中。
Java代码 收藏代码
MDC.put("userId",1000);
那么在logback.xml中,即可在layout中通过声明“%X{userId}”来打印此信息。
在使用MDC时需要注意一些问题,这些问题通常也是ThreadLocal引起的,比如我们需要在线程退出之前清除(clear)MDC中的数据;在线程池中使用MDC时,那么需要在子线程退出之前清除数据;可以调用MDC.clear()方法。
在JAVA WEB项目中,为了更好的跟踪请求,我们可能希望在日志中打印比如HTTP header信息、运行时的一些token、code等,那么我们借助MDC即可非常便捷的实现。我们开发一个Filter,此Filter用于解析Http请求中的一些参数,并将这些参数添加到MDC中,并在logback.xml中声明我们关注的字段。
在代码初始化的时候我们用MDC.put("key","value");添加
Mapped Diagnostic Context,用于打LOG时跟踪一个“会话“、一个”事务“。举例,有一个web controller,在同一时间可能收到来自多个客户端的请求,如果一个请求发生了错误,我们要跟踪这个请求从controller开始一步步都执行到了哪些代码、有哪些log的输出。这时我们可以看log文件,但是log文件是多个请求同时记录的,基本无法分辨哪行是哪个请求产生的,虽然我们可以看线程,但线程可能被复用,也是很难分辨出,这时MDC就派上用场了。
我们可以加一个web filter,在请求进来时,把”标识“放到MDC context中,比如:put( ip, 8.8.8.8), put(username, 'yang'),在filter结束时把context再清掉,即可在整个请求处理过程中,都可以打印出ip, username这些数据,就可以方便的用于日志跟踪。
在SpringBoot中怎么用
1. 写一个LogInterceptor,用于统一处理MDC:
@Component
public class LogInterceptor implements HandlerInterceptor {
private final static String REQUEST_ID = "requestId";
private static final Logger LOGGER = LoggerFactory.getLogger(LogInterceptor.class);
@Override
public boolean preHandle(HttpServletRequest httpServletRequest, HttpServletResponse httpServletResponse, Object o) throws Exception {
String xForwardedForHeader = httpServletRequest.getHeader("X-Forwarded-For");
String remoteIp = httpServletRequest.getRemoteAddr();
String uuid = UUID.randomUUID().toString();
LOGGER.info("put requestId ({}) to logger", uuid);
LOGGER.info("request id:{}, client ip:{}, X-Forwarded-For:{}", uuid, remoteIp, xForwardedForHeader);
MDC.put(REQUEST_ID, uuid);
return true;
}
@Override
public void postHandle(HttpServletRequest httpServletRequest, HttpServletResponse httpServletResponse, Object o, ModelAndView modelAndView) throws Exception {
String uuid = MDC.get(REQUEST_ID);
LOGGER.info("remove requestId ({}) from logger", uuid);
MDC.remove(REQUEST_ID); //或者使用MDC.remove()清除掉MDC中所有
}
@Override
public void afterCompletion(HttpServletRequest httpServletRequest, HttpServletResponse httpServletResponse, Object o, Exception e) throws Exception {
}
关键代码在于:MDC.put(REQUEST_ID, uuid);
注册一下这个Interceptor,写一个WebMvcConfigurer类:
@Configuration
public class WebMvcConfigurer extends WebMvcConfigurerAdapter {
@Autowired
private LogInterceptor logInterceptor;
@Override
public void addInterceptors(InterceptorRegistry registry) {
registry.addInterceptor(logInterceptor);
super.addInterceptors(registry);
}
}
log日志文件路径配置:
需要在application中指出
-
日志配置文件的位置用logging.config设置例如logging.config=`classpath:log/logback.xml`。
-
也可以通过AOC注解将信息传入MDC中,例如:
-
注解类:
@Retention(RetentionPolicy.RUNTIME)
@Target(ElementType.METHOD)
@Documented
public @interface TraceRequest {}
使用如下:
private final static String TRACE_ANNOTATION = "@annotation(com.oppo.bot.classifier.common.log.TraceRequest)";
@Before(value = TRACE_ANNOTATION)
public void startLog(JoinPoint joinPoint) {
//因为参数是一个数组
Object[] objects = joinPoint.getArgs();
for (Object object : objects) {
if (Objects.nonNull(object) && object instanceof DialogReq) {
DialogReq dialogReq = (DialogReq)object;
MDC.put("recordId",
Optional.ofNullable(dialogReq.getUserInfo()).map(UserInfo::getRecordId).orElse("0"));
MDC.put("serialId", Optional.ofNullable(dialogReq.getUserInfo()).map(UserInfo::getSerialId)
.map(String::valueOf).orElse("0"));
MDC.put("imei", Optional.ofNullable(dialogReq.getUserInfo()).map(UserInfo::getDeviceId)
.map(String::valueOf).orElse(null));
break;
}
if(Objects.nonNull(object) && object instanceo
f DialogRequest){
DialogRequest dialogReq = (DialogRequest)object;
MDC.put("recordId",
Optional.ofNullable(dialogReq.getUserInfo()).map(UserInfo::getRecordId).orElse("0"));
MDC.put("imei", Optional.ofNullable(dialogReq.getUserInfo()).map(UserInfo::getDeviceId)
.map(String::valueOf).orElse(null));
break;
}
}
}
@AfterReturning(value = TRACE_ANNOTATION)
public void removeTrace() {
MDC.remove("recordId");
MDC.remove("clientIp");
MDC.remove("imei");
}
@AfterThrowing(value = TRACE_ANNOTATION, throwing = "ex")
public void logError(Throwable ex){
MDC.remove("recordId");
MDC.remove("clientIp");
MDC.remove("imei");
}
日志文件xml详细配置:
springProperty为运用的spring的属性source为application.property中的值
property为logback自带的属性,value为自定义的变量值
<?xml version="1.0" encoding="UTF-8"?>
<configuration scan="true">
<!-- scan=true表示logback会定期扫描配置文件的更新,即热加载。默认的时间间隔是1min -->
<!--定义日志文件的存储地址 勿在 LogBack 的配置中使用相对路径 -->
//log.path和log.level均为application.property文件中对应的属性值
<springProperty name="LOG_HOME" source="log.path"/>
<springProperty name="LOG_LEVEL" source="log.level"/>
<springProperty name="MONITOR_LOG_LEVEL" source="monitor.logging.level"/>
<!--项目名称 -->
<property name="PRO_NAME" value="bot-rule-nlu"/>
<property name="JSONLOG_HOME" value="${LOG_HOME}/json"/>
<springProperty name="LOG_MAX_HISTORY" source="log.maxhistory"/>
<!-- 控制台输出 -->
<appender name="STDOUT" class="ch.qos.logback.core.ConsoleAppender">
<encoder>
<!--格式化输出:%d表示日期,%thread表示线程名,%-5level:级别从左显示5个字符宽度%msg:日志消息,%n是换行符 -->
<pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%level][%class{0}.%M][%X{recordId}][%X{serialId}] - %msg - [%thread][%X{clientIp}]%replace(%caller{1}){'\t|Caller.{1}0|\r\n', ''}%n</pattern>
</encoder>
</appender>
<!-- 按照每天生成日志文件 -->
<appender name="FILE" class="ch.qos.logback.core.rolling.RollingFileAppender">
<rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
<!--日志文件输出的文件名 -->
<FileNamePattern>${LOG_HOME}/${PRO_NAME}/${PRO_NAME}-%d{yyyyMMdd}.%i.log</FileNamePattern>
<MaxHistory>${LOG_MAX_HISTORY}</MaxHistory>
<CleanHistoryOnStart>true</CleanHistoryOnStart>
<TimeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP">
<MaxFileSize>50MB</MaxFileSize>
</TimeBasedFileNamingAndTriggeringPolicy>
</rollingPolicy>
<encoder>
<pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%level][%class{0}.%M][%X{recordId}][%X{serialId}] - %msg - [%thread][%X{clientIp}]%replace(%caller{1}){'\t|Caller.{1}0|\r\n', ''}%n</pattern>
</encoder>
</appender>
<appender name="MONITORFILE" class="ch.qos.logback.core.rolling.RollingFileAppender">
<rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
<!--日志文件输出的文件名 -->
<FileNamePattern>${LOG_HOME}/${PRO_NAME}/${PRO_NAME}-monitor-%d{yyyyMMdd}.%i.log</FileNamePattern>
<MaxHistory>${LOG_MAX_HISTORY}</MaxHistory>
<CleanHistoryOnStart>true</CleanHistoryOnStart>
<TimeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP">
<MaxFileSize>50MB</MaxFileSize>
</TimeBasedFileNamingAndTriggeringPolicy>
</rollingPolicy>
<encoder>
<pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%level][%class{0}.%M][%X{recordId}][%X{serialId}] - %msg - [%thread][%X{clientIp}]%replace(%caller{1}){'\t|Caller.{1}0|\r\n', ''}%n</pattern>
</encoder>
</appender>
<!-- 定义日志文件异步输出 -->
<appender name="ASYNC" class="ch.qos.logback.classic.AsyncAppender">
<!-- 不丢失日志.默认的,如果队列的80%已满,则会丢弃TRACT、DEBUG、INFO级别的日志 -->
<discardingThreshold>0</discardingThreshold>
<!-- 更改默认的队列的深度,该值会影响性能.默认值为256 -->
<queueSize>512</queueSize>
<includeCallerData>true</includeCallerData>
<!-- 添加附加的appender,最多只能添加一个 -->
<appender-ref ref="FILE"/>
</appender>
<appender name="HTTPLOG" class="com.oppo.basic.logger.appender.logback.HttpAppender" mdcKey="recordId"/>
<appender name="JSONFILE" class="ch.qos.logback.core.rolling.RollingFileAppender">
<rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
<!--日志文件输出的文件名 -->
<FileNamePattern>${JSONLOG_HOME}/${PRO_NAME}/${PRO_NAME}-%d{yyyyMMdd}.%i.log</FileNamePattern>
<MaxHistory>${LOG_MAX_HISTORY}</MaxHistory>
<CleanHistoryOnStart>true</CleanHistoryOnStart>
<TimeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP">
<MaxFileSize>50MB</MaxFileSize>
</TimeBasedFileNamingAndTriggeringPolicy>
</rollingPolicy>
<encoder class="net.logstash.logback.encoder.LoggingEventCompositeJsonEncoder">
<jsonFactoryDecorator class="com.oppo.bot.common.logger.MyJsonFactoryDecorator"/>
<providers>
<mdc/>
<pattern>
<pattern>
{
"createTime": "%d{yyyy-MM-dd HH:mm:ss.SSS}",
"msg":"%msg",
"methodName": "%class{0}.%M.%L",
"logLever": "%level",
"project": "${PRO_NAME}",
"thread": "%thread"
}
</pattern>
</pattern>
</providers>
</encoder>
</appender>
<appender name="ASYNCJSON" class="ch.qos.logback.classic.AsyncAppender">
<!-- 不丢失日志.默认的,如果队列的80%已满,则会丢弃TRACT、DEBUG、INFO级别的日志 -->
<discardingThreshold>0</discardingThreshold>
<!-- 更改默认的队列的深度,该值会影响性能.默认值为256 -->
<queueSize>512</queueSize>
<includeCallerData>true</includeCallerData>
<!-- 添加附加的appender,最多只能添加一个 -->
<appender-ref ref="JSONFILE"/>
</appender>
<!-- additivity: 是否向上级loger传递打印信息。默认是true。 -->
<logger name="java.sql" level="ERROR" additivity="false">
<appender-ref ref="FILE"/>
</logger>
<logger name="org.apache.zookeeper" level="ERROR" additivity="false">
<appender-ref ref="FILE"/>
</logger>
<!-- 服务启动日志,需要打印到server.log中,name为xxxApplication的包路径,最好是该包下只有Application一个类 -->
<logger name="com.oppo.bot.rule.intervention.Application">
<appender-ref ref="STDOUT"/>
</logger>
<!-- spring启动日志,需要打印到server.log中 -->
<logger name="org.springframework">
<appender-ref ref="STDOUT"/>
</logger>
<logger name="com.oppo.bot.common.monitor" level="${MONITOR_LOG_LEVEL}">
<appender-ref ref="MONITORFILE"/>
</logger>
<!-- 日志输出级别 ERROR,WARN,INFO,DEBUG -->
<springProfile name="local">
<root level="${LOG_LEVEL}">
<appender-ref ref="STDOUT"/>
</root>
</springProfile>
<springProfile name="v2,v5">
<root level="${LOG_LEVEL}">
<appender-ref ref="ASYNC"/>
<appender-ref ref="HTTPLOG"/>
</root>
</springProfile>
<springProfile name="v1,preproduct,product">
<root level="${LOG_LEVEL}">
<appender-ref ref="ASYNC"/>
<appender-ref ref="HTTPLOG"/>
<appender-ref ref="ASYNCJSON"/>
</root>
</springProfile>
</configuration>