日志LogBack的使用

     一、logback的介绍

        Logback是由log4j创始人设计的另一个开源日志组件,官方网站: http://logback.qos.ch。它当前分为下面下个模块:

        logback-core:其它两个模块的基础模块
        logback-classic:它是log4j的一个改良版本,同时它完整实现了slf4j API使你可以很方便地更换成其它日志系统如log4j或JDK14 Logging
        logback-access:访问模块与Servlet容器集成提供通过Http来访问日志的功能
    二、logback取代log4j的理由:

    更快的实现:Logback的内核重写了,在一些关键执行路径上性能提升10倍以上。而且logback不仅性能提升了,初始化内存加载也更小了。
    非常充分的测试:Logback经过了几年,数不清小时的测试。Logback的测试完全不同级别的。
    Logback-classic非常自然实现了SLF4j:Logback-classic实现了SLF4j。在使用SLF4j中,你都感觉不到logback-classic。而且因为logback-classic非常自然地实现了slf4j , 所 以切换到log4j或者其他,非常容易,只需要提供成另一个jar包就OK,根本不需要去动那些通过SLF4JAPI实现的代码。
    非常充分的文档 官方网站有两百多页的文档。
    自动重新加载配置文件,当配置文件修改了,Logback-classic能自动重新加载配置文件。扫描过程快且安全,它并不需要另外创建一个扫描线程。这个技术充分保证了应用程序能跑得很欢在JEE环境里面。
    Lilith是log事件的观察者,和log4j的chainsaw类似。而lilith还能处理大数量的log数据 。
    谨慎的模式和非常友好的恢复,在谨慎模式下,多个FileAppender实例跑在多个JVM下,能 够安全地写道同一个日志文件。RollingFileAppender会有些限制。Logback的FileAppender和它的子类包括 RollingFileAppender能够非常友好地从I/O异常中恢复。
    配置文件可以处理不同的情况,开发人员经常需要判断不同的Logback配置文件在不同的环境下(开发,测试,生产)。而这些配置文件仅仅只有一些很小的不同,可以通过,和来实现,这样一个配置文件就可以适应多个环境。
    Filters(过滤器)有些时候,需要诊断一个问题,需要打出日志。在log4j,只有降低日志级别,不过这样会打出大量的日志,会影响应用性能。在Logback,你可以继续 保持那个日志级别而除掉某种特殊情况,如alice这个用户登录,她的日志将打在DEBUG级别而其他用户可以继续打在WARN级别。要实现这个功能只需加4行XML配置。可以参考MDCFIlter 。
    SiftingAppender(一个非常多功能的Appender):它可以用来分割日志文件根据任何一个给定的运行参数。如,SiftingAppender能够区别日志事件跟进用户的Session,然后每个用户会有一个日志文件。
    自动压缩已经打出来的log:RollingFileAppender在产生新文件的时候,会自动压缩已经打出来的日志文件。压缩是个异步过程,所以甚至对于大的日志文件,在压缩过程中应用不会受任何影响。
    堆栈树带有包版本:Logback在打出堆栈树日志时,会带上包的数据。
    自动去除旧的日志文件:通过设置TimeBasedRollingPolicy或者SizeAndTimeBasedFNATP的maxHistory属性,你可以控制已经产生日志文件的最大数量。如果设置maxHistory 12,那那些log文件超过12个月的都会被自动移除。
    三、logback的配置介绍

    Logger、appender及layout
  Logger作为日志的记录器,把它关联到应用的对应的context上后,主要用于存放日志对象,也可以定义日志类型、级别。
  Appender主要用于指定日志输出的目的地,目的地可以是控制台、文件、远程套接字服务器、 MySQL、PostreSQL、 Oracle和其他数据库、 JMS和远程UNIX Syslog守护进程等。 
  Layout 负责把事件转换成字符串,格式化的日志信息的输出。

    logger context
  各个logger 都被关联到一个 LoggerContext,LoggerContext负责制造logger,也负责以树结构排列各logger。其他所有logger也通过org.slf4j.LoggerFactory 类的静态方法getLogger取得。 getLogger方法以                              logger名称为参数。用同一名字调用LoggerFactory.getLogger 方法所得到的永远都是同一个logger对象的引用。

    有效级别及级别的继承
  Logger 可以被分配级别。级别包括:TRACE、DEBUG、INFO、WARN 和 ERROR,定义于ch.qos.logback.classic.Level类。如果 logger没有被分配级别,那么它将从有被分配级别的最近的祖先那里继承级别。root logger 默认级别是 DEBUG。

     打印方法与基本的选择规则
  打印方法决定记录请求的级别。例如,如果 L 是一个 logger 实例,那么,语句 L.info("..")是一条级别为 INFO的记录语句。记录请求的级别在高于或等于其 logger 的有效级别时被称为被启用,否则,称为被禁用。记录请求级别为 p,其 logger的有效级别为 q,只有则当 p>=q时,该请求才会被执行。
该规则是 logback 的核心。级别排序为: TRACE < DEBUG < INFO < WARN < ERROR
  四、logback的默认配置
     需要在application-local.properties,或者application.properties中添加logging.config=classpath:log/logback-local.xml的日志配置路径,如果没有这个配置的情况下会去默认配置中找logback-test.xml 和 logback.xml这两个文件
    如果配置文件 logback-test.xml 和 logback.xml 都不存在,那么 logback 默认地会调用BasicConfigurator ,创建一个最小化配置。最小化配置由一个关联到根 logger 的ConsoleAppender 组成。输出用模式为%d{HH:mm:ss.SSS} [%thread] %-5level %logger{36} - %msg%n 的 PatternLayoutEncoder 进行格式化。root logger 默认级别是 DEBUG。

    Logback的配置文件
      Logback 配置文件的语法非常灵活。正因为灵活,所以无法用 DTD 或 XML schema 进行定义。尽管如此,可以这样描述配置文件的基本结构:以<configuration>开头,后面有零个或多个<appender>元素,有零个或多个<logger>元素,有最多一个<root>元素。

    Logback默认配置的步骤
    尝试在 classpath下查找文件logback-test.xml;
    如果文件不存在,则查找文件logback.xml;
    如果两个文件都不存在,logback用BasicConfigurator自动对自己进行配置,这会导致记录输出到控制台。
    用logging.config设置日志文件路径例如logging.config=`classpath:log/logback.xml`。
    根节点<configuration>,包含下面三个属性:
    scan: 当此属性设置为true时,配置文件如果发生改变,将会被重新加载,默认值为true。
    scanPeriod: 设置监测配置文件是否有修改的时间间隔,如果没有给出时间单位,默认单位是毫秒。当scan为true时,此属性生效。默认的时间间隔为1分钟。
    debug: 当此属性设置为true时,将打印出logback内部日志信息,实时查看logback运行状态。默认值为false。
  例如:
    <configuration scan="true" scanPeriod="60 seconds" debug="false"> 
        <!--其他配置省略--> 
    </configuration>
     子节点<property> :用来定义变量值,它有两个属性name和value,通过<property>定义的值会被插入到logger上下文中,可以使“${}”来使用变量。
    name: 变量的名称
    value: 的值时变量定义的值
  例如:
        <configuration scan="true" scanPeriod="60 seconds" debug="false"> 
           <property name="APP_Name" value="myAppName" /> 
           <contextName>${APP_Name}</contextName> 
           <!--其他配置省略--> 
        </configuration>
    子节点<timestamp>:获取时间戳字符串,他有两个属性key和datePattern
    key: 标识此<timestamp> 的名字;
    datePattern: 设置将当前时间(解析配置文件的时间)转换为字符串的模式,遵循java.txt.SimpleDateFormat的格式。
  例如:

        <configuration scan="true" scanPeriod="60 seconds" debug="false"> 
      <timestamp key="bySecond" datePattern="yyyyMMdd'T'HHmmss"/> 
      <contextName>${bySecond}</contextName> 
      <!-- 其他配置省略--> 
    </configuration>
     
     子节点<appender>:负责写日志的组件,它有两个必要属性name和class。name指定appender名称,class指定appender的全限定名
    5.1、ConsoleAppender 把日志输出到控制台,有以下子节点:
      <encoder>:对日志进行格式化。(具体参数稍后讲解 )
      <target>:字符串System.out(默认)或者System.err(区别不多说了)
    例如:
     <maxHistory>是6,则只保存最近6个月的文件,删除之前的旧文件
     <maxFileSize>:这是活动文件的大小,默认值是10MB。
     <fileNamePattern>:必须包含“%i”例如,假设最小值和最大值分别为1和2,命名模式为 mylog%i.log,会产生归档文件mylog1.log和mylog2.log。还可以指定文件压缩选项,例如,mylog%i.log.gz 或者 没有log%i.log.zip
     %c: 输出日志信息所属的类目,通常就是所在类的全名 
     %l: 输出日志事件的发生位置,相当于%C.%M(%F:%L)的组合,包括类目名、发生的线程,以及在代码中的行数。
     %x: 输出和当前线程相关联的MDC(嵌套诊断环境)
     %L: 输出代码中的行号
     
     logback的使用:
     logback使用需要和slf4j一起使用,所以总共需要添加依赖的包有slf4j-api.jar,logback-core.jar,logback-classic.jar,logback-access.jar这个暂时用不到所以不添加依赖了,maven配置
     <properties>
    <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
    <logback.version>1.1.7</logback.version>
    <slf4j.version>1.7.21</slf4j.version>
  </properties>

  <dependencies>
    <dependency>
      <groupId>org.slf4j</groupId>
      <artifactId>slf4j-api</artifactId>
      <version>${slf4j.version}</version>
      <scope>compile</scope>
    </dependency>
    <dependency>
      <groupId>ch.qos.logback</groupId>
      <artifactId>logback-core</artifactId>
      <version>${logback.version}</version>
    </dependency>
    <dependency>
      <groupId>ch.qos.logback</groupId>
      <artifactId>logback-classic</artifactId>
      <version>${logback.version}</version>
      </dependency>
  </dependencies>
在pom文件中需要引入以上配置
以下是一个案例:
 <?xml version="1.0" encoding="UTF-8"?>
<configuration>
    <!--定义日志文件的存储地址 勿在 LogBack 的配置中使用相对路径 -->
    <property name="LOG_HOME" value="/home/service/var/logs/"/>
    <!--<property name="LOG_HOME" value="F:/newBranch/bot-voice"/>-->
    <!--项目名称 -->
    <property name="PRO_NAME" value="bot-voice"/>
    <!--<property name="PRO_NAME" value="bot-voice-asr-log"/>-->
    <!-- 控制台输出 -->
    <appender name="STDOUT" class="ch.qos.logback.core.ConsoleAppender">
        <encoder>
            <!--格式化输出:%d表示日期,%thread表示线程名,%-5level:级别从左显示5个字符宽度  %msg:日志消息,%n是换行符 %c: 输出日志信息所属的类目,通常就是所在类的全名 -->
            <pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%level][%class{0}.%M][%X{recordId}][%X{imei}] - %msg - [%thread][%X{clientIp}]%replace(%caller{1}){'\t|Caller.{1}0|\r\n', ''}%n</pattern>
        </encoder>
    </appender>

    <!-- 按照每天生成日志文件 -->
    <appender name="FILE" class="ch.qos.logback.core.rolling.RollingFileAppender">
        <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
            <!--日志文件输出的文件名 -->
            <FileNamePattern>${LOG_HOME}/${PRO_NAME}/${PRO_NAME}-%d{yyyyMMdd}.%i.log</FileNamePattern>
            <MaxHistory>30</MaxHistory> //只保存最近30天的日志文件,删除之前的旧文件
            <TimeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP">
                <MaxFileSize>50MB</MaxFileSize>//活动文件的大小,默认值是10MB超过该值之后生成下一个文件
            </TimeBasedFileNamingAndTriggeringPolicy>
        </rollingPolicy>
        <encoder>
            <pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%level][%class{0}.%M][%X{recordId}][%X{imei}] - %msg - [%thread][%X{clientIp}]%replace(%caller{1}){'\t|Caller.{1}0|\r\n', ''}%n</pattern>
        </encoder>
    </appender>
    <appender name="BUSINESS-FILE" class="ch.qos.logback.core.rolling.RollingFileAppender">
        <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
            <!--日志文件输出的文件名 -->
            <FileNamePattern>${LOG_HOME}/${PRO_NAME}/${PRO_NAME}-business-%d{yyyyMMdd}.%i.log</FileNamePattern>
            <MaxHistory>100</MaxHistory>
            <TimeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP">
                <MaxFileSize>50MB</MaxFileSize>
            </TimeBasedFileNamingAndTriggeringPolicy>
        </rollingPolicy>
        <encoder>
            <pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} %level %logger{50} [%thread] -%msg%n</pattern>
        </encoder>
    </appender>
    <!-- 定义日志文件异步输出 -->
    <appender name="ASYNC" class="ch.qos.logback.classic.AsyncAppender">
        <!-- 不丢失日志.默认的,如果队列的80%已满,则会丢弃TRACT、DEBUG、INFO级别的日志 -->
        <discardingThreshold>0</discardingThreshold>
        <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 -->
        <queueSize>512</queueSize>
        <includeCallerData>true</includeCallerData>
        <!-- 添加附加的appender,最多只能添加一个 -->
        <appender-ref ref="FILE"/>
    </appender>

    <appender name="HTTPLOG" class="com.oppo.basic.logger.appender.logback.HttpAppender"/>
    <logger name="com.oppo.bot.voice.asr.sibichi.service.SbcServiceImpl" level="DEBUG" additivity="false">
        <appender-ref ref="BUSINESS-FILE"/>
    </logger>
    <!-- additivity: 是否向上级loger传递打印信息。默认是true。 -->
    <logger name="java.sql" level="ERROR" additivity="false">
        <appender-ref ref="FILE"/>
    </logger>
    <logger name="org.apache.zookeeper" level="ERROR" additivity="false">
        <appender-ref ref="FILE"/>
    </logger>

表示在项目启动时添加环境变量-Dspring.profiles.active=v2时的日志级别

<springProfile name="v2,v5">
<root level="${LOG_LEVEL}">
<appender-ref ref="ASYNC"/>
<appender-ref ref="HTTPLOG"/>
</root>
</springProfile>
    <!-- 日志输出级别 ERROR,WARN,INFO,DEBUG -->
    <root level="${log.level}">
    <!--  标识这些appender将会添加到这个logger,对于所有没有定义的只要 --> 
        <appender-ref ref="STDOUT"/>
        <appender-ref ref="ASYNC"/>
        <appender-ref ref="HTTPLOG"/>
    </root>
</configuration>
其中下面这个是将com.oppo.bot.voice.asr.sibichi.service.SbcServiceImpl这个包下面的日志打入appender为BUSINESS-FILE的(<appender-ref ref="BUSINESS-FILE"/>)

name为表达式下面的包名或者具体类名
<logger name="com.oppo.bot.voice.asr.sibichi.service.SbcServiceImpl" level="DEBUG" additivity="false">
        <appender-ref ref="BUSINESS-FILE"/>
    </logger>
  
  四、MDC
    logback内置的日志字段还是比较少,如果我们需要打印有关业务的更多的内容,包括自定义的一些数据,需要借助logback MDC机制,MDC为“Mapped Diagnostic Context”(映射诊断上下文),即将一些运行时的上下文数据通过logback打印出来;此时我们需要借助org.sl4j.MDC类。
    MDC类基本原理其实非常简单,其内部持有一个InheritableThreadLocal实例,用于保存context数据,MDC提供了put/get/clear等几个核心接口,用于操作ThreadLocal中的数据;ThreadLocal中的K-V,可以在logback.xml中声明,最终将会打印在日志中。
    Java代码  收藏代码
    MDC.put("userId",1000);  
    那么在logback.xml中,即可在layout中通过声明“%X{userId}”来打印此信息。
    在使用MDC时需要注意一些问题,这些问题通常也是ThreadLocal引起的,比如我们需要在线程退出之前清除(clear)MDC中的数据;在线程池中使用MDC时,那么需要在子线程退出之前清除数据;可以调用MDC.clear()方法。
    在JAVA WEB项目中,为了更好的跟踪请求,我们可能希望在日志中打印比如HTTP header信息、运行时的一些token、code等,那么我们借助MDC即可非常便捷的实现。我们开发一个Filter,此Filter用于解析Http请求中的一些参数,并将这些参数添加到MDC中,并在logback.xml中声明我们关注的字段。
    在代码初始化的时候我们用MDC.put("key","value");添加
    
    Mapped Diagnostic Context,用于打LOG时跟踪一个“会话“、一个”事务“。举例,有一个web controller,在同一时间可能收到来自多个客户端的请求,如果一个请求发生了错误,我们要跟踪这个请求从controller开始一步步都执行到了哪些代码、有哪些log的输出。这时我们可以看log文件,但是log文件是多个请求同时记录的,基本无法分辨哪行是哪个请求产生的,虽然我们可以看线程,但线程可能被复用,也是很难分辨出,这时MDC就派上用场了。

    我们可以加一个web filter,在请求进来时,把”标识“放到MDC context中,比如:put( ip, 8.8.8.8), put(username, 'yang'),在filter结束时把context再清掉,即可在整个请求处理过程中,都可以打印出ip, username这些数据,就可以方便的用于日志跟踪。
    在SpringBoot中怎么用
    1. 写一个LogInterceptor,用于统一处理MDC:
   @Component
    public class LogInterceptor implements HandlerInterceptor {
 
    private final static String REQUEST_ID = "requestId";
    private static final Logger LOGGER = LoggerFactory.getLogger(LogInterceptor.class);
 
    @Override
    public boolean preHandle(HttpServletRequest httpServletRequest, HttpServletResponse httpServletResponse, Object o) throws Exception {
        String xForwardedForHeader = httpServletRequest.getHeader("X-Forwarded-For");
        String remoteIp = httpServletRequest.getRemoteAddr();
        String uuid = UUID.randomUUID().toString();
        LOGGER.info("put requestId ({}) to logger", uuid);
        LOGGER.info("request id:{}, client ip:{}, X-Forwarded-For:{}", uuid, remoteIp, xForwardedForHeader);
        MDC.put(REQUEST_ID, uuid);
        return true;
    }
 
    @Override
    public void postHandle(HttpServletRequest httpServletRequest, HttpServletResponse httpServletResponse, Object o, ModelAndView modelAndView) throws Exception {
        String uuid = MDC.get(REQUEST_ID);
        LOGGER.info("remove requestId ({}) from logger", uuid);
        MDC.remove(REQUEST_ID); //或者使用MDC.remove()清除掉MDC中所有
    }
 
    @Override
    public void afterCompletion(HttpServletRequest httpServletRequest, HttpServletResponse httpServletResponse, Object o, Exception e) throws Exception {
 
    }
    关键代码在于:MDC.put(REQUEST_ID, uuid);
    注册一下这个Interceptor,写一个WebMvcConfigurer类:
    @Configuration
    public class WebMvcConfigurer extends WebMvcConfigurerAdapter {
        @Autowired
        private LogInterceptor logInterceptor;
     
        @Override
        public void addInterceptors(InterceptorRegistry registry) {
            registry.addInterceptor(logInterceptor);
            super.addInterceptors(registry);
        }
    }
log日志文件路径配置:

需要在application中指出

  1. 日志配置文件的位置用logging.config设置例如logging.config=`classpath:log/logback.xml`。

  2. 也可以通过AOC注解将信息传入MDC中,例如:

  3. 注解类:

@Retention(RetentionPolicy.RUNTIME)
@Target(ElementType.METHOD)
@Documented
public @interface TraceRequest {}

使用如下:

private final static String TRACE_ANNOTATION = "@annotation(com.oppo.bot.classifier.common.log.TraceRequest)";

@Before(value = TRACE_ANNOTATION)
public void startLog(JoinPoint joinPoint) {
//因为参数是一个数组
Object[] objects = joinPoint.getArgs();
for (Object object : objects) {
if (Objects.nonNull(object) && object instanceof DialogReq) {
DialogReq dialogReq = (DialogReq)object;
MDC.put("recordId",
Optional.ofNullable(dialogReq.getUserInfo()).map(UserInfo::getRecordId).orElse("0"));
MDC.put("serialId", Optional.ofNullable(dialogReq.getUserInfo()).map(UserInfo::getSerialId)
.map(String::valueOf).orElse("0"));
MDC.put("imei", Optional.ofNullable(dialogReq.getUserInfo()).map(UserInfo::getDeviceId)
.map(String::valueOf).orElse(null));
break;
}
if(Objects.nonNull(object) && object instanceo

f DialogRequest){
DialogRequest dialogReq = (DialogRequest)object;
MDC.put("recordId",
Optional.ofNullable(dialogReq.getUserInfo()).map(UserInfo::getRecordId).orElse("0"));
MDC.put("imei", Optional.ofNullable(dialogReq.getUserInfo()).map(UserInfo::getDeviceId)
.map(String::valueOf).orElse(null));
break;
}
}

}

@AfterReturning(value = TRACE_ANNOTATION)
public void removeTrace() {
MDC.remove("recordId");
MDC.remove("clientIp");
MDC.remove("imei");
}

@AfterThrowing(value = TRACE_ANNOTATION, throwing = "ex")
public void logError(Throwable ex){
MDC.remove("recordId");
MDC.remove("clientIp");
MDC.remove("imei");
}

 

日志文件xml详细配置:

springProperty为运用的spring的属性source为application.property中的值

property为logback自带的属性,value为自定义的变量值

<?xml version="1.0" encoding="UTF-8"?>
<configuration scan="true">
    <!-- scan=true表示logback会定期扫描配置文件的更新,即热加载。默认的时间间隔是1min -->
    <!--定义日志文件的存储地址 勿在 LogBack 的配置中使用相对路径 -->

//log.path和log.level均为application.property文件中对应的属性值
    <springProperty name="LOG_HOME" source="log.path"/>
    <springProperty  name="LOG_LEVEL" source="log.level"/>
    <springProperty  name="MONITOR_LOG_LEVEL" source="monitor.logging.level"/>
    <!--项目名称 -->
    <property name="PRO_NAME" value="bot-rule-nlu"/>
    <property name="JSONLOG_HOME" value="${LOG_HOME}/json"/>
    <springProperty  name="LOG_MAX_HISTORY" source="log.maxhistory"/>
    <!-- 控制台输出 -->
    <appender name="STDOUT" class="ch.qos.logback.core.ConsoleAppender">
        <encoder>
            <!--格式化输出:%d表示日期,%thread表示线程名,%-5level:级别从左显示5个字符宽度%msg:日志消息,%n是换行符 -->
            <pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%level][%class{0}.%M][%X{recordId}][%X{serialId}] - %msg - [%thread][%X{clientIp}]%replace(%caller{1}){'\t|Caller.{1}0|\r\n', ''}%n</pattern>
        </encoder>
    </appender>

    <!-- 按照每天生成日志文件 -->
    <appender name="FILE" class="ch.qos.logback.core.rolling.RollingFileAppender">
        <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
            <!--日志文件输出的文件名 -->
            <FileNamePattern>${LOG_HOME}/${PRO_NAME}/${PRO_NAME}-%d{yyyyMMdd}.%i.log</FileNamePattern>
            <MaxHistory>${LOG_MAX_HISTORY}</MaxHistory>
            <CleanHistoryOnStart>true</CleanHistoryOnStart>
            <TimeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP">
                <MaxFileSize>50MB</MaxFileSize>
            </TimeBasedFileNamingAndTriggeringPolicy>
        </rollingPolicy>
        <encoder>
            <pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%level][%class{0}.%M][%X{recordId}][%X{serialId}] - %msg - [%thread][%X{clientIp}]%replace(%caller{1}){'\t|Caller.{1}0|\r\n', ''}%n</pattern>
        </encoder>
    </appender>

    <appender name="MONITORFILE" class="ch.qos.logback.core.rolling.RollingFileAppender">
        <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
            <!--日志文件输出的文件名 -->
            <FileNamePattern>${LOG_HOME}/${PRO_NAME}/${PRO_NAME}-monitor-%d{yyyyMMdd}.%i.log</FileNamePattern>
            <MaxHistory>${LOG_MAX_HISTORY}</MaxHistory>
            <CleanHistoryOnStart>true</CleanHistoryOnStart>
            <TimeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP">
                <MaxFileSize>50MB</MaxFileSize>
            </TimeBasedFileNamingAndTriggeringPolicy>
        </rollingPolicy>
        <encoder>
            <pattern>%d{yyyy-MM-dd HH:mm:ss.SSS} [%level][%class{0}.%M][%X{recordId}][%X{serialId}] - %msg - [%thread][%X{clientIp}]%replace(%caller{1}){'\t|Caller.{1}0|\r\n', ''}%n</pattern>
        </encoder>
    </appender>

    <!-- 定义日志文件异步输出 -->
    <appender name="ASYNC" class="ch.qos.logback.classic.AsyncAppender">
        <!-- 不丢失日志.默认的,如果队列的80%已满,则会丢弃TRACT、DEBUG、INFO级别的日志 -->
        <discardingThreshold>0</discardingThreshold>
        <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 -->
        <queueSize>512</queueSize>
        <includeCallerData>true</includeCallerData>
        <!-- 添加附加的appender,最多只能添加一个 -->
        <appender-ref ref="FILE"/>
    </appender>

    <appender name="HTTPLOG" class="com.oppo.basic.logger.appender.logback.HttpAppender" mdcKey="recordId"/>

    <appender name="JSONFILE" class="ch.qos.logback.core.rolling.RollingFileAppender">
        <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
            <!--日志文件输出的文件名 -->
            <FileNamePattern>${JSONLOG_HOME}/${PRO_NAME}/${PRO_NAME}-%d{yyyyMMdd}.%i.log</FileNamePattern>
            <MaxHistory>${LOG_MAX_HISTORY}</MaxHistory>
            <CleanHistoryOnStart>true</CleanHistoryOnStart>
            <TimeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP">
                <MaxFileSize>50MB</MaxFileSize>
            </TimeBasedFileNamingAndTriggeringPolicy>
        </rollingPolicy>
        <encoder class="net.logstash.logback.encoder.LoggingEventCompositeJsonEncoder">
            <jsonFactoryDecorator class="com.oppo.bot.common.logger.MyJsonFactoryDecorator"/>
            <providers>
                <mdc/>
                <pattern>
                    <pattern>
                        {
                        "createTime": "%d{yyyy-MM-dd HH:mm:ss.SSS}",
                        "msg":"%msg",
                        "methodName": "%class{0}.%M.%L",
                        "logLever": "%level",
                        "project": "${PRO_NAME}",
                        "thread": "%thread"
                        }
                    </pattern>
                </pattern>
            </providers>
        </encoder>
    </appender>
    <appender name="ASYNCJSON" class="ch.qos.logback.classic.AsyncAppender">
        <!-- 不丢失日志.默认的,如果队列的80%已满,则会丢弃TRACT、DEBUG、INFO级别的日志 -->
        <discardingThreshold>0</discardingThreshold>
        <!-- 更改默认的队列的深度,该值会影响性能.默认值为256 -->
        <queueSize>512</queueSize>
        <includeCallerData>true</includeCallerData>
        <!-- 添加附加的appender,最多只能添加一个 -->
        <appender-ref ref="JSONFILE"/>
    </appender>

    <!-- additivity: 是否向上级loger传递打印信息。默认是true。 -->
    <logger name="java.sql" level="ERROR" additivity="false">
        <appender-ref ref="FILE"/>
    </logger>
    <logger name="org.apache.zookeeper" level="ERROR" additivity="false">
        <appender-ref ref="FILE"/>
    </logger>

    <!-- 服务启动日志,需要打印到server.log中,name为xxxApplication的包路径,最好是该包下只有Application一个类 -->
    <logger name="com.oppo.bot.rule.intervention.Application">
        <appender-ref ref="STDOUT"/>
    </logger>
    <!-- spring启动日志,需要打印到server.log中 -->
    <logger name="org.springframework">
        <appender-ref ref="STDOUT"/>
    </logger>

    <logger name="com.oppo.bot.common.monitor" level="${MONITOR_LOG_LEVEL}">
        <appender-ref ref="MONITORFILE"/>
    </logger>

    <!-- 日志输出级别 ERROR,WARN,INFO,DEBUG -->
    <springProfile name="local">
        <root level="${LOG_LEVEL}">
            <appender-ref ref="STDOUT"/>
        </root>
    </springProfile>

    <springProfile name="v2,v5">
        <root level="${LOG_LEVEL}">
            <appender-ref ref="ASYNC"/>
            <appender-ref ref="HTTPLOG"/>
        </root>
    </springProfile>

    <springProfile name="v1,preproduct,product">
        <root level="${LOG_LEVEL}">
            <appender-ref ref="ASYNC"/>
            <appender-ref ref="HTTPLOG"/>
            <appender-ref ref="ASYNCJSON"/>
        </root>
    </springProfile>

</configuration>
 

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
下面是一个简单的 Logback 使用示例: 1. 引入 Logback 依赖 ```xml <dependency> <groupId>ch.qos.logback</groupId> <artifactId>logback-classic</artifactId> <version>1.2.3</version> </dependency> ``` 2. 创建 Logback 配置文件 在 src/main/resources 目录下创建 logback.xml 配置文件,内容如下: ```xml <configuration> <appender name="CONSOLE" class="ch.qos.logback.core.ConsoleAppender"> <encoder> <pattern>%d{HH:mm:ss.SSS} [%thread] %-5level %logger{36} - %msg%n</pattern> </encoder> </appender> <root level="DEBUG"> <appender-ref ref="CONSOLE" /> </root> </configuration> ``` 上述配置定义了一个控制台输出的 appender,它输出的日志信息包括时间、线程名、日志级别、日志类名以及日志内容。 3. 在代码中使用 Logback ```java import org.slf4j.Logger; import org.slf4j.LoggerFactory; public class MyApp { private static final Logger logger = LoggerFactory.getLogger(MyApp.class); public static void main(String[] args) { logger.debug("Debug message"); logger.info("Info message"); logger.warn("Warn message"); logger.error("Error message"); } } ``` 上述代码中,我们使用了 slf4j 接口来获取 LogbackLogger 对象,并在程序中输出了不同级别的日志信息。 4. 运行程序并查看日志输出 运行程序后,可以在控制台中看到类似下面的日志输出: ``` 10:23:45.678 [main] DEBUG com.example.MyApp - Debug message 10:23:45.678 [main] INFO com.example.MyApp - Info message 10:23:45.678 [main] WARN com.example.MyApp - Warn message 10:23:45.678 [main] ERROR com.example.MyApp - Error message ``` 这就是一个简单的 Logback 使用示例。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值