<?xml version="1.0" encoding="UTF-8"?>
<!-- scan:当此属性设置为true时,配置文件如果发生改变,将会被重新加载,默认值为true。
scanPeriod:设置监测配置文件是否有修改的时间间隔,如果没有给出时间单位,
默认单位是毫秒当scan为true时,此属性生效。默认的时间间隔为1分钟。
debug:当此属性设置为true时,将打印出logback内部日志信息,实时查看logback运行状态。
默认值为false。 -->
<!-- <configuration scan="false" scanPeriod="60 seconds" debug="false"> -->
<configuration>
<!-- 在spring-boot-*.jar 如果使用以下include,默认配置了Console输出 -->
<!-- <include resource="org/springframework/boot/logging/logback/base.xml"
/> -->
<!--设置上下文名称,用于区分不同应用程序的记录。一旦设置不能修改,
可以通过%contextName来打印日志上下文名称-->
<contextName>logback</contextName>
<!-- 定义日志的根目录 -->
<property name="logDir" value="${gzzq.files}/logback" />
<!-- 定义日志文件名称 -->
<property name="appName" value="log_admin"></property>
<!-- ConsoleAppender 表示控制台输出 -->
<appender name="CONSOLE" class="ch.qos.logback.core.ConsoleAppender">
<!-- 日志输出格式:
%d表示日期时间,
%thread表示线程名,
%-5level:级别从左显示5个字符宽度,
%logger{50} 表示logger名字最长50个字符,否则按照句点分割。
%msg:日志消息,
%n是换行符 -->
<encoder>
<pattern>%d{HH:mm:ss.SSS} %contextName [%thread] %-5level %logger{50} - %msg%n</pattern>
</encoder>
</appender>
<!-- 滚动记录文件,先将日志记录到指定文件,当符合某个条件时,将日志记录到其他文件 -->
<appender name="appLogAppender"
class="ch.qos.logback.core.rolling.RollingFileAppender">
<!-- 指定日志文件的名称 -->
<file>${logDir}/${appName}.log</file>
<!--过滤日志,仅记录error日志-->
<filter class="ch.qos.logback.classic.filter.ThresholdFilter">
<level>Error</level>
</filter>
<!-- 当发生滚动时,决定 RollingFileAppender 的行为,涉及文件移动和重命名 TimeBasedRollingPolicy:
最常用的滚动策略,它根据时间来制定滚动策略,既负责滚动也负责出发滚动。 -->
<rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
<!-- 滚动时产生的文件的存放位置及文件名称 %d{yyyy-MM-dd}:按天进行日志滚动 %i:当文件大小超过maxFileSize时,按照i进行文件滚动 -->
<fileNamePattern>${logDir}/${appName}-%d{yyyy-MM-dd}-%i.log</fileNamePattern>
<!-- 可选节点,控制保留的归档文件的最大数量,超出数量就删除旧文件。假设设置每天滚动, 且maxHistory是365,则只保存最近365天的文件,删除之前的旧文件。注意,删除旧文件是,
那些为了归档而创建的目录也会被删除。 -->
<MaxHistory>60</MaxHistory>
<!-- 当日志文件超过maxFileSize指定的大小是,根据上面提到的%i进行日志文件滚动 注意此处配置SizeBasedTriggeringPolicy是无法实现按文件大小进行滚动的,必须配置timeBasedFileNamingAndTriggeringPolicy -->
<timeBasedFileNamingAndTriggeringPolicy
class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP">
<maxFileSize>20MB</maxFileSize>
</timeBasedFileNamingAndTriggeringPolicy>
</rollingPolicy>
<encoder>
<pattern>%d{HH:mm:ss.SSS} %contextName [%thread] %-5level %logger{50} - %msg%n</pattern>
</encoder>
</appender>
<!-- 参照这个来做https://github.com/danielwegener/logback-kafka-appender/blob/master/src/example/resources/logback.xml -->
<!--输出到文件 kafka 信息单独归档 -->
<appender name="KafkaAppender"
class="com.github.danielwegener.logback.kafka.KafkaAppender">
<encoder
class="com.github.danielwegener.logback.kafka.encoding.LayoutKafkaMessageEncoder">
<layout class="net.logstash.logback.layout.LogstashLayout">
<!-- 是否包含上下文 -->
<includeContext>true</includeContext>
<!-- 是否包含日志来源 -->
<includeCallerData>true</includeCallerData>
<!-- 自定义附加字段 -->
<customFields>{"system":"test"}</customFields>
<!-- 自定义字段的简称 -->
<fieldNames class="net.logstash.logback.fieldnames.ShortenedFieldNames" />
</layout>
<charset>UTF-8</charset>
</encoder>
<!--kafka topic 需要与配置文件里面的topic一致 否则kafka会沉默并鄙视你 -->
<topic>
advancedtopic
</topic>
<keyingStrategy
class="com.github.danielwegener.logback.kafka.keying.HostNameKeyingStrategy" />
<deliveryStrategy
class="com.github.danielwegener.logback.kafka.delivery.AsynchronousDeliveryStrategy" />
<producerConfig>
bootstrap.servers=localhost:9092
</producerConfig>
<!-- this is the fallback appender if kafka is not available. -->
<appender-ref ref="CONSOLE" />
</appender>
<!-- springProfile表示在dev环境下使用 -->
<!-- <springProfile name="dev"> -->
<!-- <logger name="com.nick" level="error" additivity="true" -->
<!-- appender-ref="CONSOLE"> -->
<!-- </logger> -->
<!-- </springProfile> -->
<logger name="com.nick" level="debug" additivity="true">
<appender-ref ref="KafkaAppender" />
</logger>
<!-- logger主要用于存放日志对象,也可以定义日志类型、级别
name:表示匹配的logger类型前缀,也就是包的前半部分
level:要记录的日志级别,包括 TRACE < DEBUG < INFO < WARN < ERROR additivity:作用在于children-logger是否使用 rootLogger配置的appender进行输出,
false:表示只用当前logger的appender-ref,
true:表示当前logger的appender-ref和rootLogger的appender-ref都有效 -->
<!-- Spring framework logger 使用appLogAppender,不追加到root-->
<logger name="org.springframework" level="error" additivity="false">
<appender-ref ref="appLogAppender" />
</logger>
<!-- thymeleaf logger -->
<logger name="org.thymeleaf" level="error" additivity="true" />
<logger name="com.gzzq" level="debug" additivity="true" />
<!-- root与logger是父子关系,没有特别定义则默认为root,任何一个类只会和一个logger对应, 要么是定义的logger,要么是root,判断的关键在于找到这个logger,然后判断这个logger的appender和level。 -->
<root level="error">
<appender-ref ref="CONSOLE" />
<appender-ref ref="appLogAppender" />
</root>
</configuration>
如果不需要kafka,将KafkaAppender相关删除即可。
如果要使用kafka,则需要添加以下依赖
<!-- logback日志appender到kafka -->
<dependency>
<groupId>com.github.danielwegener</groupId>
<artifactId>logback-kafka-appender</artifactId>
<version>0.1.0</version>
<scope>runtime</scope>
</dependency>
<dependency>
<groupId>net.logstash.logback</groupId>
<artifactId>logstash-logback-encoder</artifactId>
<version>4.11</version>
</dependency>
<!--logback依赖-->
<dependency>
<groupId>org.slf4j</groupId>
<artifactId>slf4j-api</artifactId>
<version>1.7.25</version>
<scope>compile</scope>
</dependency>
<dependency>
<groupId>ch.qos.logback</groupId>
<artifactId>logback-core</artifactId>
<version>1.1.11</version>
</dependency>
<dependency>
<groupId>ch.qos.logback</groupId>
<artifactId>logback-classic</artifactId>
<version>1.1.11</version>
</dependency>
“`