<?xml version="1.0" encoding="UTF-8"?>
<!-- log4j2使用说明(create By yanxiao ):
使用方式如下:
private static final Logger logger = LogManager.getLogger(实际类名.class.getName());
2、日志说明:
(1)请根据实际情况配置各项参数
(2)需要注意日志文件备份数和日志文件大小,注意预留目录空间
(3)实际部署的时候backupFilePatch变量需要修改成linux目录
-->
<configuration status="error"> <!-->status属性,这个属性表示log4j2本身的日志信息打印级别-->
<Properties>
<Property name="fileName">manage.log</Property>
<Property name="backupFilePatch">/opt/springcloud/logs/stxf-provider-user</Property>
<Property name="jsonPattern">{"createTime":"%d{yyyy-MM-dd HH:mm:ss}","thread":"%t","threadId":"%T","traceId":"%X{X-B3-TraceId}","level":"%-5p","className":"%c{1.}.%M(%L)","message":"%m", "exception":"%rEx", "serviceName":"stxf-provider-user"}%n</Property>
</Properties>
<!--先定义所有的appender-->
<appenders>
<!--这个输出控制台的配置-->
<Console name="Console" target="SYSTEM_OUT">
<!--控制台只输出level及以上级别的信息(onMatch),其他的直接拒绝(onMismatch)-->
<ThresholdFilter level="DEBUG" onMatch="ACCEPT" onMismatch="DENY" />
<!--这个都知道是输出日志的格式-->
<PatternLayout pattern="%d{HH:mm:ss.SSS} %-5level %class{36} %L %M - %msg%xEx%n" />
</Console>
<!-- 文件会打印出所有信息,这个log每次运行程序会自动清空,由append属性决定,这个也挺有用的,适合临时测试用 -->
<!-- append为TRUE表示消息增加到指定文件中,false表示消息覆盖指定的文件内容,默认值是true -->
<File name="log" fileName="${backupFilePatch}/test.log" append="false">
<PatternLayout pattern="%d{HH:mm:ss.SSS} %-5level %class{36} %L %M - %msg%xEx%n"/>
</File>
<!-- 添加过滤器ThresholdFilter,可以有选择的输出某个级别以上的类别 onMatch="ACCEPT" onMismatch="DENY"意思是匹配就接受,否则直接拒绝 -->
<File name="ERROR" fileName="${backupFilePatch}/error.log">
<ThresholdFilter level="ERROR" onMatch="ACCEPT" onMismatch="DENY"/>
<PatternLayout pattern="${jsonPattern}"/>
</File>
<!--这个会打印出所有的信息,每次大小超过size,则这size大小的日志会自动存入按年份-月份建立的文件夹下面并进行压缩,作为存档-->
<RollingFile name="RollingFile" fileName="${backupFilePatch}/${fileName}"
filePattern="${backupFilePatch}/${date:yyyy-MM}/app-%d{yyyyMMddHHmmssSSS}.log.gz">
<PatternLayout
pattern="%d{yyyy.MM.dd 'at' HH:mm:ss.SSS z} %-5level %class{36} %L %M - %msg%xEx%n" />
<!-- 日志文件大小 -->
<SizeBasedTriggeringPolicy size="20M" />
<!-- 最多保留文件数 -->
<DefaultRolloverStrategy max="20"/>
</RollingFile>
<!--kafka的配置 记录错误日志 ignoreExceptions=false才能出错日志错误转移-->
<Kafka name="kafkaLog" topic="stxf-provider-log" ignoreExceptions="false">
<ThresholdFilter level="ERROR" onMatch="ACCEPT" onMismatch="DENY"/>
<PatternLayout pattern="${jsonPattern}" />
<!--<JsonLayout/> json格式不好控制-->
<!--kakfa集群的各个节点:host:port,以逗号分隔-->
<Property name="bootstrap.servers">103.131.169.87:9092</Property>
<!--log4j2默认阻塞发送日志,2000ms无反应认为kafka异常,启动failover-->
<Property name="max.block.ms">2000</Property>
</Kafka>
<!--错误转移-->
<Failover name="failover" primary="kafkaLog" retryIntervalSeconds="600">
<Failovers>
<AppenderRef ref="ERROR"/>
</Failovers>
</Failover>
<!--异步发送-->
<Async name="errorAsync">
<AppenderRef ref="failover"/>
</Async>
</appenders>
<!--然后定义logger,只有定义了logger并引入的appender,appender才会生效-->
<loggers>
<!--additivity="false"表示在该logger中输出的日志不会再延伸到父层logger。 这里如果改为true,则会延伸到Root Logger,遵循Root Logger的配置也输出一次。-->
<!--控制sql的输出-->
<Logger name="com.zx.stxf.provider.user.dao" level="DEBUG" additivity="true">
<AppenderRef ref="RollingFile" />
</Logger>
<Logger name="org.apache.http" level="INFO" additivity="false">
<appender-ref ref="Console"/>
</Logger>
<Logger name="springfox.documentation" level="INFO" additivity="true"/>
<Logger name="org.springframework" level="INFO" additivity="true"/>
<Logger name="com.netflix" level="INFO" additivity="true"/>
<Logger name="org.apache.kafka" level="ERROR" />
<!-- 父层(默认)logger-->
<Root level="DEBUG">
<appender-ref ref="Console"/>
<appender-ref ref="errorAsync" />
<appender-ref ref="log"/>
</Root>
</loggers>
</configuration>
要使用异步输出日志文件需要映入架包
<dependency>
<groupId>com.lmax</groupId>
<artifactId>disruptor</artifactId>
<version>3.4.2</version>
</dependency>