log4j2.xml配置文件

<?xml version="1.0" encoding="UTF-8"?>
<!-- log4j2使用说明(create By yanxiao    ):
使用方式如下:
private static final Logger logger = LogManager.getLogger(实际类名.class.getName());

2、日志说明:
(1)请根据实际情况配置各项参数
(2)需要注意日志文件备份数和日志文件大小,注意预留目录空间
(3)实际部署的时候backupFilePatch变量需要修改成linux目录
 -->
<configuration status="error"> <!--&gt;status属性,这个属性表示log4j2本身的日志信息打印级别-->
    <Properties>
        <Property name="fileName">manage.log</Property>
        <Property name="backupFilePatch">/opt/springcloud/logs/stxf-provider-user</Property>
        <Property name="jsonPattern">{"createTime":"%d{yyyy-MM-dd HH:mm:ss}","thread":"%t","threadId":"%T","traceId":"%X{X-B3-TraceId}","level":"%-5p","className":"%c{1.}.%M(%L)","message":"%m", "exception":"%rEx", "serviceName":"stxf-provider-user"}%n</Property>
    </Properties>
    <!--先定义所有的appender-->
    <appenders>
        <!--这个输出控制台的配置-->
        <Console name="Console" target="SYSTEM_OUT">
            <!--控制台只输出level及以上级别的信息(onMatch),其他的直接拒绝(onMismatch)-->
            <ThresholdFilter level="DEBUG" onMatch="ACCEPT" onMismatch="DENY" />
            <!--这个都知道是输出日志的格式-->
            <PatternLayout pattern="%d{HH:mm:ss.SSS} %-5level %class{36} %L %M - %msg%xEx%n" />
        </Console>

        <!--         文件会打印出所有信息,这个log每次运行程序会自动清空,由append属性决定,这个也挺有用的,适合临时测试用 -->
        <!--         append为TRUE表示消息增加到指定文件中,false表示消息覆盖指定的文件内容,默认值是true -->
        <File name="log" fileName="${backupFilePatch}/test.log" append="false">
            <PatternLayout pattern="%d{HH:mm:ss.SSS} %-5level %class{36} %L %M - %msg%xEx%n"/>
        </File>

        <!--          添加过滤器ThresholdFilter,可以有选择的输出某个级别以上的类别  onMatch="ACCEPT" onMismatch="DENY"意思是匹配就接受,否则直接拒绝  -->
        <File name="ERROR" fileName="${backupFilePatch}/error.log">
            <ThresholdFilter level="ERROR" onMatch="ACCEPT" onMismatch="DENY"/>
            <PatternLayout pattern="${jsonPattern}"/>
        </File>

        <!--这个会打印出所有的信息,每次大小超过size,则这size大小的日志会自动存入按年份-月份建立的文件夹下面并进行压缩,作为存档-->
        <RollingFile name="RollingFile" fileName="${backupFilePatch}/${fileName}"
                     filePattern="${backupFilePatch}/${date:yyyy-MM}/app-%d{yyyyMMddHHmmssSSS}.log.gz">
            <PatternLayout
                    pattern="%d{yyyy.MM.dd 'at' HH:mm:ss.SSS z} %-5level %class{36} %L %M - %msg%xEx%n" />

            <!-- 日志文件大小 -->
            <SizeBasedTriggeringPolicy size="20M" />
            <!-- 最多保留文件数 -->
            <DefaultRolloverStrategy max="20"/>
        </RollingFile>

        <!--kafka的配置 记录错误日志 ignoreExceptions=false才能出错日志错误转移-->
        <Kafka name="kafkaLog" topic="stxf-provider-log" ignoreExceptions="false">
            <ThresholdFilter level="ERROR" onMatch="ACCEPT" onMismatch="DENY"/>
            <PatternLayout pattern="${jsonPattern}" />
            <!--<JsonLayout/> json格式不好控制-->
            <!--kakfa集群的各个节点:host:port,以逗号分隔-->
            <Property name="bootstrap.servers">103.131.169.87:9092</Property>
            <!--log4j2默认阻塞发送日志,2000ms无反应认为kafka异常,启动failover-->
            <Property name="max.block.ms">2000</Property>
        </Kafka>

        <!--错误转移-->
        <Failover name="failover" primary="kafkaLog" retryIntervalSeconds="600">
            <Failovers>
                <AppenderRef ref="ERROR"/>
            </Failovers>
        </Failover>

        <!--异步发送-->
        <Async name="errorAsync">
            <AppenderRef ref="failover"/>
        </Async>
    </appenders>

    <!--然后定义logger,只有定义了logger并引入的appender,appender才会生效-->
    <loggers>
        <!--additivity="false"表示在该logger中输出的日志不会再延伸到父层logger。 这里如果改为true,则会延伸到Root Logger,遵循Root Logger的配置也输出一次。-->

        <!--控制sql的输出-->
        <Logger name="com.zx.stxf.provider.user.dao" level="DEBUG" additivity="true">
            <AppenderRef ref="RollingFile" />
        </Logger>

        <Logger name="org.apache.http" level="INFO" additivity="false">
            <appender-ref ref="Console"/>
        </Logger>

        <Logger name="springfox.documentation" level="INFO" additivity="true"/>

        <Logger name="org.springframework" level="INFO" additivity="true"/>

        <Logger name="com.netflix" level="INFO" additivity="true"/>

        <Logger name="org.apache.kafka" level="ERROR" />

        <!-- 父层(默认)logger-->
        <Root level="DEBUG">
            <appender-ref ref="Console"/>
            <appender-ref ref="errorAsync" />
            <appender-ref ref="log"/>
        </Root>
    </loggers>
</configuration>

要使用异步输出日志文件需要映入架包

 <dependency>
   <groupId>com.lmax</groupId>
   <artifactId>disruptor</artifactId>
   <version>3.4.2</version>
</dependency>
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值