logback-spring结合kafka的一些配置说明

<?xml version="1.0" encoding="UTF-8"?>
<!-- scan:当此属性设置为true时,配置文件如果发生改变,将会被重新加载,默认值为true。    
     scanPeriod:设置监测配置文件是否有修改的时间间隔,如果没有给出时间单位, 
     默认单位是毫秒当scan为true时,此属性生效。默认的时间间隔为1分钟。 
     debug:当此属性设置为true时,将打印出logback内部日志信息,实时查看logback运行状态。
     默认值为false。 -->
<!-- <configuration scan="false" scanPeriod="60 seconds" debug="false"> -->
<configuration>
    <!-- 在spring-boot-*.jar 如果使用以下include,默认配置了Console输出 -->
    <!-- <include resource="org/springframework/boot/logging/logback/base.xml" 
        /> -->

    <!--设置上下文名称,用于区分不同应用程序的记录。一旦设置不能修改,
    可以通过%contextName来打印日志上下文名称-->
    <contextName>logback</contextName>
    <!-- 定义日志的根目录 -->
    <property name="logDir" value="${gzzq.files}/logback" />
    <!-- 定义日志文件名称 -->
    <property name="appName" value="log_admin"></property>
    <!-- ConsoleAppender 表示控制台输出 -->
    <appender name="CONSOLE" class="ch.qos.logback.core.ConsoleAppender">
        <!-- 日志输出格式:
        %d表示日期时间,
        %thread表示线程名,
        %-5level:级别从左显示5个字符宽度, 
        %logger{50} 表示logger名字最长50个字符,否则按照句点分割。 
        %msg:日志消息, 
        %n是换行符 -->
        <encoder>
            <pattern>%d{HH:mm:ss.SSS} %contextName [%thread] %-5level %logger{50} - %msg%n</pattern>
        </encoder>
    </appender>

    <!-- 滚动记录文件,先将日志记录到指定文件,当符合某个条件时,将日志记录到其他文件 -->
    <appender name="appLogAppender"
        class="ch.qos.logback.core.rolling.RollingFileAppender">
        <!-- 指定日志文件的名称 -->
        <file>${logDir}/${appName}.log</file>
        <!--过滤日志,仅记录error日志-->
        <filter class="ch.qos.logback.classic.filter.ThresholdFilter">
            <level>Error</level>
        </filter>        
        <!-- 当发生滚动时,决定 RollingFileAppender 的行为,涉及文件移动和重命名 TimeBasedRollingPolicy: 
            最常用的滚动策略,它根据时间来制定滚动策略,既负责滚动也负责出发滚动。 -->
        <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
            <!-- 滚动时产生的文件的存放位置及文件名称 %d{yyyy-MM-dd}:按天进行日志滚动 %i:当文件大小超过maxFileSize时,按照i进行文件滚动 -->
            <fileNamePattern>${logDir}/${appName}-%d{yyyy-MM-dd}-%i.log</fileNamePattern>
            <!-- 可选节点,控制保留的归档文件的最大数量,超出数量就删除旧文件。假设设置每天滚动, 且maxHistory是365,则只保存最近365天的文件,删除之前的旧文件。注意,删除旧文件是, 
                那些为了归档而创建的目录也会被删除。 -->
            <MaxHistory>60</MaxHistory>
            <!-- 当日志文件超过maxFileSize指定的大小是,根据上面提到的%i进行日志文件滚动 注意此处配置SizeBasedTriggeringPolicy是无法实现按文件大小进行滚动的,必须配置timeBasedFileNamingAndTriggeringPolicy -->
            <timeBasedFileNamingAndTriggeringPolicy
                class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP">
                <maxFileSize>20MB</maxFileSize>
            </timeBasedFileNamingAndTriggeringPolicy>
        </rollingPolicy>
        <encoder>
            <pattern>%d{HH:mm:ss.SSS} %contextName [%thread] %-5level %logger{50} - %msg%n</pattern>
        </encoder>
    </appender>

    <!-- 参照这个来做https://github.com/danielwegener/logback-kafka-appender/blob/master/src/example/resources/logback.xml -->
    <!--输出到文件 kafka 信息单独归档 -->
    <appender name="KafkaAppender"
        class="com.github.danielwegener.logback.kafka.KafkaAppender">
        <encoder
            class="com.github.danielwegener.logback.kafka.encoding.LayoutKafkaMessageEncoder">
            <layout class="net.logstash.logback.layout.LogstashLayout">
                <!-- 是否包含上下文 -->
                <includeContext>true</includeContext>
                <!-- 是否包含日志来源 -->
                <includeCallerData>true</includeCallerData>
                <!-- 自定义附加字段 -->
                <customFields>{"system":"test"}</customFields>
                <!-- 自定义字段的简称 -->
                <fieldNames class="net.logstash.logback.fieldnames.ShortenedFieldNames" />
            </layout>
            <charset>UTF-8</charset>
        </encoder>
        <!--kafka topic 需要与配置文件里面的topic一致 否则kafka会沉默并鄙视你 -->
        <topic>
            advancedtopic
        </topic>
        <keyingStrategy
            class="com.github.danielwegener.logback.kafka.keying.HostNameKeyingStrategy" />
        <deliveryStrategy
            class="com.github.danielwegener.logback.kafka.delivery.AsynchronousDeliveryStrategy" />
        <producerConfig>
            bootstrap.servers=localhost:9092
        </producerConfig>
        <!-- this is the fallback appender if kafka is not available. -->
        <appender-ref ref="CONSOLE" />
    </appender>

    <!-- springProfile表示在dev环境下使用 -->
    <!-- <springProfile name="dev"> -->
    <!-- <logger name="com.nick" level="error" additivity="true" -->
    <!-- appender-ref="CONSOLE"> -->
    <!-- </logger> -->
    <!-- </springProfile> -->

    <logger name="com.nick" level="debug" additivity="true">
        <appender-ref ref="KafkaAppender" />
    </logger>

    <!-- logger主要用于存放日志对象,也可以定义日志类型、级别 
    name:表示匹配的logger类型前缀,也就是包的前半部分 
    level:要记录的日志级别,包括 TRACE < DEBUG < INFO < WARN < ERROR additivity:作用在于children-logger是否使用 rootLogger配置的appender进行输出, 
        false:表示只用当前logger的appender-ref, 
        true:表示当前logger的appender-ref和rootLogger的appender-ref都有效 -->
    <!-- Spring framework logger 使用appLogAppender,不追加到root-->
    <logger name="org.springframework" level="error" additivity="false">
        <appender-ref ref="appLogAppender" />        
    </logger>
    <!-- thymeleaf logger -->
    <logger name="org.thymeleaf" level="error" additivity="true" />
    <logger name="com.gzzq" level="debug" additivity="true" />

    <!-- root与logger是父子关系,没有特别定义则默认为root,任何一个类只会和一个logger对应, 要么是定义的logger,要么是root,判断的关键在于找到这个logger,然后判断这个logger的appender和level。 -->
    <root level="error">
        <appender-ref ref="CONSOLE" />
        <appender-ref ref="appLogAppender" />
    </root>
</configuration>
如果不需要kafka,将KafkaAppender相关删除即可。

如果要使用kafka,则需要添加以下依赖
    <!-- logback日志appender到kafka -->
    <dependency>
        <groupId>com.github.danielwegener</groupId>
        <artifactId>logback-kafka-appender</artifactId>
        <version>0.1.0</version>
        <scope>runtime</scope>
    </dependency>
    <dependency>
        <groupId>net.logstash.logback</groupId>
        <artifactId>logstash-logback-encoder</artifactId>
        <version>4.11</version>
    </dependency>
    <!--logback依赖-->
    <dependency>
        <groupId>org.slf4j</groupId>
        <artifactId>slf4j-api</artifactId>
        <version>1.7.25</version>
        <scope>compile</scope>
    </dependency>
    <dependency>
        <groupId>ch.qos.logback</groupId>
        <artifactId>logback-core</artifactId>
        <version>1.1.11</version>
    </dependency>
    <dependency>
        <groupId>ch.qos.logback</groupId>
        <artifactId>logback-classic</artifactId>
        <version>1.1.11</version>
    </dependency>

“`

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值