log4j2官网
官网地址: http://logging.apache.org/log4j/2.x/manual/configuration.html
依赖
<dependency>
<groupId>org.apache.logging.log4j</groupId>
<artifactId>log4j-api</artifactId>
<version>2.8.2</version>
</dependency>
<dependency>
<groupId>org.apache.logging.log4j</groupId>
<artifactId>log4j-core</artifactId>
<version>2.8.2</version>
</dependency>
配置
<?xml version="1.0" encoding="UTF-8"?>
<Configuration status="warn" monitorInterval="300">
<!--文件输出地址-->
<properties>
<property name="LOG_HOME">E:/testlog</property>
</properties>
<Appenders>
<!--控制台输出-->
<Console name="Console" target="SYSTEM_OUT">
<PatternLayout pattern="%d{HH:mm:ss.SSS} [%t] %-5level %logger{36} - %msg%n" />
</Console>
<!-- ACCEPT(放行)、DENY(拒绝)、NEUTRAL(不做任何操作) -->
<!-- onMatch >= level onMatch指的是日志级别大于等于level时的操作 -->
<!-- onMismatch < levle onMismatch表示日志级别小于level时的操作, -->
<!-- log 级别 off>fatal>error>warn>info>debug>trace>all, -->
<!-- 通过添加两组 ThresholdFilter 可以达到一个级别的log一个文件的目的,-->
<!--info及以上级别输出-->
<RollingRandomAccessFile name="InfoFile"
fileName="${LOG_HOME}/info.log"
filePattern="${LOG_HOME}/$${date:yyyy-MM}/info-%d{yyyy-MM-dd HH-mm}-%i.log">
<Filters>
<!--<ThresholdFilter level="warn" onMatch="DENY" onMismatch="NEUTRAL"/>-->
<ThresholdFilter level="info" onMatch="ACCEPT" onMismatch="DENY"/>
</Filters>
<PatternLayout
pattern="%d{yyyy-MM-dd HH:mm:ss.SSS} [%t] %-5level %logger{36} - %msg%n" />
<Policies>
<TimeBasedTriggeringPolicy interval="1" />
<SizeBasedTriggeringPolicy size="10 MB" />
</Policies>
<DefaultRolloverStrategy max="20" />
</RollingRandomAccessFile>
<!--warn及以上级别输出-->
<RollingRandomAccessFile name="warnFile"
fileName="${LOG_HOME}/warn.log"
filePattern="${LOG_HOME}/$${date:yyyy-MM}/warn-%d{yyyy-MM-dd HH-mm}-%i.log">
<Filters>
<!--<ThresholdFilter level="warn" onMatch="DENY" onMismatch="NEUTRAL"/>-->
<ThresholdFilter level="warn" onMatch="ACCEPT" onMismatch="DENY"/>
</Filters>
<PatternLayout
pattern="%d{yyyy-MM-dd HH:mm:ss.SSS} [%t] %-5level %logger{36} - %msg%n" />
<Policies>
<TimeBasedTriggeringPolicy interval="1" />
<SizeBasedTriggeringPolicy size="10 MB" />
</Policies>
<DefaultRolloverStrategy max="20" />
</RollingRandomAccessFile>
<!--debug及以上级别输出-->
<RollingRandomAccessFile name="debugFile"
fileName="${LOG_HOME}/debug.log"
filePattern="${LOG_HOME}/$${date:yyyy-MM}/debug-%d{yyyy-MM-dd HH-mm}-%i.log">
<Filters>
<!--<ThresholdFilter level="warn" onMatch="DENY" onMismatch="NEUTRAL"/>-->
<ThresholdFilter level="debug" onMatch="ACCEPT" onMismatch="DENY"/>
</Filters>
<PatternLayout
pattern="%d{yyyy-MM-dd HH:mm:ss.SSS} [%t] %-5level %logger{36} - %msg%n" />
<Policies>
<TimeBasedTriggeringPolicy interval="1" />
<SizeBasedTriggeringPolicy size="10 MB" />
</Policies>
<DefaultRolloverStrategy max="20" />
</RollingRandomAccessFile>
<!--error及以上级别输出-->
<RollingRandomAccessFile name="ErrorFile"
fileName="${LOG_HOME}/error.log"
filePattern="${LOG_HOME}/$${date:yyyy-MM}/error-%d{yyyy-MM-dd HH-mm}-%i.log">
<Filters>
<!--<ThresholdFilter level="fatal" onMatch="DENY" onMismatch="NEUTRAL" />-->
<ThresholdFilter level="error" onMatch="ACCEPT" onMismatch="DENY" />
</Filters>
<PatternLayout
pattern="%d{yyyy-MM-dd HH:mm:ss.SSS} [%t] %-5level %logger{36} - %msg%n" />
<Policies>
<TimeBasedTriggeringPolicy interval="1" />
<SizeBasedTriggeringPolicy size="10 MB" />
</Policies>
<DefaultRolloverStrategy max="20" />
</RollingRandomAccessFile>
<!--fatal及以上级别输出-->
<RollingRandomAccessFile name="FatalFile"
fileName="${LOG_HOME}/fatal.log"
filePattern="${LOG_HOME}/$${date:yyyy-MM}/fatal-%d{yyyy-MM-dd HH-mm}-%i.log">
<Filters>
<ThresholdFilter level="fatal" onMatch="ACCEPT" onMismatch="DENY" />
</Filters>
<PatternLayout
pattern="%d{yyyy-MM-dd HH:mm:ss.SSS} [%t] %-5level %logger{36} - %msg%n" />
<Policies>
<TimeBasedTriggeringPolicy interval="1" />
<SizeBasedTriggeringPolicy size="10 MB" />
</Policies>
<DefaultRolloverStrategy max="20" />
</RollingRandomAccessFile>
</Appenders>
<!--将所有输出记录到下面-->
<Loggers>
<!--控制第三方log级别-->
<Logger name="RocketmqClient" level="warn"/>
<Logger name="RocketmqRemoting" level="warn"/>
<Logger name="org.apache.kafka" level="warn"/>
<Logger name=" com.alibaba.dubbo" level="warn"/>
<Logger name="org.springframework.scheduling.concurrent.ThreadPoolTaskExecutor" level="warn"/>
<Logger name="org.springframework.jmx.export.annotation.AnnotationMBeanExporter" level="warn"/>
<Logger name="org.springframework.context.annotation.AnnotationConfigApplicationContext" level="warn"/>
<Logger name="com.alibaba.druid.pool.DruidDataSource" level="warn"/>
<Logger name="org.springframework.data.repository.config.RepositoryConfigurationDelegate" level="warn"/>
<!--可以指定具体的类的log,输出到某个文件-->
<Logger name="com.seif.flumesink.FlumesinkApplication" level="trace" additivity="false">
<AppenderRef ref="InfoFile"/>
</Logger>
<Root level="trace">
<AppenderRef ref="Console" />
<AppenderRef ref="InfoFile" />
<AppenderRef ref="ErrorFile" />
<AppenderRef ref="FatalFile" />
<AppenderRef ref="warnFile" />
<AppenderRef ref="debugFile" />
</Root>
</Loggers>
</Configuration>
配置解析
-
status的值有 “trace”, “debug”, “info”, “warn”, “error” and “fatal”,用于控制log4j2日志框架本身的日志级别,如果将stratus设置为较低的级别就会看到很多关于log4j2本身的日志,如加载log4j2配置文件的路径等信息
-
monitorInterval,含义是每隔多少秒重新读取配置文件,可以不重启应用的情况下修改配置
-
Appenders:输出源,用于定义日志输出的地方
-
log4j2支持的输出源有很多,有控制台Console、文件File、RollingRandomAccessFile、MongoDB、Flume 等
-
RollingRandomAccessFile: 该输出源也是写入到文件,不同的是比File更加强大,可以指定当文件达到一定大小(如20MB)时,另起一个文件继续写入日志,另起一个文件就涉及到新文件的名字命名规则,因此需要配置文件命名规则 这种方式更加实用,因为你不可能一直往一个文件中写,如果一直写,文件过大,打开就会卡死,也不便于查找日志。
-
**fileName **指定当前日志文件的位置和文件名称
-
**filePattern **指定当发生Rolling时,文件的转移和重命名规则
-
**SizeBasedTriggeringPolicy **指定当文件体积大于size指定的值时,触发Rolling
-
**DefaultRolloverStrategy **指定最多保存的文件个数
-
**TimeBasedTriggeringPolicy **这个配置需要和filePattern结合使用,注意filePattern中配置的文件重命名规则是${FILE_NAME}-%d{yyyy-MM-dd HH-mm}-%i,最小的时间粒度是mm,即分钟
-
TimeBasedTriggeringPolicy指定的size是1,结合起来就是每1分钟生成一个新文件。如果改成%d{yyyy-MM-dd HH},最小粒度为小时,则每一个小时生成一个文件
-
NoSql:MongoDb, 输出到MongDb数据库中
-
Flume:输出到Apache Flume(Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方的能力。)
-
Async:异步,需要通过AppenderRef来指定要对哪种输出源进行异步(一般用于配置RollingRandomAccessFile)
-
PatternLayout:控制台或文件输出源(Console、File、RollingRandomAccessFile)都必须包含一个PatternLayout节点,用于指定输出文件的格式(如 日志输出的时间 文件 方法 行数 等格式),例如 pattern=”%d{HH:mm:ss.SSS} [%t] %-5level %logger{36} - %msg%n”
-
- %d{HH:mm:ss.SSS} 表示输出到毫秒的时间
-
- %t 输出当前线程名称
-
- %-5level 输出日志级别,-5表示左对齐并且固定输出5个字符
-
- %logger 输出logger名称,因为Root Logger没有名称,所以没有输出
-
- %msg 日志文本
-
- %n 换行
-
- %F 输出所在的类文件名
-
- %L 输出行号
-
- %M 输出所在方法名
-
- %l 输出语句所在的行数, 包括类名、方法名、文件名、行数
-
- %d{HH:mm:ss.SSS} 表示输出到毫秒的时间
-
- %t 输出当前线程名称
-
- %n 换行
-
Loggers:日志器 日志器分根日志器Root和自定义日志器,当根据日志名字获取不到指定的日志器时就使用Root作为默认的日志器,自定义时需要指定每个Logger的名称name(对于命名可以以包名作为日志的名字,不同的包配置不同的级别等),日志级别level,相加性additivity(是否继承下面配置的日志器), 对于一般的日志器(如Console、File、RollingRandomAccessFile)一般需要配置一个或多个输出源AppenderRef;
-
additivity指定是否同时输出log到父类的appender,缺省为true。
Demo
import org.springframework.boot.SpringApplication;
import org.springframework.boot.autoconfigure.SpringBootApplication;
import org.springframework.context.ConfigurableApplicationContext;
import org.apache.logging.log4j.Logger;
import org.apache.logging.log4j.LogManager;
@SpringBootApplication
public class FlumesinkApplication {
public static void main(String[] args) {
final Logger logger = LogManager.getLogger(FlumesinkApplication.class);
ConfigurableApplicationContext run =SpringApplication.run(FlumesinkApplication.class, args);
logger.info("info");
logger.error("error");
logger.debug("debug");
logger.warn("warn");
logger.fatal("fatal");
logger.trace("trace");
}
}