日志,用于记录系统中发生的各种事件。记录的位置常见的有控制台、磁盘文件。
Log4j+Commons-Logging。
// pom.xml
<dependency>
<groupId>log4j</groupId>
<artifactId>log4j</artifactId>
<version>1.2.17</version>
</dependency>
<dependency>
<groupId>commons-logging</groupId>
<artifactId>commons-logging</artifactId>
<version>1.2</version>
</dependency>
// log4j.xml
<?xml version="1.0" encoding="UTF-8" ?>
<!DOCTYPE log4j:configuration PUBLIC "-//LOGGER"
"http://org/apache/log4j/xml/log4j.dtd">
<log4j:configuration>
<!-- org.apache.log4j.ConsoleAppender 输出到控制台 -->
<appender name="myConsole" class="org.apache.log4j.ConsoleAppender">
<!--输出格式-->
<layout class="org.apache.log4j.PatternLayout">
<param name="ConversionPattern"
value="%-d{yyyy-MM-dd HH:mm:ss,SSS} [%c]-[%p] %m%n"/>
</layout>
</appender>
<!-- 输出到文件 -->
<appender name="myFile1" class="org.apache.log4j.RollingFileAppender">
<param name="File" value="/Users/mac/Desktop/image备份/log2/hello.log"/><!--文件位置-->
<param name="Append" value="true"/><!--是否选择追加-->
<param name="MaxFileSize" value="1kb"/><!--文件最大字节数-->
<param name="MaxBackupIndex" value="2" /><!--新文件数量-->
<layout class="org.apache.log4j.PatternLayout">
<param name="ConversionPattern" value="%-d{yyyy-MM-dd HH:mm:ss,SSS} [%c]-[%p] %m%n" />
</layout>
</appender>
<!-- 根logger的设置-->
<root>
<!--优先级设置,all < trace < debug < info < warn < error < fatal < off -->
<priority value="debug"/>
<appender-ref ref="myConsole"/>
<appender-ref ref="myFile1"/>
</root>
</log4j:configuration>
// TestLog.log 测试
import org.apache.commons.logging.Log;
import org.apache.commons.logging.LogFactory;
import org.junit.Test;
public class TestLog {
@Test
public void show1() {
Log log = LogFactory.getLog(TestLog.class);
log.trace("hello trace");
log.debug("hello debug");
log.info("hello info");
log.warn("hello warn");
log.error("hello error");
log.fatal("hello fatal");
}
}
Logback+SLF4j。
// pom.xml
<!-- Logback依赖,还会传递 slf4j 和 logback-core -->
<dependency>
<groupId>ch.qos.logback</groupId>
<artifactId>logback-classic</artifactId>
<version>1.2.3</version>
</dependency>
// logback.xml
<?xml version="1.0" encoding="UTF-8"?>
<!-- scan:当此属性设置为true时,配置文件如果发生改变,将会被重新加载,默认值为true -->
<!-- scanPeriod:设置监测配置文件是否有修改的时间间隔,如果没有给出时间单位,默认单位是毫秒。当scan为true时,此属性生效。
默认的时间间隔为1分钟。 -->
<!-- debug:当此属性设置为true时,将打印出logback内部日志信息,实时查看logback运行状态。默认值为false。 -->
<!--<configuration scan="true" scanPeriod="60 seconds" debug="true">-->
<configuration scan="false">
<!--级别排序为: TRACE < DEBUG < INFO < WARN < ERROR-->
<!--com.alibaba.dubbo是dubbo服务的包,在如何是info一下的级别会产生大量的启动日志,调成WARN减少日志输出-->
<logger name="com.alibaba.dubbo" level="WARN" />
<!--com.ztev.audit.dao是本项目的dao层的包,把这个包的打印日志级别调成 DEBUG级别可以看到sql执行-->
<logger name="com.ztev.audit.dao" level="DEBUG" />
<!-- 定义变量,可通过 ${log.path}和${CONSOLE_LOG_PATTERN} 得到变量值 -->
<property name="log.path" value="/Users/mac/Desktop/image备份/log2" />
<property name="CONSOLE_LOG_PATTERN"
value="%d{yyyy-MM-dd HH:mm:ss.SSS} |-[%-5p] in %logger.%M[line-%L] -%m%n"/>
<!-- 输出到控制台 -->
<appender name="CONSOLE" class="ch.qos.logback.core.ConsoleAppender">
<!-- Threshold=即最低日志级别,此appender输出大于等于对应级别的日志
(当然还要满足root中定义的最低级别)
-->
<filter class="ch.qos.logback.classic.filter.ThresholdFilter">
<level>debug</level>
</filter>
<encoder>
<!-- 日志格式(引用变量) -->
<Pattern>${CONSOLE_LOG_PATTERN}</Pattern>
<!-- 设置字符集 -->
<charset>UTF-8</charset>
</encoder>
</appender>
<!-- 追加到文件中 -->
<!-- <appender name="file" class="ch.qos.logback.core.FileAppender">-->
<!-- <file>${log.path}/hello.log</file>-->
<!-- <encoder>-->
<!-- <pattern>${CONSOLE_LOG_PATTERN}</pattern>-->
<!-- </encoder>-->
<!-- </appender>-->
<!-- 滚动追加到文件中 -->
<appender name="file2" class="ch.qos.logback.core.rolling.RollingFileAppender">
<!-- 正在记录的日志文件的路径及文件名 -->
<file>${log.path}/hello2.log</file>
<!--日志文件输出格式-->
<encoder>
<pattern>${CONSOLE_LOG_PATTERN}</pattern>
<charset>UTF-8</charset> <!-- 设置字符集 -->
</encoder>
<!-- 日志记录器的滚动策略,按日期,按大小记录
文件超过最大尺寸后,会新建文件,然后新的日志文件中继续写入
如果日期变更,也会新建文件,然后在新的日志文件中写入当天日志
-->
<rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
<!-- 新建文件后,原日志改名为如下 %i=文件序号,从0开始 -->
<fileNamePattern>${log.path}/hello-%d{yyyy-MM-dd}.%i.log</fileNamePattern>
<!-- 每个日志文件的最大体量 -->
<timeBasedFileNamingAndTriggeringPolicy
class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP">
<maxFileSize>8kb</maxFileSize>
</timeBasedFileNamingAndTriggeringPolicy>
<!-- 日志文件保留天数,1=则只保留昨天的归档日志文件 ,不设置则保留所有日志-->
<maxHistory>1</maxHistory>
</rollingPolicy>
</appender>
<root level="debug">
<appender-ref ref="CONSOLE"/>
<!-- <appender-ref ref="file"/>-->
<appender-ref ref="file2"/>
</root>
</configuration>
// TestLog2.java 测试
import org.junit.Test;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
public class TestLog2 {
@Test
public void test1 () {
Logger logger = LoggerFactory.getLogger(TestLog2.class);
logger.trace("hello trace");
logger.debug("hello debug");
logger.info("hello info");
logger.warn("hello warn");
logger.error("hello error");
}
}
Quartz,定时任务调度框架。
// pom.xml
<!--Quartz 定时任务-->
<dependency>
<groupId>org.quartz-scheduler</groupId>
<artifactId>quartz</artifactId>
<version>2.2.3</version>
</dependency>
// quartz.properties
# 如果没有此配置则按默认配置启动
# 指定调度器名称,非实现类
org.quartz.scheduler.instanceName = DefaultQuartzScheduler
# 指定线程池实现类
org.quartz.threadPool.class = org.quartz.simpl.SimpleThreadPool
# 线程池线程数量
org.quartz.threadPool.threadCount = 10
# 优先级,默认5
org.quartz.threadPool.threadPriority = 5
# 非持久化job
org.quartz.jobStore.class = org.quartz.simpl.RAMJobStore
// Myjob.java
public class Myjob implements Job {
@Override
public void execute(JobExecutionContext jobExecutionContext) throws JobExecutionException {
JobDataMap mergedJobDataMap = jobExecutionContext.getMergedJobDataMap();
// 获取数据
System.out.println(mergedJobDataMap.get("userServices"));
System.out.println(new Date());
}
}
// ExecJob.java 测试
public class ExecJob {
public static void main(String[] args) throws SchedulerException {
// 行程表
Scheduler defaultScheduler = StdSchedulerFactory.getDefaultScheduler();
// 触发器
Trigger trigger = TriggerBuilder.newTrigger()
.startNow() //起始
.withIdentity("t1", "g1") //触发器名称和小组名
.withSchedule(
SimpleScheduleBuilder.simpleSchedule().
withIntervalInSeconds(1) //一秒
// .withIntervalInHours(1) // 一小时
.withRepeatCount(5) // 重复次数, 共执行6次
)
// 结束日期
.endAt(new GregorianCalendar(2020, 4, 7, 2, 24, 0).getTime())
.build();
JobDetail jobDetail = JobBuilder.newJob(Myjob.class)
.withIdentity("j1","g1").build(); //工作组和小组名,跟触发器的设置无关
// 工作数据
JobDataMap jobDataMap = jobDetail.getJobDataMap();
// 传递数据
jobDataMap.put("userServices", "这是传入的数据");
// 组合
defaultScheduler.scheduleJob(jobDetail, trigger);
// 启动
defaultScheduler.start();
System.out.println("启动完成");
}
}
采用 CronTrigger。
Cron 表达式规则略多,可以用(链接,https://qqe2.com/cron) 在线工具。
// CronJob.java
public class CronJob {
public static void main(String[] args) throws SchedulerException {
// 行程表
Scheduler defaultScheduler = StdSchedulerFactory.getDefaultScheduler();
// 触发器
CronTrigger cronTrigger = TriggerBuilder.newTrigger()
.startNow()
.withIdentity("t1", "g1") //触发器名称和小组名
.withSchedule(
// SimpleScheduleBuilder.simpleSchedule().
// withIntervalInSeconds(1) //一秒
// .withIntervalInHours(1) // 一小时
// .withRepeatCount(5) // 重复次数, 共执行6次
// cron 表达式,”秒 分 时 日 月 星期几 [年]”,以下表示每个第一秒执行
CronScheduleBuilder.cronSchedule("1 * * * * ?")
).build();
JobDetail jobDetail = JobBuilder.newJob(Myjob.class)
.withIdentity("j1","g1").build(); //工作组和小组名,跟触发器的设置无关
// 工作数据
JobDataMap jobDataMap = jobDetail.getJobDataMap();
// 传递数据
jobDataMap.put("userServices", "这是传入的数据");
// 组合
defaultScheduler.scheduleJob(jobDetail, cronTrigger);
// 启动
defaultScheduler.start();
System.out.println("启动完成");
}
}