SpringBoot系列(三)日志

1、日志框架

1、概念

对于日志框架,必须要引入两个概念。

1、日志门面

我们去阅读阿里的开发手册,会发现一条很有意思的要求。
在这里插入图片描述
其实,市面上有很多日志框架。为什么不可以直接使用呢?为什么要用slf4j呢?这里提到的门面模式又是什么呢?

门面模式(Facade Pattern),也称之为外观模式,其核心为:外部与一个子系统的通信必须通过一个统一的外观对象进行,使得子系统更易于使用。

这么说有些抽象,我们可以举个实际开发的栗子。
法外狂徒张三,要开发一个应用,一开始呢,他把所有的信息都打印在控制台上,一开始相安无事,突然有一天,访问量剧增。然后,出错了,张三也没有日志文件可以看,比较蛋疼,张三心一横,重写,把日志写在一个文件中,后面他的项目经理李四来了,让他写一个日志框架,张三于是写了个日志框架,名为zhangsanlogging.jar,后面因为业务的变更,需要一些额外的功能例如:异步模式,自动归档,xxxx,
于是 zhangsanlogging-niubi.jar诞生了,后面李四走了,王五来了,张三:我悟了。把日志框架卸了,又写了一个 zhangsanlogging-niubi-plus.jar。

功能只要一变更,我们的张三就要把以前的框架卸下来,重新写新的框架,或者说和其他系统结合的框架。很麻烦。

于是,聪明的张三写了一个统一的接口层;日志门面(日志的一个抽象层);logging-abstract.jar;给项目中导入具体的日志实现就行了。

现在用的日志门面叫做SLF4j(Simple Logging
Facade for Java)

2、日志框架(实现)

就是具体的日志框架,例如:Log4j JUL(java.util.logging)
Log4j2 Logback

SpringBoot选用 SLF4j和logback;

2、SLF4j使用

1、如何使用

日志记录方法的调用,不应该来直接调用日志的实现类,而是调用日志抽象层里面的方法,给系统里面导入slf4j的jar和 logback的实现jar。

public class HelloWorld {
public static void main(String[] args) {
Logger logger = LoggerFactory.getLogger(HelloWorld.class);
logger.info("Hello World");
}
}

每一个日志的实现框架都有自己的配置文件。使用slf4j以后,配置文件做成日志实现框架自己本身的配置文
件。

2、历史遗留问题

应用在开发的时候,大部分都使用了框架,框架的底层我们一般是不会去改动的,框架底层都有自己的一套日志实现,这样就会造成日志遗留问题。举例:我开发系统A我想使用slf4j+logback,但是我使用的Hibernate框架,这些框架底层都用到了日志,而且各不相同,这就造成了应用开发的时候日志服务不统一。怎么办?

1、将系统中其他日志框架先排除出去;
2、用中间包来替换原有的日志框架;
3、我们导入slf4j其他的实现

3、日志关系

放一张图:在这里插入图片描述
1、SpringBoot底层也是使用slf4j+logback的方式进行日志记录
2、SpringBoot也把其他的日志都替换成了slf4j;

如果我们想要用其他的日志框架,就先把这个框架默认的日志框架给移除掉。

4、日志的使用

1、配置

日志输出格式:

%d表示日期时间,
%thread表示线程名,
%‐5level:级别从左显示5个字符宽度
%logger{50} 表示logger名字最长50个字符,否则按照句点分割。
%msg:日志消息,
%n是换行符

%d{yyyy‐MM‐dd HH:mm:ss.SSS} [%thread] %‐5level %logger{50} ‐ %msg%n

logging.level.com.anxin=info
#logging.path=
# 不指定路径在当前项目下生成springboot.log日志
# 可以指定完整的路径;
#logging.file=G:/springboot.log
# 在当前磁盘的根路径下创建spring文件夹和里面的log文件夹;使用 spring.log 作为默认文件
logging.path=/spring/log
# 在控制台输出的日志的格式
logging.pattern.console=%d{yyyy‐MM‐dd} [%thread] %‐5level %logger{50} ‐ %msg%n
# 指定文件中日志输出的格式
logging.pattern.file=%d{yyyy‐MM‐dd} === [%thread] === %‐5level === %logger{50} ==== %msg%n
logging.filelogging.pathExampleDescription
控制台输出
有文件名my.log输出日志到my.log文件
指定目录d://log输出到d://log的 spring.log 文件中

2、配置文件

给类路径下放上每个日志框架自己的配置文件即可,SpringBoot就不使用他默认配置的了

logback.xml:直接就被日志框架识别了;
logback-spring.xml:日志框架就不直接加载日志的配置项,由SpringBoot解析日志配置,可以使用SpringBoot的高级Profile功能

<appender name="stdout" class="ch.qos.logback.core.ConsoleAppender">
<!‐‐
日志输出格式:
%d表示日期时间,
%thread表示线程名,
%‐5level:级别从左显示5个字符宽度
%logger{50} 表示logger名字最长50个字符,否则按照句点分割。
%msg:日志消息,
%n是换行符
‐‐>
<layout class="ch.qos.logback.classic.PatternLayout">
<springProfile name="dev">
<pattern>%d{yyyy‐MM‐dd HH:mm:ss.SSS} ‐‐‐‐> [%thread] ‐‐‐> %‐5level
%logger{50} ‐ %msg%n</pattern>
</springProfile>
<springProfile name="!dev">
<pattern>%d{yyyy‐MM‐dd HH:mm:ss.SSS} ==== [%thread] ==== %‐5level
%logger{50} ‐ %msg%n</pattern>
</springProfile>
</layout>
</appender>

5、日志框架的切换

slf4j+log4j的方式

<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring‐boot‐starter‐web</artifactId>
<exclusions>
<exclusion>
<artifactId>logback‐classic</artifactId>
<groupId>ch.qos.logback</groupId>
</exclusion>
<exclusion>
<artifactId>log4j‐over‐slf4j</artifactId>
<groupId>org.slf4j</groupId>
</exclusion>
</exclusions>
</dependency>
<dependency>
<groupId>org.slf4j</groupId>
<artifactId>slf4j‐log4j12</artifactId>
</dependency>

切换为log4j2:

<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring‐boot‐starter‐web</artifactId>
<exclusions>
<exclusion>
<artifactId>spring‐boot‐starter‐logging</artifactId>
<groupId>org.springframework.boot</groupId>
</exclusion>
</exclusions>
</dependency>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring‐boot‐starter‐log4j2</artifactId>
</dependency>

5、日志框架的切换

6、结束语

姑且到此为止,这一小节中我们知道了日志的知识,如何统一日志,如何使用日志,如何去配置日志。

1、结束语

学习之路道阻且长,但是只要不怕困难,勇敢坚持,就一定会成功,冰冻三尺非一日之寒!希望所有的努力都有好的结果。

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
这篇文章介绍了如何通过开启 MySQL 的 Binlog 日志,并利用 Kafka 实时同步 MySQL 数据到 SQL Server 数据库中。 首先,需要在 MySQL 中开启 Binlog 日志。可以通过修改 MySQL 配置文件(my.cnf 或 my.ini)来开启 Binlog 日志: ``` [mysqld] log-bin=mysql-bin binlog-format=row server-id=1 ``` 其中,`log-bin` 指定了 Binlog 文件的名称前缀,`binlog-format` 指定 Binlog 记录的格式为行格式,`server-id` 指定了 MySQL 实例的唯一标识。 接下来,需要创建一个 Kafka 主题,并启动一个 Kafka 生产者,将 MySQL Binlog 数据写入 Kafka 主题: ```java import com.github.shyiko.mysql.binlog.BinaryLogClient; import com.github.shyiko.mysql.binlog.event.*; import org.apache.kafka.clients.producer.KafkaProducer; import org.apache.kafka.clients.producer.ProducerRecord; public class BinlogProducer { private final BinaryLogClient client; private final KafkaProducer<String, String> producer; private final String topic; public BinlogProducer(String hostname, int port, String username, String password, String topic) { this.client = new BinaryLogClient(hostname, port, username, password); this.producer = new KafkaProducer<>(getKafkaConfig()); this.topic = topic; } public void start() throws Exception { client.registerEventListener(event -> { EventData data = event.getData(); if (data instanceof WriteRowsEventData) { WriteRowsEventData eventData = (WriteRowsEventData) data; for (Serializable[] row : eventData.getRows()) { String message = "INSERT INTO " + eventData.getTableId() + " VALUES " + Arrays.toString(row); producer.send(new ProducerRecord<>(topic, message)); } } else if (data instanceof UpdateRowsEventData) { UpdateRowsEventData eventData = (UpdateRowsEventData) data; for (Map.Entry<Serializable[], Serializable[]> row : eventData.getRows()) { String message = "UPDATE " + eventData.getTableId() + " SET " + Arrays.toString(row.getValue()) + " WHERE " + Arrays.toString(row.getKey()); producer.send(new ProducerRecord<>(topic, message)); } } else if (data instanceof DeleteRowsEventData) { DeleteRowsEventData eventData = (DeleteRowsEventData) data; for (Serializable[] row : eventData.getRows()) { String message = "DELETE FROM " + eventData.getTableId() + " WHERE " + Arrays.toString(row); producer.send(new ProducerRecord<>(topic, message)); } } }); client.connect(); } public void stop() throws Exception { client.disconnect(); producer.close(); } private Map<String, Object> getKafkaConfig() { Map<String, Object> config = new HashMap<>(); config.put("bootstrap.servers", "localhost:9092"); config.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer"); config.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer"); return config; } } ``` 上述代码中,`BinaryLogClient` 是一个 MySQL Binlog 客户端,可以用来监听 MySQL 数据库的 Binlog 事件。在 `start()` 方法中,我们通过注册事件监听器来捕获 Binlog 事件,然后将事件数据写入 Kafka 主题。需要注意的是,对于不同类型的 Binlog 事件(如插入、更新、删除等),需要分别处理,并将事件数据转换成插入、更新、删除语句,然后写入 Kafka 主题中。 最后,需要启动一个 Kafka 消费者,从 Kafka 主题中读取 Binlog 数据,并写入 SQL Server 数据库中: ```java import org.springframework.beans.factory.annotation.Autowired; import org.springframework.jdbc.core.JdbcTemplate; import org.springframework.kafka.annotation.KafkaListener; import org.springframework.stereotype.Component; @Component public class BinlogConsumer { private final JdbcTemplate jdbcTemplate; @Autowired public BinlogConsumer(JdbcTemplate jdbcTemplate) { this.jdbcTemplate = jdbcTemplate; } @KafkaListener(topics = "binlog") public void onMessage(String message) { jdbcTemplate.execute(message); } } ``` 上述代码中,`BinlogConsumer` 是一个 Kafka 消费者,使用 `@KafkaListener` 注解来监听 Kafka 主题中的消息。当收到消息时,直接执行消息中的 SQL 语句,将数据写入 SQL Server 数据库中。 通过上述方式,就可以实现 MySQL 数据库和 SQL Server 数据库之间的实时数据同步了。需要注意的是,由于 Binlog 日志是一个增量日志,因此在启动同步任务时,需要首先将 MySQL 数据库中的数据全量复制到 SQL Server 数据库中,然后再开启 Binlog 日志,以保证数据的完整性和一致性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值