Binlog日志的三种模式

1, Binlog日志的三种模式

1.1 Statement Level模式

每一条修改数据的SQL都会记录到master的Binlog中,slave在复制的时候,SQL进程会将它们解析出来,在slave库上再次执行。

优点:statement level下的优点首先就是它只需要记录在master上所执行的语句的细节,以及执行语句时候的上下文信息。解决了row level下的缺点,不需要记录每一行的变化,较少Binlog日志量,节约IO,提高性能。

缺点:由于它是记录执行语句,所以,为了让这些语句在slave端也能正确执行,那么它还必须记录每条语句在执行的时候的一些相关信息,也就是上下文信息,来保证所有语句在slave端能够得到和在master端相同的执行结果。由于MySQL更新较快,使mysql的赋值遇到了不小的挑战,自然赋值的时候就会涉及到越复杂的内容,bug也就容易出现。在statement level下,目前就已经发现了不少情况会造成mysql的复制出现问题,主要是修改数据的时候使用了某些特定的函数或者功能的时候会出现。比如:sleep()函数在有些版本中就不能正确赋值,在存储过程中使用了last_insert_id()函数,可能会使slave和master上得到不一致的id等等。由于row level是基于每一行记录的变化,所以不会出现类似的问题。

总结:

优点:解决了row level的缺点,不需要记录每一行的变化。日志量少,节约IO,从库应用日志块。

缺点:一些新功能同步可能会有障碍,比如函数、触发器等。

 

1.2 Row Level模式

日志中会记录成每一行数据修改的形式,然后在slave端再对相同的数据进行修改。

优点:在row level的模式下,binlog中可以不记录执行的SQL语句的上下文信息,仅仅只需要记录哪一条记录被修改,修改成什么样。所以row level的日志内容会非常清楚的记录每一行数据修改的细节,非常容易理解。而且不会出现某些特定情况下的存储过程,或fuction,以及trigger的调用或触发无法被正确复制的问题。

缺点:row level模式下,所有的执行语句都会记录到日志中,同时都会以每行记录修改的来记录,这样可能会产生大量的日志内容。

总结:

优点:记录详细。解决statement level模式无法解决的复制问题。

缺点:日志量大,因为是按行来拆分。

 

1.3 Mixed模式(混合模式)

实际上就是前两种模式的结合,在mixed模式下,MySQL会根据执行的每一条具体的sql语句来区分对待记录的日志形式,也是在statement和row之间选择一种。

新版本中的mysql中对row level模式也做了优化,并不是所有的修改都会以row level来记录,像遇到表结构变更的时候就会以statement模式来记录,如果SQL语句确实就是update或者delete等修改数据的语句,那么还是会记录所有行的变更。

 

2,调整binlog日志模式

2.1 binlog日志默认模式:

mysql> show variables like '%version%';
+-------------------------+-------------------------+
| Variable_name           | Value                   |
+-------------------------+-------------------------+
| innodb_version          | 5.7.27                  |
| protocol_version        | 10                      |
| slave_type_conversions  |                         |
| tls_version             | TLSv1,TLSv1.1           |
| version                 | 5.7.27-0ubuntu0.16.04.1 |
| version_comment         | (Ubuntu)                |
| version_compile_machine | x86_64                  |
| version_compile_os      | Linux                   |
+-------------------------+-------------------------+
8 rows in set (0.02 sec)

select version();
+------------+
| version()  |
+------------+
| 5.7.25-log |
+------------+
1 row in set (0.01 sec)
mysql> show variables like "%binlog_format%";
+---------------+-------+
| Variable_name | Value |
+---------------+-------+
| binlog_format | ROW   |
+---------------+-------+
1 row in set (0.01 sec)

2.2 在线修改立即生效

mysql> set global binlog_format='MIXED';
Query OK, 0 rows affected (0.00 sec)

退出MySQL,查看当前MySQL日志模式。

show variables like "%binlog_format%";
+---------------+-------+
| Variable_name | Value |
+---------------+-------+
| binlog_format | MIXED |
+---------------+-------+
1 row in set (0.00 sec)

修改成功。

2.3 在配置文件中修改

vi /etc/mysql/mysql.conf.d/mysqld.cnf

[mysqld]
log-bin=/var/lib/mysql/mysql-bin
#binlog_format="ROW"
binlog_format="MIXED"   #开启MIXED模式
#binlog_format="STATEMENT"

修改后重启MySQL服务即可。

 

3, 查看binlog日志

在日志模式当前为Mixed的模式下,记录日志的形式内容如下:

3.1 先查看binlog日志存放地址(mysql.conf配置文件中的log-bin设置)

3.2 查看binlog文件名

mysql> lock tables t1 read ;
Query OK, 0 rows affected (0.00 sec)

mysql> show master status;
+------------------+-----------+--------------+------------------+-------------------+
| File             | Position  | Binlog_Do_DB | Binlog_Ignore_DB | Executed_Gtid_Set |
+------------------+-----------+--------------+------------------+-------------------+
| mysql-bin.000006 | 200965844 |              |                  |                   |
+------------------+-----------+--------------+------------------+-------------------+
1 row in set (0.00 sec)

3.3 查看binlog日志列表

mysql> show binary logs;
+------------------+-----------+
| Log_name         | File_size |
+------------------+-----------+
| mysql-bin.000001 |       177 |
| mysql-bin.000002 |       201 |
| mysql-bin.000003 |       201 |
| mysql-bin.000004 |       177 |
| mysql-bin.000005 |       177 |
| mysql-bin.000006 | 200965844 |
+------------------+-----------+
6 rows in set (0.02 sec)

3.4 使用mysqlbinlog工具查看日志

3.4.1 如果需要查询2017-09-17 07:21:09到2017-09-19 07:59:50 数据库为geeRunner 的操作日志,输入如下命令将数据写入到一个备用的txt即可。

mysqlbinlog --no-defaults --database=geeRunner --start-datetime="2017-09-17 07:21:09" --stop-datetime="2017-09-19 07:59:50" binlogs.000006 > abc.txt

3.4.2 如果需要过滤,只查询insert,update,delete的语句,可以这样写:

mysqlbinlog --no-defaults --database=raceEnroll  binlogs.000006 |grep update |more

3.4.3 基于起始结束位置进行查看,注:hadoop是库名,/var/lib/mysql/mysql-bin.000001是二进制文件路径

[root@c80k2 ~]# mysqlbinlog --start-position=2098 --stop-position=2205 -d hadoop /var/lib/mysql/mysql-bin.000001

 

转载于:https://my.oschina.net/u/3412738/blog/3094682

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
这篇文章介绍了如何通过开启 MySQL 的 Binlog 日志,并利用 Kafka 实时同步 MySQL 数据到 SQL Server 数据库中。 首先,需要在 MySQL 中开启 Binlog 日志。可以通过修改 MySQL 配置文件(my.cnf 或 my.ini)来开启 Binlog 日志: ``` [mysqld] log-bin=mysql-bin binlog-format=row server-id=1 ``` 其中,`log-bin` 指定了 Binlog 文件的名称前缀,`binlog-format` 指定 Binlog 记录的格式为行格式,`server-id` 指定了 MySQL 实例的唯一标识。 接下来,需要创建一个 Kafka 主题,并启动一个 Kafka 生产者,将 MySQL Binlog 数据写入 Kafka 主题: ```java import com.github.shyiko.mysql.binlog.BinaryLogClient; import com.github.shyiko.mysql.binlog.event.*; import org.apache.kafka.clients.producer.KafkaProducer; import org.apache.kafka.clients.producer.ProducerRecord; public class BinlogProducer { private final BinaryLogClient client; private final KafkaProducer<String, String> producer; private final String topic; public BinlogProducer(String hostname, int port, String username, String password, String topic) { this.client = new BinaryLogClient(hostname, port, username, password); this.producer = new KafkaProducer<>(getKafkaConfig()); this.topic = topic; } public void start() throws Exception { client.registerEventListener(event -> { EventData data = event.getData(); if (data instanceof WriteRowsEventData) { WriteRowsEventData eventData = (WriteRowsEventData) data; for (Serializable[] row : eventData.getRows()) { String message = "INSERT INTO " + eventData.getTableId() + " VALUES " + Arrays.toString(row); producer.send(new ProducerRecord<>(topic, message)); } } else if (data instanceof UpdateRowsEventData) { UpdateRowsEventData eventData = (UpdateRowsEventData) data; for (Map.Entry<Serializable[], Serializable[]> row : eventData.getRows()) { String message = "UPDATE " + eventData.getTableId() + " SET " + Arrays.toString(row.getValue()) + " WHERE " + Arrays.toString(row.getKey()); producer.send(new ProducerRecord<>(topic, message)); } } else if (data instanceof DeleteRowsEventData) { DeleteRowsEventData eventData = (DeleteRowsEventData) data; for (Serializable[] row : eventData.getRows()) { String message = "DELETE FROM " + eventData.getTableId() + " WHERE " + Arrays.toString(row); producer.send(new ProducerRecord<>(topic, message)); } } }); client.connect(); } public void stop() throws Exception { client.disconnect(); producer.close(); } private Map<String, Object> getKafkaConfig() { Map<String, Object> config = new HashMap<>(); config.put("bootstrap.servers", "localhost:9092"); config.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer"); config.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer"); return config; } } ``` 上述代码中,`BinaryLogClient` 是一个 MySQL Binlog 客户端,可以用来监听 MySQL 数据库Binlog 事件。在 `start()` 方法中,我们通过注册事件监听器来捕获 Binlog 事件,然后将事件数据写入 Kafka 主题。需要注意的是,对于不同类型的 Binlog 事件(如插入、更新、删除等),需要分别处理,并将事件数据转换成插入、更新、删除语句,然后写入 Kafka 主题中。 最后,需要启动一个 Kafka 消费者,从 Kafka 主题中读取 Binlog 数据,并写入 SQL Server 数据库中: ```java import org.springframework.beans.factory.annotation.Autowired; import org.springframework.jdbc.core.JdbcTemplate; import org.springframework.kafka.annotation.KafkaListener; import org.springframework.stereotype.Component; @Component public class BinlogConsumer { private final JdbcTemplate jdbcTemplate; @Autowired public BinlogConsumer(JdbcTemplate jdbcTemplate) { this.jdbcTemplate = jdbcTemplate; } @KafkaListener(topics = "binlog") public void onMessage(String message) { jdbcTemplate.execute(message); } } ``` 上述代码中,`BinlogConsumer` 是一个 Kafka 消费者,使用 `@KafkaListener` 注解来监听 Kafka 主题中的消息。当收到消息时,直接执行消息中的 SQL 语句,将数据写入 SQL Server 数据库中。 通过上述方式,就可以实现 MySQL 数据库和 SQL Server 数据库之间的实时数据同步了。需要注意的是,由于 Binlog 日志是一个增量日志,因此在启动同步任务时,需要首先将 MySQL 数据库中的数据全量复制到 SQL Server 数据库中,然后再开启 Binlog 日志,以保证数据的完整性和一致性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值