【总结】Maxwell学习笔记

Maxwell是一款基于Java的MySQL数据变化监控工具,通过读取MySQL的二进制日志实现实时数据同步到Kafka等流处理平台。文章详细介绍了Maxwell的工作原理、MySQL主从复制的应用、部署步骤和使用方法,包括全量同步和增量数据捕获。
摘要由CSDN通过智能技术生成

1.Maxwell简介

Maxwell 是一款用Java编写的MySQL变更数据抓取软件,它会实时监控Mysql数据库的数据变更操作(包括insert、update、delete),并将变更数据以 JSON 格式发送给 Kafka、Kinesi等流数据处理平台

官网地址:Maxwell's Daemon

Maxwell输出数据格式:

字段说明:

字段

解释

database

变更数据所属的数据库

table

表更数据所属的表

type

数据变更类型

ts

数据变更发生的时间

xid

事务id

commit

事务提交标志,可用于重新组装事务

data

对于insert类型,表示插入的数据;对于update类型,标识修改之后的数据;对于delete类型,表示删除的数据

old

对于update类型,表示修改之前的数据,只包含变更字段

2.Maxwell原理

Maxwell的工作原理是实时读取MySQL数据库的二进制日志(Binlog),从中获取变更数据,再将变更数据以JSON格式发送至Kafka等流处理平台

2.1 MySQL二进制日志

二进制日志(Binlog)是MySQL服务端非常重要的一种日志,它会保存MySQL数据库的所有数据变更记录。Binlog的主要作用包括主从复制和数据恢复

2.2 MySQL主从复制

MySQL的主从复制,就是用来建立一个和主数据库完全一样的数据库环境,这个数据库称为从数据库

2.2.1 应用场景

  1. 做数据库的热备:主数据库服务器故障后,可切换到从数据库继续工作。
  2. 读写分离:主数据库只负责业务数据的写入操作,而多个从数据库只负责业务数据的查询工作,在读多写少场景下,可以提高数据库工作效率

2.2.2 工作原理

  1. Master主库将数据变更记录,写到二进制日志(binary log)中
  2. Slave从库向mysql master发送dump协议,将master主库的binary log events拷贝到它的中继日志(relay log
  3. Slave从库读取并回放中继日志中的事件,将改变的数据同步到自己的数据库

MySQL的dump协议是一种用于在客户端和服务器之间传输数据的文件格式。它主要用于备份和恢复数据库,以及在不同版本的MySQL服务器之间迁移数据。dump协议的文件通常以.sql为扩展名,包含了创建表、插入数据等SQL语句

由此可见,maxwell的工作原理就是就是将自己伪装成slave,并遵循MySQL主从复制的协议,从master同步数据

3.Maxwell部署

3.1 安装Maxwell

安装包下载地址:https://github.com/zendesk/maxwell/releases/download/v1.29.2/maxwell-1.29.2.tar.gz

注:Maxwell-1.30.0及以上版本不再支持JDK1.8

下载完成后解压即可,目录结构如下:

3.2 配置MySQL

1.首先需要开启MySQL的binlog服务,sudo vim /etc/my.cnf

增加以下配置:

[mysqld]

#数据库id
server-id = 1
#启动binlog,该参数的值会作为binlog的文件名
log-bin=mysql-bin
#binlog类型,maxwell要求为row类型
binlog_format=row
#启用binlog的数据库,需根据实际情况作出修改
binlog-do-db=gmall

1.有关binlog-do-db,如果需要有多个数据库来启用binlog,则要增加多条语句配置

也可以使用binlog-ignore-db来设置不需监控的数据库

2.有关server-id:server-id是MySQL服务器的一个唯一标识符,它通常在配置文件中设置。这个标识符在复制过程中非常重要,因为它帮助确保数据的一致性和正确性

3.有关binlog模式:MySQL的binlog模式有:

Statement-based:基于语句,Binlog会记录所有写操作的SQL语句,包括insert、update、delete等

  • 优点: 节省空间
  • 缺点: 有可能造成数据不一致,例如insert语句中包含now()函数

Row-based:基于行,Binlog会记录每次写操作后被操作行记录的变化

  • 优点:保持数据的绝对一致性缺点:占用较大空间
  • mixed:混合模式,默认是Statement-based,如果SQL语句可能导致数据不一致,就自动切换到Row-based

Maxwell要求Binlog采用Row-based模式

2.重启MySQL服务:sudo systemctl restart mysqld

3.3 创建Maxwell所需数据库和用户

1.创建数据库:CREATE DATABASE maxwell

2.调整MySQL数据库密码级别:

set global validate_password_policy=0

set global validate_password_length=4

global validate_password_policy用于指定密码的强度验证等级:

  • LOW(0):只验证密码长度。
  • MEDIUM(1):验证长度、数字、大小写字母、特殊字符。
  • STRONG(2):验证长度、数字、大小写字母、特殊字符以及字典文件。

global validate_password_length用于设置密码的最小长度

3.创建Maxwell用户并赋予其必要权限:

CREATE USER 'maxwell'@'%' IDENTIFIED BY 'maxwell'(创建用户)、

'maxwell'@'%':用户名是maxwell;主机名是'%','%'表示这个用户可以从任何主机连接到数据库服务器

IDENTIFIED BY 'maxwell':密码是maxwell

GRANT ALL ON maxwell.* TO 'maxwell'@'%';:Maxwell用户可以操作maxwell数据库下的所有表

GRANT SELECT, REPLICATION CLIENT, REPLICATION SLAVE ON *.* TO 'maxwell'@'%';

赋予maxwell用户对于所有数据库下所有表的主从复制权限

权限:SELECT(查询)、REPLICATION CLIENT(复制客户端)和REPLICATION SLAVE(复制从服务器)

ON *.*:指定这些权限适用的数据库和表。星号(*)表示所有数据库和表

TO 'maxwell'@'%':指定要授予权限的用户

3.4 配置Maxwell

首先修改配置文件名称:cp config.properties.example config.properties

然后对该文件进行修改:

#Maxwell数据发送目的地,可选配置有stdout|file|kafka|kinesis|pubsub|sqs|rabbitmq|redis
producer=kafka
#目标Kafka集群地址
kafka.bootstrap.servers=hadoop102:9092,hadoop103:9092
#目标Kafka topic,可静态配置,例如:maxwell,也可动态配置,例如:%{database}_%{table}
kafka_topic=topic_db

#MySQL相关配置
host=hadoop102
user=maxwell
password=maxwell
jdbc_options=useSSL=false&serverTimezone=Asia/Shanghai

4.Maxwell使用

以将MySQL数据同步到Kafka为例,首先启动Kafka集群

4.1 maxwell启停

启动:/opt/module/maxwell/bin/maxwell --config /opt/module/maxwell/config.properties --daemon

停止:ps -ef | grep maxwell | grep -v grep | grep maxwell | awk '{print $2}' | xargs kill -9

解析:

  • ps -ef: 这是列出所有正在运行的进程的命令。
  • grep maxwell: 这是搜索包含"maxwell"字符串的进程。
  • grep -v grep: 这是排除包含"grep"字符串的进程,以避免误杀grep命令本身。
  • awk '{print $2}': 这是使用awk命令提取每行输出的第二个字段,即进程ID(PID)。
  • xargs kill -9: 这是将提取到的进程ID作为参数传递给kill命令,并使用-9选项强制终止进程。

启停脚本:

MAXWELL_HOME=/opt/module/maxwell

status_maxwell(){
    result=`ps -ef | grep com.zendesk.maxwell.Maxwell | grep -v grep | wc -l`
    return $result
}


start_maxwell(){
    status_maxwell
    if [[ $? -lt 1 ]]; then
        echo "启动Maxwell"
        $MAXWELL_HOME/bin/maxwell --config $MAXWELL_HOME/config.properties --daemon
    else
        echo "Maxwell正在运行"
    fi
}


stop_maxwell(){
    status_maxwell
    if [[ $? -gt 0 ]]; then
        echo "停止Maxwell"
        ps -ef | grep com.zendesk.maxwell.Maxwell | grep -v grep | awk '{print $2}' | xargs kill -9
    else
        echo "Maxwell未在运行"
    fi
}


case $1 in
    start )
        start_maxwell
    ;;
    stop )
        stop_maxwell
    ;;
    restart )
       stop_maxwell
       start_maxwell
    ;;
esac

4.2 增量数据同步

启动kafka消费者:bin/kafka-console-consumer.sh --bootstrap-server hadoop102:9092 --topic topic_db

然后在mysql中gmall数据库的activity_info表中插入一条数据:

可以看到Kafka消费者成功捕获到Maxwell发送来的数据:

4.3 历史数据全量同步

Maxwell提供了bootstrap功能来进行历史数据的全量同步

命令格式:/opt/module/maxwell/bin/maxwell-bootstrap --database gmall --table activity_info --config /opt/module/maxwell/config.properties

执行指令后可以看到所有数据均已同步到Kafka消费者:

注意:

1)第一条type为bootstrap-start和最后一条type为bootstrap-complete的数据,是bootstrap开始和结束的标志,不包含数据,中间的type为bootstrap-insert的数据才包含数据

2)一次bootstrap输出的所有记录的ts都相同,为bootstrap开始的时间

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

THE WHY

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值