1、canal是啥
阿里巴巴B2B公司,因为业务的特性,卖家主要集中在国内,买家主要集中在国外,所以衍生出了杭州和美国异地机房的需求,从2010年开始,阿里系公司开始逐步的尝试基于数据库的日志解析,获取增量变更进行同步,由此衍生出了增量订阅&消费的业务。
Canal是用Java开发的基于数据库增量日志解析,提供增量数据订阅&消费的中间件。目前,Canal主要支持了MySQL的Binlog解析,解析完成后才利用Canal Client 用来处理获得的相关数据。(数据库同步需要阿里的otter中间件,基于Canal)。
2、使用场景
(1)异地数据库的同步
(2)更新缓存
1、监控数据库,某个库、某个表的数据。
2、将更新后的数据同步到缓存中。
(3)抓取业务数据新增变化表,用于制作拉链表。
(4)抓取业务表的新增变化数据,用于制作实时统计。
3、Canal的工作原理
复制过程分成三步:
1)Master主库将改变记录写到二进制日志(binary log)中;
2)Slave从库向mysql master发送dump协议,将master主库的binary log events拷贝到它的中继日志(relay log);
3)Slave从库读取并重做中继日志中的事件,将改变的数据同步到自己的数据库。
Canal的工作原理很简单,就是把自己伪装成Slave,假装从Master复制数据。
4、MySQL的Binlog
4.1 什么是Binlog
MySQL的二进制日志可以说是MySQL最重要的日志了,它记录了所有的DDL和DML(除了数据查询语句)语句,以事件形式记录,还包含语句所执行的消耗的时间,MySQL的二进制日志是事务安全型的。
一般来说开启二进制日志大概会有1%的性能损耗。二进制有两个最重要的使用场景:
其一:MySQL Replication在Master端开启binlog,Mster把它的二进制日志传递给slaves来达到master-slave数据一致的目的。
其二:自然就是数据恢复了,通过使用MySQLBinlog工具来使恢复数据。
二进制日志包括两类文件:二进制日志索引文件(文件名后缀为.index)用于记录所有的二进制文件,二进制日志文件(文件名后缀为.00000*)记录数据库所有的DDL和DML(除了数据查询语句)语句事件。
4.2 Binlog的开启
在MySQL的配置文件(Linux: /etc/my.cnf , Windows: \my.ini)下,修改配置在[mysqld] 区块设置/添加
log-bin=mysql-bin
server-id = 1
binlog_format=statement
这个表示binlog日志的前缀是mysql-bin,以后生成的日志文件就是 mysql-bin.123456 的文件后面的数字按顺序生成。每次mysql重启或者到达单个文件大小的阈值时,新生一个文件,按顺序编号。
4.3 Binlog的分类设置
MySQL Binlog的格式,那就是有三种,分别是STATEMENT,MIXED,ROW。
在配置文件中选择配置
binlog_format=row
区别:
1)statement
语句级,binlog会记录每次一执行写操作的语句。
相对row模式节省空间,但是可能产生不一致性,比如
update tt set create_date=now()
如果用binlog日志进行恢复,由于执行时间不同可能产生的数据就不同。
优点:节省空间
缺点:有可能造成数据不一致。
2)row
行级,binlog会记录每次操作后每行记录的变化。
优点:保持数据的绝对一致性。因为不管sql是什么,引用了什么函数,他只记录执行后的效果。
缺点:占用较大空间。
3)mixed
statement的升级版,一定程度上解决了,因为一些情况而造成的statement模式不一致问题
在某些情况下譬如:
当函数中包含 UUID() 时;
包含 AUTO_INCREMENT 字段的表被更新时;
执行 INSERT DELAYED 语句时;
用 UDF 时;
会按照 ROW的方式进行处理
优点:节省空间,同时兼顾了一定的一致性。
缺点:还有些极个别情况依旧会造成不一致,
另外statement和mixed对于需要对binlog的监控的情况都不方便。
5、实战
5.1 mysql中赋权限
GRANT SELECT, REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'canal'@'%' IDENTIFIED BY 'canal';
5.2 修改/etc/my.cnf文件
# vi /etc/my.cnf
server-id=1
log-bin=mysql-bin
binlog_format=row
binlog-do-db=gmall2021
#重启mysql
sudo systemctl restart mysqld
5.3 canal安装
1)下载canal.deployer-1.1.2.tar.gz
2)解压到指定目录 /xx/xx/canal
3)修改配置
vim /xx/xx/canal/conf/canal.properties
canal.ip = 安装所在机器的IP或主机名
# tcp, kafka, RocketMQ
#tcp 可以通过客户端连接canal server,然后解析数据,处理数据
#kafka 直接将数据解析到kafka指定的topic中
canal.serverMode = tcp
######### MQ #############
#kafka的服务地址
canal.mq.servers = localhost:9092
#通过前面canal架构,我们可以知道,一个canal服务中可以有多个instance,conf/下的每一个example即是一#个实例,每个实例下面都有独立的配置文件。默认只有一个实例example,如果需要多个实例处理不同的MySQL数#据的话,直接拷贝出多个example,并对其重新命名,命名和配置文件中指定的名称一致,然后修改#canal.properties中的canal.destinations=实例1,实例2,实例3。
######### destinations #############
canal.destinations = example
4)修改instance.properties
vim /xx/xx/canal/conf/example/instance.properties
canal.instance.mysql.slaveId=2
canal.instance.master.address=订阅的mysql实例的主机名:端口号
canal.instance.master.journal.name=从哪个binlog文件开始订阅
canal.instance.master.position=从binlog文件的哪个位置开始订阅
可以通过mysql客户端,执行
show master status查看当前master机器binlog文件的最新记录位置!
# username/password 配置mysql中建立的canal账号
canal.instance.dbUsername=canal
canal.instance.dbPassword=canal
canal.instance.connectionCharset = UTF-8
# mq config 如果是kafka模式配置topic名称
canal.mq.topic=example01
canal.mq.partition=0
5.4.启动canal
/xx/xx/canal/bin/startup.sh
5.5 客户端解析数据
#main方法
CanalConnector canalConnector = CanalConnectors.newSingleConnector(new InetSocketAddress("canal服务ip地址", 11111),
"example",
null,
null
);
canalConnector.connect();
canalConnector.subscribe("test.user"); //监控某个test库的user表,可以写成test.*(test库下所有表)
while(true){
Message message = canalConnector.get(100);
if(message.getId()==-1){
System.out.println("没有数据,歇会!");
Thread.sleep(5000);
continue;
}
List<CanalEntry.Entry> entries = message.getEntries();
for (CanalEntry.Entry entry : entries) {
CanalEntry.EntryType entryType = entry.getEntryType(); 判断类型是不是 RowData,
// == CanalEntry.EntryType.ROWDATA 说明是//说明这个语句是 INSERT|UPDATE|DELETE|CREATE语句
if(entryType==CanalEntry.EntryType.ROWDATA){
//既然是增删改查的操作,那么就解析数据
// System.out.println(entry.getHeader().getTableName()); //打印表名称
parseData(entry.getStoreValue());
}
}
}
private static void parseData(ByteString storeValue) throws InvalidProtocolBufferException {
//反序列化为RowChange
CanalEntry.RowChange rowChange = CanalEntry.RowChange.parseFrom(storeValue);
CanalEntry.EventType eventType = rowChange.getEventType();
if(eventType== CanalEntry.EventType.INSERT){
//只要insert
//获取当前这个insert语句引起的所有行的数据变化
List<CanalEntry.RowData> rowDatasList = rowChange.getRowDatasList();
for (CanalEntry.RowData rowData : rowDatasList) {
JSONObject jsonObject = new JSONObject();
/*
update: 将一列的值,进行更新,会记录 更新前的值和更新后的值
insert: 新增的这列之后新增后的值
*/
//获取更新后所有列
List<CanalEntry.Column> afterColumnsList = rowData.getAfterColumnsList();
for (CanalEntry.Column column : afterColumnsList) {
jsonObject.put(column.getName(),column.getValue());
}
MyProducer.send("kafka-topic-name", jsonObject.toJSONString());
}
}
}