canal 使用

1、canal是啥

        阿里巴巴B2B公司,因为业务的特性,卖家主要集中在国内,买家主要集中在国外,所以衍生出了杭州和美国异地机房的需求,从2010年开始,阿里系公司开始逐步的尝试基于数据库的日志解析,获取增量变更进行同步,由此衍生出了增量订阅&消费的业务。

        Canal是用Java开发的基于数据库增量日志解析,提供增量数据订阅&消费的中间件。目前,Canal主要支持了MySQL的Binlog解析,解析完成后才利用Canal Client 用来处理获得的相关数据。(数据库同步需要阿里的otter中间件,基于Canal)。

2、使用场景

(1)异地数据库的同步

(2)更新缓存

        1、监控数据库,某个库、某个表的数据。

        2、将更新后的数据同步到缓存中。

(3)抓取业务数据新增变化表,用于制作拉链表。    

(4)抓取业务表的新增变化数据,用于制作实时统计。

3、Canal的工作原理

复制过程分成三步:

1)Master主库将改变记录写到二进制日志(binary log)中;

2)Slave从库向mysql master发送dump协议,将master主库的binary log events拷贝到它的中继日志(relay log);

3)Slave从库读取并重做中继日志中的事件,将改变的数据同步到自己的数据库。

Canal的工作原理很简单,就是把自己伪装成Slave,假装从Master复制数据。

4、MySQL的Binlog

4.1 什么是Binlog

    MySQL的二进制日志可以说是MySQL最重要的日志了,它记录了所有的DDL和DML(除了数据查询语句)语句,以事件形式记录,还包含语句所执行的消耗的时间,MySQL的二进制日志是事务安全型的。

    一般来说开启二进制日志大概会有1%的性能损耗。二进制有两个最重要的使用场景:

    其一:MySQL Replication在Master端开启binlog,Mster把它的二进制日志传递给slaves来达到master-slave数据一致的目的。

    其二:自然就是数据恢复了,通过使用MySQLBinlog工具来使恢复数据。

二进制日志包括两类文件:二进制日志索引文件(文件名后缀为.index)用于记录所有的二进制文件,二进制日志文件(文件名后缀为.00000*)记录数据库所有的DDL和DML(除了数据查询语句)语句事件。

4.2 Binlog的开启

在MySQL的配置文件(Linux: /etc/my.cnf ,  Windows: \my.ini)下,修改配置在[mysqld] 区块设置/添加

log-bin=mysql-bin

server-id = 1

binlog_format=statement

这个表示binlog日志的前缀是mysql-bin,以后生成的日志文件就是 mysql-bin.123456 的文件后面的数字按顺序生成。每次mysql重启或者到达单个文件大小的阈值时,新生一个文件,按顺序编号。

4.3 Binlog的分类设置

MySQL Binlog的格式,那就是有三种,分别是STATEMENT,MIXED,ROW。

在配置文件中选择配置

binlog_format=row

区别:

1statement

    语句级,binlog会记录每次一执行写操作的语句。

    相对row模式节省空间,但是可能产生不一致性,比如

update  tt set create_date=now()

    如果用binlog日志进行恢复,由于执行时间不同可能产生的数据就不同。

    优点:节省空间

    缺点:有可能造成数据不一致。

2row

    行级,binlog会记录每次操作后每行记录的变化。

    优点:保持数据的绝对一致性。因为不管sql是什么,引用了什么函数,他只记录执行后的效果。

    缺点:占用较大空间。

3mixed

    statement的升级版,一定程度上解决了,因为一些情况而造成的statement模式不一致问题

    在某些情况下譬如:

    当函数中包含 UUID() 时;

    包含 AUTO_INCREMENT 字段的表被更新时;

    执行 INSERT DELAYED 语句时;

    用 UDF 时;

    会按照 ROW的方式进行处理

    优点:节省空间,同时兼顾了一定的一致性。

缺点:还有些极个别情况依旧会造成不一致,

另外statement和mixed对于需要对binlog的监控的情况都不方便。

5、实战

5.1 mysql中赋权限

GRANT SELECT, REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'canal'@'%' IDENTIFIED BY 'canal';

5.2 修改/etc/my.cnf文件

# vi /etc/my.cnf

server-id=1
log-bin=mysql-bin
binlog_format=row
binlog-do-db=gmall2021

#重启mysql
sudo systemctl restart mysqld

5.3 canal安装

1)下载canal.deployer-1.1.2.tar.gz

2)解压到指定目录 /xx/xx/canal

3)修改配置

vim /xx/xx/canal/conf/canal.properties
canal.ip = 安装所在机器的IP或主机名

# tcp, kafka, RocketMQ
#tcp 可以通过客户端连接canal server,然后解析数据,处理数据
#kafka 直接将数据解析到kafka指定的topic中
canal.serverMode = tcp

#########            MQ              #############
#kafka的服务地址
canal.mq.servers = localhost:9092

#通过前面canal架构,我们可以知道,一个canal服务中可以有多个instance,conf/下的每一个example即是一#个实例,每个实例下面都有独立的配置文件。默认只有一个实例example,如果需要多个实例处理不同的MySQL数#据的话,直接拷贝出多个example,并对其重新命名,命名和配置文件中指定的名称一致,然后修改#canal.properties中的canal.destinations=实例1,实例2,实例3。
#########               destinations            ############# 
canal.destinations = example

4)修改instance.properties

vim /xx/xx/canal/conf/example/instance.properties

canal.instance.mysql.slaveId=2
canal.instance.master.address=订阅的mysql实例的主机名:端口号
canal.instance.master.journal.name=从哪个binlog文件开始订阅
canal.instance.master.position=从binlog文件的哪个位置开始订阅

可以通过mysql客户端,执行
show master status查看当前master机器binlog文件的最新记录位置!


# username/password 配置mysql中建立的canal账号
canal.instance.dbUsername=canal
canal.instance.dbPassword=canal
canal.instance.connectionCharset = UTF-8


# mq config 如果是kafka模式配置topic名称
canal.mq.topic=example01
canal.mq.partition=0

5.4.启动canal

/xx/xx/canal/bin/startup.sh

5.5 客户端解析数据

#main方法
CanalConnector canalConnector = CanalConnectors.newSingleConnector(new InetSocketAddress("canal服务ip地址", 11111),
                "example",
                null,
                null
        );
 canalConnector.connect();
canalConnector.subscribe("test.user"); //监控某个test库的user表,可以写成test.*(test库下所有表)


while(true){
            Message message = canalConnector.get(100);
            if(message.getId()==-1){
                System.out.println("没有数据,歇会!");
                Thread.sleep(5000);
                continue;
            }

            List<CanalEntry.Entry> entries = message.getEntries();

            for (CanalEntry.Entry entry : entries) {
                CanalEntry.EntryType entryType = entry.getEntryType(); 判断类型是不是 RowData,
                // == CanalEntry.EntryType.ROWDATA 说明是//说明这个语句是 INSERT|UPDATE|DELETE|CREATE语句
                if(entryType==CanalEntry.EntryType.ROWDATA){
                    //既然是增删改查的操作,那么就解析数据
//                    System.out.println(entry.getHeader().getTableName()); //打印表名称
                    parseData(entry.getStoreValue());
                }
            }
        }


private static void parseData(ByteString storeValue) throws InvalidProtocolBufferException {
        //反序列化为RowChange
        CanalEntry.RowChange rowChange = CanalEntry.RowChange.parseFrom(storeValue);
        CanalEntry.EventType eventType = rowChange.getEventType();
        if(eventType== CanalEntry.EventType.INSERT){
            //只要insert
            //获取当前这个insert语句引起的所有行的数据变化
            List<CanalEntry.RowData> rowDatasList = rowChange.getRowDatasList();
            for (CanalEntry.RowData rowData : rowDatasList) {

                JSONObject jsonObject = new JSONObject();

                /*
                        update:   将一列的值,进行更新,会记录 更新前的值和更新后的值

                        insert:   新增的这列之后新增后的值
                 */
                //获取更新后所有列
                List<CanalEntry.Column> afterColumnsList = rowData.getAfterColumnsList();

                for (CanalEntry.Column column : afterColumnsList) {

                    jsonObject.put(column.getName(),column.getValue());

                }

                MyProducer.send("kafka-topic-name", jsonObject.toJSONString());

            }
        }
    }

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值