canal高可用部署安装和配置参数详解

canal高可用部署安装和配置参数详解

软件下载

下载地址:https://github.com/alibaba/canal/releases

解压到/usr/local/canal目录

tar zxvf canal.deployer-1.1.3-SNAPSHOT.tar.gz -C /usr/local/canal/

配置修改

vim conf/example/instance.properties
1、mysql serverId,改成唯一的

#################################################
## mysql serverId
canal.instance.mysql.slaveId = 129

2、position info,需要改成自己的数据库信息

# position info
canal.instance.master.address=192.168.134.129:3306
canal.instance.master.journal.name=
canal.instance.master.position=
canal.instance.master.timestamp=

#canal.instance.standby.address =
#canal.instance.standby.journal.name =
#canal.instance.standby.position =
#canal.instance.standby.timestamp =

3、username/password,需要改成自己的mysql数据库信息

# username/password
canal.instance.dbUsername=canal
canal.instance.dbPassword=canal
canal.instance.defaultDatabaseName=test
canal.instance.connectionCharset=UTF-8

4、table regex

# table regex
canal.instance.filter.regex=.*\\..*

5、修改 conf/canal.properties 文件

将 canal.ip 改成canal所在机器的ip地址,避免无谓的问题

canal.id= 128
canal.ip=10.10.2.137
canal.port= 11111

6、java客户端连接(测试)

import java.net.InetSocketAddress;
import java.util.List;

import com.alibaba.otter.canal.client.CanalConnector;
import com.alibaba.otter.canal.client.CanalConnectors;
import com.alibaba.otter.canal.protocol.CanalEntry.Column;
import com.alibaba.otter.canal.protocol.CanalEntry.Entry;
import com.alibaba.otter.canal.protocol.CanalEntry.EntryType;
import com.alibaba.otter.canal.protocol.CanalEntry.EventType;
import com.alibaba.otter.canal.protocol.CanalEntry.RowChange;
import com.alibaba.otter.canal.protocol.CanalEntry.RowData;
import com.alibaba.otter.canal.protocol.Message;

public class TestCanal {

    public static void main(String args[]) {
        // 创建链接
        CanalConnector connector = CanalConnectors.newSingleConnector(
            new InetSocketAddress("10.10.2.137", 11111),"example", "", "");
        int batchSize = 1000;
        int emptyCount = 0;
        try {
            connector.connect();
            connector.subscribe(".*\\..*");
            connector.rollback();
            int totalEmtryCount = 1200;
            while (emptyCount < totalEmtryCount) {
                Message message = connector.getWithoutAck(batchSize); // 获取指定数量的数据
                long batchId = message.getId();
                int size = message.getEntries().size();
                if (batchId == -1 || size == 0) {
                    emptyCount++;
//                    System.out.println("empty count : " + emptyCount);
                    try {
                        Thread.sleep(1000);
                    } catch (InterruptedException e) {
                        e.printStackTrace();
                    }
                } else {
                    emptyCount = 0;
                    // System.out.printf("message[batchId=%s,size=%s] \n", batchId, size);
                    printEntry(message.getEntries());
                }

                connector.ack(batchId); // 提交确认
                // connector.rollback(batchId); // 处理失败, 回滚数据
            }

            System.out.println("empty too many times, exit");
        } finally {
            connector.disconnect();
        }
    }

    private static void printEntry(List<Entry> entrys) {
        for (Entry entry : entrys) {
            if (entry.getEntryType() == EntryType.TRANSACTIONBEGIN
                    || entry.getEntryType() == EntryType.TRANSACTIONEND) {
                continue;
            }

            RowChange rowChage = null;
            try {
                rowChage = RowChange.parseFrom(entry.getStoreValue());
            } catch (Exception e) {
                throw new RuntimeException("ERROR ## parser of eromanga-event has an error , data:" + entry.toString(),
                        e);
            }

            EventType eventType = rowChage.getEventType();
            System.out.println(String.format("================> binlog[%s:%s] , name[%s,%s] , eventType : %s",
                    entry.getHeader().getLogfileName(), entry.getHeader().getLogfileOffset(),
                    entry.getHeader().getSchemaName(), entry.getHeader().getTableName(), eventType));

            for (RowData rowData : rowChage.getRowDatasList()) {
                if (eventType == EventType.DELETE) {
                    printColumn(rowData.getBeforeColumnsList());
                } else if (eventType == EventType.INSERT) {
                    printColumn(rowData.getAfterColumnsList());
                } else {
                    System.out.println("-------> before");
                    printColumn(rowData.getBeforeColumnsList());
                    System.out.println("-------> after");
                    printColumn(rowData.getAfterColumnsList());
                }
            }
        }
    }

    private static void printColumn(List<Column> columns) {
        for (Column column : columns) {
            System.out.println(column.getName() + " : " + column.getValue() + "    update=" + column.getUpdated());
        }
    }

}

HA模式配置

二、按照部署和配置,在单台机器上各自完成配置,演示时instance name为example

canal.destinations = example

a. 修改canal.properties,加上zookeeper配置

canal.zkServers=10.10.2.137:2181,10.10.2.138:2181,10.10.2.139:2181

b. 创建example目录,并修改instance.properties

canal.instance.mysql.slaveId = 131 ##另外一台机器改成132,保证slaveId不重复即可

在这里插入图片描述

    注意: 两台机器上的instance目录的名字需要保证完全一致,HA模式是依赖于instance name进行管理,同时必须都选择default-instance.xml配置

java客户端连接方式

CanalConnector connector = CanalConnectors.newClusterConnector("10.10.2.137:2181,10.10.2.138:2181,10.10.2.139:2181", "example", null, null);

mysql多节点解析配置(parse解析自动切换)
mysql机器准备

准备两台mysql机器,配置为M-M模式,比如ip为:10.20.144.25:3306,10.20.144.29:3306
canal instance配置

# position info  
canal.instance.master.address = 10.20.144.25:3306  
canal.instance.master.journal.name =   
canal.instance.master.position =   
canal.instance.master.timestamp =   
 
canal.instance.standby.address = 10.20.144.29:3306  
canal.instance.standby.journal.name =  
canal.instance.standby.position =   
canal.instance.standby.timestamp =  
 
##detecing config  
canal.instance.detecting.enable = true ## 需要开启心跳检查  
canal.instance.detecting.sql = insert into retl.xdual values(1,now()) on duplicate key update x=now() ##心跳检查sql,也可以选择类似select 1的query语句  
canal.instance.detecting.interval.time = 3 ##心跳检查频率  
canal.instance.detecting.retry.threshold = 3  ## 心跳检查失败次数阀值,超过该阀值后会触发mysql链接切换,比如切换到standby机器上继续消费binlog  
canal.instance.detecting.heartbeatHaEnable = true ## 心跳检查超过失败次数阀值后,是否开启master/standby的切换.  

注意:

    填写master/standby的地址和各自的起始binlog位置,目前配置只支持一个standby配置.
    发生master/standby的切换的条件:(heartbeatHaEnable = true) && (失败次数>=retry.threshold).
    多引入一个heartbeatHaEnable的考虑:开启心跳sql有时候是为client检测canal server是否正常工作,如果定时收到了心跳语句,那说明整个canal server工作正常

启动 & 测试

​ 比如关闭一台机器的mysql , /etc/init.d/mysql stop 。在经历大概 interval.time * retry.threshold时间后,就会切换到standby机器上
配置详解
canal.properties介绍:

common参数定义,比如可以将instance.properties的公用参数,抽取放置到这里,这样每个instance启动的时候就可以共享. 【instance.properties配置定义优先级高于canal.properties】
参数名字    参数说明    默认值
canal.id    每个canal server实例的唯一标识,暂无实际意义    1
canal.ip    canal server绑定的本地IP信息,如果不配置,默认选择一个本机IP进行启动服务    无
canal.port    canal server提供socket服务的端口    11111
canal.zkServers    canal server链接zookeeper集群的链接信息 例子:10.20.144.22:2181,10.20.144.51:2181    无
canal.zookeeper.flush.period    canal持久化数据到zookeeper上的更新频率,单位毫秒    1000
canal.instance.memory.batch.mode    canal内存store中数据缓存模式 1. ITEMSIZE : 根据buffer.size进行限制,只限制记录的数量 2. MEMSIZE : 根据buffer.size * buffer.memunit的大小,限制缓存记录的大小    MEMSIZE
canal.instance.memory.buffer.size    canal内存store中可缓存buffer记录数,需要为2的指数    16384
canal.instance.memory.buffer.memunit    内存记录的单位大小,默认1KB,和buffer.size组合决定最终的内存使用大小    1024
canal.instance.transactionn.size    最大事务完整解析的长度支持 超过该长度后,一个事务可能会被拆分成多次提交到canal store中,无法保证事务的完整可见性    1024
canal.instance.fallbackIntervalInSeconds    canal发生mysql切换时,在新的mysql库上查找binlog时需要往前查找的时间,单位秒 说明:mysql主备库可能存在解析延迟或者时钟不统一,需要回退一段时间,保证数据不丢    60
canal.instance.detecting.enable    是否开启心跳检查    false
canal.instance.detecting.sql    心跳检查sql    insert into retl.xdual values(1,now()) on duplicate key update x=now()
canal.instance.detecting.interval.time    心跳检查频率,单位秒    3
canal.instance.detecting.retry.threshold    心跳检查失败重试次数    3
canal.instance.detecting.heartbeatHaEnable    心跳检查失败后,是否开启自动mysql自动切换 说明:比如心跳检查失败超过阀值后,如果该配置为true,canal就会自动链到mysql备库获取binlog数据    false
canal.instance.network.receiveBufferSize    网络链接参数,SocketOptions.SO_RCVBUF    16384
canal.instance.network.sendBufferSize    网络链接参数,SocketOptions.SO_SNDBUF    16384
canal.instance.network.soTimeout    网络链接参数,SocketOptions.SO_TIMEOUT    30
canal.instance.filter.druid.ddl    是否使用druid处理所有的ddl解析来获取库和表名    true
canal.instance.filter.query.dcl    是否忽略dcl语句    false
canal.instance.filter.query.dml    是否忽略dml语句 (mysql5.6之后,在row模式下每条DML语句也会记录SQL到binlog中,可参考MySQL文档)    false
canal.instance.filter.query.ddl    是否忽略ddl语句    false
canal.instance.filter.table.error    是否忽略binlog表结构获取失败的异常(主要解决回溯binlog时,对应表已被删除或者表结构和binlog不一致的情况)    false
canal.instance.filter.rows    是否dml的数据变更事件(主要针对用户只订阅ddl/dcl的操作)    false
canal.instance.filter.transaction.entry    是否忽略事务头和尾,比如针对写入kakfa的消息时,不需要写入TransactionBegin/Transactionend事件    false
canal.instance.binlog.format    支持的binlog format格式列表 (otter会有支持format格式限制)    ROW,STATEMENT,MIXED
canal.instance.binlog.image    支持的binlog image格式列表 (otter会有支持format格式限制)    FULL,MINIMAL,NOBLOB
canal.instance.get.ddl.isolation    ddl语句是否单独一个batch返回(比如下游dml/ddl如果做batch内无序并发处理,会导致结构不一致)    false
canal.instance.parser.parallel    是否开启binlog并行解析模式(串行解析资源占用少,但性能有瓶颈, 并行解析可以提升近2.5倍+)    true
canal.instance.parser.parallelBufferSize    binlog并行解析的异步ringbuffer队列 (必须为2的指数)    256
canal.instance.tsdb.enable    是否开启tablemeta的tsdb能力    true
canal.instance.tsdb.dir    主要针对h2-tsdb.xml时对应h2文件的存放目录,默认为conf/xx/h2.mv.db    c a n a l . f i l e . d a t a . d i r : . . / c o n f / {canal.file.data.dir:../conf}/ canal.file.data.dir:../conf/{canal.instance.destination:}
canal.instance.tsdb.url    jdbc url的配置(h2的地址为默认值,如果是mysql需要自行定义)    jdbc:h2:${canal.instance.tsdb.dir}/h2;CACHE_SIZE=1000;MODE=MYSQL;
canal.instance.tsdb.dbUsername    jdbc url的配置(h2的地址为默认值,如果是mysql需要自行定义)    canal
canal.instance.tsdb.dbPassword    jdbc url的配置(h2的地址为默认值,如果是mysql需要自行定义)    canal
canal.instance.rds.accesskey    aliyun账号的ak信息 (如果不需要在本地binlog超过18小时被清理后自动下载oss上的binlog,可以忽略该值)    无
canal.instance.rds.secretkey    aliyun账号的sk信息(如果不需要在本地binlog超过18小时被清理后自动下载oss上的binlog,可以忽略该值)    无

instance列表定义 (列出当前server上有多少个instance,每个instance的加载方式是spring/manager等)
参数名字    参数说明    默认值
canal.destinations    当前server上部署的instance列表    无
canal.conf.dir    conf/目录所在的路径    …/conf
canal.auto.scan    开启instance自动扫描 如果配置为true,canal.conf.dir目录下的instance配置变化会自动触发: a. instance目录新增: 触发instance配置载入,lazy为true时则自动启动 b. instance目录删除:卸载对应instance配置,如已启动则进行关闭 c. instance.properties文件变化:reload instance配置,如已启动自动进行重启操作    true
canal.auto.scan.interval    instance自动扫描的间隔时间,单位秒    5
canal.instance.global.mode    全局配置加载方式    spring
canal.instance.global.lazy    全局lazy模式    false
canal.instance.global.manager.address    全局的manager配置方式的链接信息    无
canal.instance.global.spring.xml    全局的spring配置方式的组件文件    classpath:spring/memory-instance.xml (spring目录相对于canal.conf.dir)
canal.instance.example.mode canal.instance.example.lazy canal.instance.example.spring.xml …    instance级别的配置定义,如有配置,会自动覆盖全局配置定义模式 命名规则:canal.instance.{name}.xxx    无
canal.instance.tsdb.spring.xml    v1.0.25版本新增,全局的tsdb配置方式的组件文件    classpath:spring/tsdb/h2-tsdb.xml (spring目录相对于canal.conf.dir)
instance.properties参数列表:
参数名字    参数说明    默认值
canal.instance.mysql.slaveId    mysql集群配置中的serverId概念,需要保证和当前mysql集群中id唯一 (v1.1.x版本之后canal会自动生成,不需要手工指定)    无
canal.instance.master.address    mysql主库链接地址    127.0.0.1:3306
canal.instance.master.journal.name    mysql主库链接时起始的binlog文件    无
canal.instance.master.position    mysql主库链接时起始的binlog偏移量    无
canal.instance.master.timestamp    mysql主库链接时起始的binlog的时间戳    无
canal.instance.gtidon    是否启用mysql gtid的订阅模式    false
canal.instance.master.gtid    mysql主库链接时对应的gtid位点    无
canal.instance.dbUsername    mysql数据库帐号    canal
canal.instance.dbPassword    mysql数据库密码    canal
canal.instance.defaultDatabaseName    mysql链接时默认schema    
canal.instance.connectionCharset    mysql 数据解析编码    UTF-8
canal.instance.filter.regex    mysql 数据解析关注的表,Perl正则表达式.多个正则之间以逗号(,)分隔,转义符需要双斜杠(\) 常见例子:1. 所有表:.* or .\… 2. canal schema下所有表: canal\…* 3. canal下的以canal打头的表:canal\.canal.* 4. canal schema下的一张表:canal.test15. 多个规则组合使用:canal\…*,mysql.test1,mysql.test2 (逗号分隔)    .\…
canal.instance.filter.black.regex    mysql 数据解析表的黑名单,表达式规则见白名单的规则    无
canal.instance.rds.instanceId    aliyun rds对应的实例id信息(如果不需要在本地binlog超过18小时被清理后自动下载oss上的binlog,可以忽略该值)    无
 

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要在Docker中实现Canal高可用部署,需要使用Docker Compose来定义和管理多个容器。下面是一个简单的Docker Compose文件示例: ``` version: '3.7' services: canal-server: image: canal/canal-server:v1.1.4 container_name: canal-server restart: always environment: - canal.instance.mysql.slaveId=1 - canal.instance.master.address=mysql:3306 - canal.instance.dbUsername=<username> - canal.instance.dbPassword=<password> - canal.instance.connectionCharset=UTF-8 ports: - "11111:11111" depends_on: - zookeeper zookeeper: image: zookeeper:3.6.2 container_name: zookeeper restart: always environment: - ZOO_MY_ID=1 - ZOO_SERVERS=server.1=zookeeper:2888:3888 ports: - "2181:2181" - "2888:2888" - "3888:3888" ``` 在这个Docker Compose文件中,我们定义了两个服务:canal-server和zookeeper。canal-server是Canal服务的主要组件,它从MySQL数据库中读取数据,并将其写入到Kafka或其他消息队列中。zookeeper是Canal的依赖项之一,用于协调Canal集群中各个节点之间的通信。 在canal-server服务中,我们指定了一些环境变量来配置Canal实例。这些变量包括MySQL主库地址、用户名、密码以及连接字符集等信息。我们还将容器端口映射到主机的11111端口,以便我们可以通过该端口访问Canal服务。 在zookeeper服务中,我们使用zookeeper:3.6.2镜像来运行一个ZooKeeper节点,并指定了一些环境变量来配置ZooKeeper实例。我们将容器端口映射到主机的2181、2888和3888端口,以便我们可以通过这些端口访问ZooKeeper服务。 要运行这个Docker Compose文件,只需在包含该文件的目录中运行以下命令: ``` docker-compose up -d ``` 这会启动Canal服务和ZooKeeper服务,并将它们放入后台运行。要停止这些服务,可以运行以下命令: ``` docker-compose down ``` 这将停止并删除所有Docker容器和相关的网络和卷。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值