Canal1.1.5最新版安装部署及详细配置

本文详细介绍了如何安装和配置Canal,包括canal-admin和canal-deployer。首先,下载并安装canal-admin,配置MySQL环境,创建数据库和用户,并启动服务。接着,安装canal-deployer,设置配置文件,启动服务并与canal-admin连接。通过canal-admin管理控制台,创建实例并配置数据源,实现数据库的实时同步。
摘要由CSDN通过智能技术生成

 版本根据情况自行调整,最新版本参考:https://github.com/alibaba/canal/releases

canal角色
canal-admin:canal控制台,可以统一管理canal服务
canal-deployer:也是canal-server:canal的一个节点服务
canal-instance: canal-server中的一个处理实例,可以处理不同的业务逻辑。

安装canal-admin

#进入安装包
cd /opt/canal
 
#下载admin安装包
wget https://github.com/alibaba/canal/releases/download/canal-1.1.5/canal.admin-1.1.5.tar.gz
 
#创建admin安装目录
mkdir canal-admin
 
#解压到admin目录
tar zxvf canal.admin-1.1.5.tar.gz -C ./canal-admin

 Mysql环境配置

  • 开启binlog

Mysql配置binlog操作

  • 创建canal_manager库
# 数据库脚本位置
 /opt/canal/canal-admin/conf/canal_manager.sql
  • 创建库后,创建canal_manager库用户
#创建用户canal37用户密码为canal123
CREATE USER canal37 IDENTIFIED BY 'canal123';  
#创建权限
-- 授予canal用户canal_manager库所有权限
GRANT ALL ON canal_manager.* TO 'canal37'@'%';
#刷新生效
FLUSH PRIVILEGES;
 
#查看用户列表
SELECT DISTINCT CONCAT('User: ''',user,'''@''',host,''';') AS query FROM mysql.user;

修改admin配置

# 进入canal-admin目录
cd canal-admin
 
# 打开配置文件
vim vim conf/application.yml
 
 
# 修改配置内容后启动admin服务
bin/startup.sh
server:
  port: 8011  #canal-admin控制台访问端口
spring:
  jackson:
    date-format: yyyy-MM-dd HH:mm:ss
    time-zone: GMT+8
 
# admin控制台数据库
spring.datasource:
  address: 10.2.55.37:3306
  database: canal_manager
  username: canal37
  password: canal123
  driver-class-name: com.mysql.jdbc.Driver
  url: jdbc:mysql://${spring.datasource.address}/${spring.datasource.database}?useUnicode=true&characterEncoding=UTF-8&useSSL=false
  hikari:
    maximum-pool-size: 30
    minimum-idle: 1
 
# canal-deployer连接admin的访问账号,这里密码为名问。canal-deployer中为密文
canal:
  adminUser: admin
  adminPasswd: 123456

访问控制台

http://10.2.55.37:8011/

输入初始化默认账号密码admin / 123456进入系统,登录后可以在账号管理中修改密码。

安装canal-deployer

#进入安装包
cd /opt/canal
 
#下载deployer安装包
wget https://github.com/alibaba/canal/releases/download/canal-1.1.5/canal.deployer-1.1.5.tar.gz
 
#创建deployer安装目录
mkdir canal-deployer
 
#解压到deployer目录
tar zxvf canal.deployer-1.1.5.tar.gz -C ./canal-deployer

配置

  • canal_local.properties 为注册admin配置
  • canal.properties 为本地配置
# 修改配置
vim canal_local.properties


# register ip 本服务在admin中的显示ip,名称也是用这个
canal.register.ip = 10.2.55.55
 
# canal admin config
#canal-admin的访问地址
canal.admin.manager = 10.2.55.55:8011  
 
# canal-deployer的控制端口
canal.admin.port = 11110 
 
# canal-admin的访问账号
canal.admin.user = admin 
 
# canal-admin的访问密码,与adminPasswd对应,这里是密文
canal.admin.passwd = 6BB4837EB74329105EE4568DDA7DC67ED2CA2AD9 
 
# admin auto register 集群配置
# 启动后自动注册到admin中
canal.admin.register.auto = true
# 集群名称 ,这里是单点可空着即可
canal.admin.register.cluster = 
# 节点名称名称,里是单点可空着即可
canal.admin.register.name = 

  • 启动canal-deployer
# 启动服务 以canal_local.properties 配置方式
bin/startup.sh local
 
# 查看启动日志
tailf logs/canal/canal.log
  •  可以通过admin修改server配置,集群模式必须在集群管理中统一配置。
  • server配置,这里默认使用tcp方式,也可以调整mq方式。
#################################################
######### 		common argument		#############
#################################################
# 使用tcp方式绑定的本地ip,mq方式不用填下
canal.ip =
# 注册到zk的本地ip,集群方式不用填写
canal.register.ip =
# tcp端口
canal.port = 11111 
# 监控信息拉取端口
canal.metrics.pull.port = 11112
# canal instance user/passwd,实例的访问账号密码
# canal.user = canal
# canal.passwd = E3619321C1A937C46A0D8BD1DAC39F93B27D4458
 
# canal-admin连接配置,
# adminserver启动时使用本地配置,连上admin后,会统一使用admin的统一配置。
canal.admin.manager = 127.0.0.1:8089
canal.admin.port = 11110
canal.admin.user = admin
canal.admin.passwd = 6BB4837EB74329105EE4568DDA7DC67ED2CA2AD9
# admin auto register
canal.admin.register.auto = true
canal.admin.register.cluster =
canal.admin.register.name =
 
# zk 集群zk的配置
canal.zkServers =
# 数据刷新到zk的频率,ms
canal.zookeeper.flush.period = 1000
# 是否关闭netty
canal.withoutNetty = false
# 数据推送模式 tcp, kafka, rocketMQ, rabbitMQ 
canal.serverMode = kafka
# 文件数据目录
canal.file.data.dir = ${canal.conf.dir}
# 文件数据刷新时间,ms
canal.file.flush.period = 1000
## 缓存的数据最大条数,必须为2的倍数
canal.instance.memory.buffer.size = 16384
## 每条数据的大小,byte。
canal.instance.memory.buffer.memunit = 1024 
## 缓存模式 
# MEMSIZE :按内存大小,限制为size*memunit
# ITEMSIZE:按条数,没有大小限制,可能出现内存溢出。
canal.instance.memory.batch.mode = MEMSIZE
# 是否开启raw数据传输模式,即json格式,关闭则使用byte模式
canal.instance.memory.rawEntry = true
 
## 心跳检查
# 是否开启心跳检查
canal.instance.detecting.enable = false
# 心跳sql
#canal.instance.detecting.sql = insert into retl.xdual values(1,now()) on duplicate key update x=now()
canal.instance.detecting.sql = select 1
# 心跳频率
canal.instance.detecting.interval.time = 3
# 失败重试次数
canal.instance.detecting.retry.threshold = 3
# 是否开启失败切换mysql,需要配置standby数据库
canal.instance.detecting.heartbeatHaEnable = false
 
# 并发处理事务数,超过数量将分为多个事物提交
canal.instance.transaction.size =  1024
# mysql主备切换时,binlog监控需要回退的时间,防止切换导致的数据不同步
canal.instance.fallbackIntervalInSeconds = 60
 
## 网络配置
# 数据发送缓冲区,byte
canal.instance.network.receiveBufferSize = 16384
# 数据接受缓冲区,byte
canal.instance.network.sendBufferSize = 16384
# 获取数据的超时时间,秒
canal.instance.network.soTimeout = 10
 
# binlog 过滤配置
# 是否使用druid解析ddl
canal.instance.filter.druid.ddl = true
# 是否忽略dcl语句,权限相关
canal.instance.filter.query.dcl = true
# 是否忽略dml语句,数据操作
canal.instance.filter.query.dml = false
# 是否忽略ddl语句,表操作
canal.instance.filter.query.ddl = true
# 是否忽略table异常,用于排查table异常情况
canal.instance.filter.table.error = false
# 是否忽略dml的数据变动,如update/insert/update操作
canal.instance.filter.rows = false
# 忽略数据库事务的相关事件,如在写入kafka时,忽略TransactionBegin/Transactionend事件,
canal.instance.filter.transaction.entry = false
# 是否忽略dml的insert操作
canal.instance.filter.dml.insert = false
# 是否忽略dml的update操作
canal.instance.filter.dml.update = false
# 是否忽略dml的delete操作
canal.instance.filter.dml.delete = false
 
# 支持的binlog文件格式
canal.instance.binlog.format = ROW,STATEMENT,MIXED
# 支持的binlog记录格式 
canal.instance.binlog.image = FULL,MINIMAL,NOBLOB
 
# ddl语句是否单独处理,防止语句内有无序并发处理导致数据不一致。
canal.instance.get.ddl.isolation = false
 
# 并行处理配置
# 是否开启并行处理binlog
canal.instance.parser.parallel = true
# 并发线程数,理论上不要超过可用处理器数
# 默认Runtime.getRuntime().availableProcessors()。
#canal.instance.parser.parallelThreadSize = 16
## 并行处理的缓冲区大小,kb 必须2的幂次方
canal.instance.parser.parallelBufferSize = 256
 
# 是否开启table mate 的tsdb功能,时序数据库
canal.instance.tsdb.enable = true
# 存储修改table mate的记录文件,默认使用h2数据库
canal.instance.tsdb.dir = ${canal.file.data.dir:../conf}/${canal.instance.destination:}
canal.instance.tsdb.url = jdbc:h2:${canal.instance.tsdb.dir}/h2;CACHE_SIZE=1000;MODE=MYSQL;
canal.instance.tsdb.dbUsername = canal
canal.instance.tsdb.dbPassword = canal
# 快照存储间隔,小时
canal.instance.tsdb.snapshot.interval = 24
# 快照过期时间,小时
canal.instance.tsdb.snapshot.expire = 360
 
#################################################
######### 		destinations		#############
#################################################
# 当前server中的实例列表
canal.destinations = 
# canal 配置文件目录
canal.conf.dir = ../conf
# 是否开启自动扫描,添加启动和删除停止实例
canal.auto.scan = true
# 自动扫描间隔时间,秒
canal.auto.scan.interval = 5
 
# 当没有在binlog中找到位点,是否自动跳到最新的
# 警告:不确定逻辑时,还是不要开启。
canal.auto.reset.latest.pos.mode = false
 
# tsdb配置路径,在canal.conf.dir路径下
canal.instance.tsdb.spring.xml = classpath:spring/tsdb/h2-tsdb.xml
#canal.instance.tsdb.spring.xml = classpath:spring/tsdb/mysql-tsdb.xml
 
# 全局配置加载方式
# manager: canal-admin控制台配置
# spring: 本地文件加载
canal.instance.global.mode = manager
# 是否开启lazy懒加载
canal.instance.global.lazy = false
# 管理配置的加载地址
canal.instance.global.manager.address = ${canal.admin.manager}
# 全局配置文件,当mode为Spring时使用,file单机模式,default集群模式,memory内存模式
#canal.instance.global.spring.xml = classpath:spring/memory-instance.xml
canal.instance.global.spring.xml = classpath:spring/file-instance.xml
#canal.instance.global.spring.xml = classpath:spring/default-instance.xml
 
# mq相关配置参考每个mq的处理模式,这里不单独说明
##################################################
######### 	      MQ Properties      #############
##################################################
# aliyun ak/sk , support rds/mq
canal.aliyun.accessKey =
canal.aliyun.secretKey =
canal.aliyun.uid=
 
canal.mq.flatMessage = true
canal.mq.canalBatchSize = 50
canal.mq.canalGetTimeout = 100
# Set this value to "cloud", if you want open message trace feature in aliyun.
canal.mq.accessChannel = local
 
canal.mq.database.hash = true
canal.mq.send.thread.size = 30
canal.mq.build.thread.size = 8
 
##################################################
######### 		     Kafka 		     #############
##################################################
# MQ地址
kafka.bootstrap.servers = 127.0.0.1:6667
# ack方式
# all:所有kafka节点同步完成返回,最慢
# 1: kafka主节点持久化后返回,一般快,
# 0: 发送后即返回,最快
kafka.acks = all
# 数据是否压缩
kafka.compression.type = none
# 每次发送消息的数据包大小,byte
kafka.batch.size = 16384
# 每次发送消息的间隔时间,ms
kafka.linger.ms = 1
# 最大请求大小,byte
kafka.max.request.size = 1048576
# 消息缓存大小
kafka.buffer.memory = 33554432
# 每个链接最大请求数
kafka.max.in.flight.requests.per.connection = 1
# 消息重试次数
kafka.retries = 0
 
#kafka的kerberos 认证,开启需要配置2个认证文件
kafka.kerberos.enable = false
kafka.kerberos.krb5.file = "../conf/kerberos/krb5.conf"
kafka.kerberos.jaas.file = "../conf/kerberos/jaas.conf"
 
##################################################
######### 		    RocketMQ	     #############
##################################################
rocketmq.producer.group = test
rocketmq.enable.message.trace = false
rocketmq.customized.trace.topic =
rocketmq.namespace =
rocketmq.namesrv.addr = 127.0.0.1:9876
rocketmq.retry.times.when.send.failed = 0
rocketmq.vip.channel.enabled = false
rocketmq.tag = 
 
##################################################
######### 		    RabbitMQ	     #############
##################################################
rabbitmq.host =
rabbitmq.virtual.host =
rabbitmq.exchange =
rabbitmq.username =
rabbitmq.password =
rabbitmq.deliveryMode =

创建实例

  • admin控制台中创建

  • 载入模版进行配置
#################################################
# 同mysql集群配置中的serverId,mysql的server_id参数
# canal.instance.mysql.slaveId=0
 
# 开启gtid,生成同步数据全局id,防止主从不一致
canal.instance.gtidon=true
 
# binlog的pos位点信息,修改时重建实例,或删除实例配置文件。
canal.instance.master.address=10.2.55.55:3306
#mysql起始的binlog文件,默认最新数据
canal.instance.master.journal.name= 
#mysql起始的binlog偏移量,只会在配置binlog文件中寻找
canal.instance.master.position=
#mysql起始的binlog时间戳,只会在配置binlog文件中寻找
canal.instance.master.timestamp=
#ysql起始的binlog的gtid,只会在配置binlog文件中寻找
canal.instance.master.gtid=
 
# 阿里云rds的sso配置
canal.instance.rds.accesskey=
canal.instance.rds.secretkey=
canal.instance.rds.instanceId=
 
# 开启tsdb功能,记录table mate变动
canal.instance.tsdb.enable=true
# tsdb数据存储在位置
#canal.instance.tsdb.url=jdbc:mysql://127.0.0.1:3306/canal_tsdb
#canal.instance.tsdb.dbUsername=canal
#canal.instance.tsdb.dbPassword=canal
 
# 备用数据库,当master数据库检查失败后,切换到该节点继续消费
#canal.instance.standby.address =
#canal.instance.standby.journal.name =
#canal.instance.standby.position =
#canal.instance.standby.timestamp =
#canal.instance.standby.gtid=
 
# mysql连接用户名和密码
canal.instance.dbUsername=canal
canal.instance.dbPassword=canal
canal.instance.connectionCharset = UTF-8
# 开启druid数据库密码加密
canal.instance.enableDruid=false
# 加密公钥
#canal.instance.pwdPublicKey=MFwwDQYJKoZIhvcNAQEBBQADSwAwSAJBALK4BUxdDltRRE5/zXpVEVPUgunvscYFtEip3pmLlhrWpacX7y7GCMo2/JM6LeHmiiNdH1FWgGCpUfircSwlWKUCAwEAAQ==
 
# 匹配table表达式,需要处理的表
canal.instance.filter.regex=.*\\..*
# 匹配过滤table表达式,不需要处理的表
canal.instance.filter.black.regex=
# 匹配table字段表达式,指定传递字段,不指定全传。
#(format: schema1.tableName1:field1/field2,schema2.tableName2:field1/field2)
#canal.instance.filter.field=test1.t_product:id/subject/keywords,test2.t_company:id
/name/contact/ch
# 匹配过滤table字段表达式,不传递的字段,canal.instance.filter.field为空时生效
@(format: schema1.tableName1:field1/field2,schema2.tableName2:field1/field2)
#canal.instance.filter.black.field=test1.t_product:subject/product_image,test2.t_company:id/name/contact/ch
 
# mq消息配置
# mq topic
canal.mq.topic=example
# 动态topic配置,topic为表名
#canal.mq.dynamicTopic=mytest1.user,mytest2\\..*,.*\\..*
# mq分区
canal.mq.partition=0
# hash分区数量
#canal.mq.partitionsNum=3
# hash分区主键
#canal.mq.partitionHash=test.table:id^name,.*\\..*
#################################################

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值