Canal 监听 Mysql,项目实战,自动增删改(集成到 Spring-boot)

相关内容

《Mysql 数据库开启 binlog》:https://blog.csdn.net/qq_23845083/article/details/131833331
《Canal下载、部署和入门(详细)》:https://blog.csdn.net/qq_23845083/article/details/131834011

1 相关应用版本

  • canal 1.5
  • common-dbutils 1.7
  • mysql 8

2 准备工作

2.1 pom.xml文件引入相关 jar 包

<!-- canal客户端 -->
<dependency>
    <groupId>com.alibaba.otter</groupId>
    <artifactId>canal.client</artifactId>
    <version>1.1.5</version>
</dependency>
<!-- canal服务端端 -->
<dependency>
    <groupId>com.alibaba.otter</groupId>
    <artifactId>canal.server</artifactId>
    <version>1.1.5</version>
</dependency>
<!-- 连接数据库 -->
<dependency>
	 <groupId>commons-dbutils</groupId>
	 <artifactId>commons-dbutils</artifactId>
	 <version>1.7</version>
 </dependency>

2.2 配置 dockercompose.xml

canal:
    image: canal/canal-server:v1.1.5
    container_name: canal
    ports:
    #canal默认端口号
      - 11111:11111
    environment:
    #设置从库id,不能与主库id相冲突
      - canal.instance.mysql.slaveId=222
      - canal.instance.master.address=192.168.1.207:23307
      # mysql 复制账号
      - canal.instance.dbUsername=root
      - canal.instance.dbPassword=dev@xhkj
      - canal.mq.topic=testTopic
      - canal.auto.scan=false
      - canal.destinations=test
      #数据库名.表名
      - canal.instance.filter.regex=xh_bimops.*
    volumes:
      - /data/docker/jar/canal/conf/:/usr/local/dockercompose/canal/conf/
      - /data/docker/jar/canal/logs/:/usr/local/dockercompose/canal/logs/
    restart: always
    logging:
      driver: "json-file"
      options:
        max-size: "20m"

代码实现 Canal 监控数据库表,动态同步数据

  • 代码里都有相应的注释,我就不多写其他了,复制到项目里自己稍微调整下就行;
  • 且不用自己针对某张表一个一个的写增删改方法,很便捷;
package com.gh.resource.config;

import com.alibaba.otter.canal.client.CanalConnector;
import com.alibaba.otter.canal.client.CanalConnectors;
import com.alibaba.otter.canal.protocol.CanalEntry.*;
import com.alibaba.otter.canal.protocol.Message;
import com.google.protobuf.InvalidProtocolBufferException;
import lombok.extern.slf4j.Slf4j;
import org.apache.commons.dbutils.DbUtils;
import org.apache.commons.dbutils.QueryRunner;
import org.apache.commons.lang3.StringUtils;
import org.springframework.stereotype.Component;

import javax.annotation.Resource;
import javax.sql.DataSource;
import java.net.InetSocketAddress;
import java.sql.Connection;
import java.sql.SQLException;
import java.util.List;
import java.util.Queue;
import java.util.concurrent.ConcurrentLinkedQueue;

/**
 * @Description:
 * @Author: zhanleai
 * @Date:2023/7/17 14:33
 */
@Component
@Slf4j
public class CanalClient {

    // sql 队列,提升执行性能,减少 DB 压力
    private Queue<String> SQL_QUEUE = new ConcurrentLinkedQueue<>();

    @Resource
    private DataSource dataSource;

    /**
     * canal入库方法
     */
    public void run() {
        log.info("canal 监听启动成功!");
        CanalConnector connector = CanalConnectors.newSingleConnector(
                new InetSocketAddress("192.168.1.207",11111),   // canal 服务配置的 address 和 port(详见:dockercompose.yml)
                "test",                                         // canal 服务配置的 destinations(详见:dockercompose.yml)
                 "root",                                        // canal 服务配置的 dbUsername(详见:dockercompose.yml)
                 "dev@xhkj");                                   // canal 服务配置的 dbPassword(详见:dockercompose.yml)
        try {
            connector.connect();
            connector.subscribe("canal_bimops.canal_test");		// canal 服务配置的 topic(详见:dockercompose.yml)
            connector.rollback();
            try {
                while (true) {
                    //尝试从 message 消息中拉取数据1000条记录,也可根据自己业务需求放大一些
                    Message message = connector.getWithoutAck(1000);
                    long batchId = message.getId();
                    int size = message.getEntries().size();
                    if (batchId == -1 || size == 0) {
                        Thread.sleep(1000);
                    } else {
                        dataHandle(message.getEntries());
                    }
                    connector.ack(batchId);

                    //当队列里面堆积的 sql 大于一定数值的时候就执行队列中的 sql ,可根据需求设置大一些
                    if (SQL_QUEUE.size() >= 1) {
                        executeQueueSql();
                    }
                }
            } catch (InterruptedException e) {
                e.printStackTrace();
            } catch (InvalidProtocolBufferException e) {
                e.printStackTrace();
            }
        } finally {
            connector.disconnect();
        }
    }

    /**
     * 执行队列里面的sql语句
     */
    public void executeQueueSql() {
        int size = SQL_QUEUE.size();
        for (int i = 0; i < size; i++) {
            String sql = SQL_QUEUE.poll();
            log.info("----> " + sql);
            this.execute(sql.toString());
        }
    }

    /**
     * 数据处理(增、删、改)
     *
     * @param entrys
     */
    private void dataHandle(List<Entry> entrys) throws InvalidProtocolBufferException {
        for (Entry entry : entrys) {
            if (EntryType.ROWDATA == entry.getEntryType()) {
                RowChange rowChange = RowChange.parseFrom(entry.getStoreValue());
                EventType eventType = rowChange.getEventType();
                if (eventType == EventType.DELETE) {
                    saveDeleteSql(entry);
                } else if (eventType == EventType.UPDATE) {
                    saveUpdateSql(entry);
                } else if (eventType == EventType.INSERT) {
                    saveInsertSql(entry);
                }
            }
        }
    }

    /**
     * 保存更新语句
     *
     * @param entry
     */
    private void saveUpdateSql(Entry entry) {
        try {
            RowChange rowChange = RowChange.parseFrom(entry.getStoreValue());
            List<RowData> rowDatasList = rowChange.getRowDatasList();
            for (RowData rowData : rowDatasList) {
                List<Column> newColumnList = rowData.getAfterColumnsList();
                StringBuffer sql = new StringBuffer("update " + entry.getHeader().getTableName() + " set ");
                for (int i = 0; i < newColumnList.size(); i++) {
                    if(StringUtils.isNotBlank(newColumnList.get(i).getValue())){
                        sql.append(" " + newColumnList.get(i).getName()
                                + " = '" + newColumnList.get(i).getValue() + "'");
                        if (i != newColumnList.size() - 1) {
                            sql.append(",");
                        }
                    }
                }
                sql.append(" where ");
                List<Column> oldColumnList = rowData.getBeforeColumnsList();
                for (Column column : oldColumnList) {
                    if (column.getIsKey()) {
                        //暂时只支持单一主键
                        sql.append(column.getName() + "=" + column.getValue());
                        break;
                    }
                }
                SQL_QUEUE.add(sql.toString().replace(", where"," where"));
            }
        } catch (InvalidProtocolBufferException e) {
            e.printStackTrace();
        }
    }

    /**
     * 保存删除语句
     *
     * @param entry
     */
    private void saveDeleteSql(Entry entry) {
        try {
            RowChange rowChange = RowChange.parseFrom(entry.getStoreValue());
            List<RowData> rowDatasList = rowChange.getRowDatasList();
            for (RowData rowData : rowDatasList) {
                List<Column> columnList = rowData.getBeforeColumnsList();
                StringBuffer sql = new StringBuffer("delete from " + entry.getHeader().getTableName() + " where ");
                for (Column column : columnList) {
                    if (column.getIsKey()) {
                        //暂时只支持单一主键
                        sql.append(column.getName() + "=" + column.getValue());
                        break;
                    }
                }
                SQL_QUEUE.add(sql.toString());
            }
        } catch (InvalidProtocolBufferException e) {
            e.printStackTrace();
        }
    }

    /**
     * 保存插入语句
     *
     * @param entry
     */
    private void saveInsertSql(Entry entry) {
        try {
            RowChange rowChange = RowChange.parseFrom(entry.getStoreValue());
            List<RowData> rowDatasList = rowChange.getRowDatasList();
            for (RowData rowData : rowDatasList) {
                List<Column> columnList = rowData.getAfterColumnsList();
                StringBuffer sql = new StringBuffer("insert into " + entry.getHeader().getTableName() + " (");
                for (int i = 0; i < columnList.size(); i++) {
                    if(StringUtils.isNotBlank(columnList.get(i).getValue())){
                        sql.append(" " + columnList.get(i).getName());
                        if (i != columnList.size() - 1) {
                            sql.append(",");
                        }
                    }
                }
                sql.append(") VALUES (");
                for (int i = 0; i < columnList.size(); i++) {
                    if(StringUtils.isNotBlank(columnList.get(i).getValue())){
                        sql.append("'" + columnList.get(i).getValue() + "'");
                        if (i != columnList.size() - 1) {
                            sql.append(",");
                        }
                    }
                }
                sql.append(")");
                SQL_QUEUE.add(sql.toString().replace(",)"," )"));
            }
        } catch (InvalidProtocolBufferException e) {
            e.printStackTrace();
        }
    }

    /**
     * 具体操作数据库 sql 语句的方法(执行)
     * @param sql
     */
    public void execute(String sql) {
        Connection con = null;
        try {
            if(null == sql) return;
            con = dataSource.getConnection();
            QueryRunner qr = new QueryRunner();
            qr.execute(con, sql);
        } catch (SQLException e) {
            e.printStackTrace();
        } finally {
            DbUtils.closeQuietly(con);
        }
    }
}

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: b'canal-spring-boot-starter' 是一个用于在 Spring Boot 应用中集成 Canal 数据库日志订阅和消费功能的起始器。它可以帮助开发人员快速搭建 Canal 客户端并订阅对应的数据库操作日志。 ### 回答2: Canal-spring-boot-starter是一个基于Spring Boot框架的插件,用于实现Canal和Spring Boot框架的整合。Canal是阿里巴巴开源的一款基于MySQL数据库增量日志解析工具,通过监听数据库中的binlog(二进制日志),实现对数据库的变更事件进行监听和捕捉,从而能够实现实时同步和分析数据库的变化。 Canal-spring-boot-starter将Canal和Spring Boot框架整合在一起,可以让开发者通过简单的配置,轻松地实现对数据库变更事件的监听和处理,可以方便地实现数据同步、消息推送、数据分析等功能。同时,Canal-spring-boot-starter还提供了一些默认的配置,包括数据源、表名、过滤规则等,可以让开发者快速上手并开始使用。 Canal-spring-boot-starter的主要特点包括: 1. 便捷性:Canal-spring-boot-starter基于Spring Boot框架,可以方便地整合到Spring Boot应用中,并提供了默认配置,让开发者可以快速上手使用。 2. 功能强大:Canal-spring-boot-starter使用了Canal增量日志解析工具,可以实现对数据库变更事件的监听和捕捉,并支持多种操作类型的处理。 3. 高可用性:Canal-spring-boot-starter支持多节点的部署,可以实现数据同步的高可用性。 4. 易于扩展:Canal-spring-boot-starter提供了丰富的API和插件,可以方便地扩展和定制,满足不同场景下的需求。 总之,Canal-spring-boot-starter可以让开发者轻松地实现对数据库变更事件的监听和处理,提高应用的数据处理能力和效率。 ### 回答3: canal-spring-boot-starter是一个基于阿里巴巴canal客户端的Spring Boot Starter。它使得在使用Spring Boot和canal进行MySQL数据同步变得更加简单和方便。 可以将canal-spring-boot-starter集成到Spring Boot应用程序中,以便实时获取MySQL数据库信息。当MySQL数据库中的数据发生变化时,canal-spring-boot-starter会自动检查并发送变更事件。您可以使用canal的订阅功能订阅可以使用canal的订阅功能订阅这些事件并对它们进行相应处理。 canal-spring-boot-starter提供了一些方便的配置选项,例如: 1. 配置canal的连接参数,例如MySQL服务器和端口号以及用户名和密码。 2. 配置订阅规则,例如您可以指定您所需的数据表和列来获取相关的变更事件。 3. 在您的应用程序中定义用于处理变更事件的监听器。 canal-spring-boot-starter提供了一种可靠的方法来处理MySQL数据库中的更。通过使用canal-spring-boot-starter,您可以很容易地将canal集成到您的Spring Boot应用程序中,以获得实时的MySQL数据库信息。这使得开发人员能够更快地响应数据库并进行相应的操作。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值