消息中间件 mysql_Canal 作为 消息中间件 实时消费MySQL中新增数据

Canal的数据结构

网上对Canal的介绍已经够多了,这里不再赘述,但是有一点必须要强调,就是Canal 是怎么对数据进行的封装,只有明白了这点,才可以去消费其中的数据

8c1319fc64054a922b45b5aa121251cd.png

Canal的安装及配置

配置Mysql主服务器的my.cnf文件(位于/etc目录下,没有就新建)

#主服务器的id

server-id=1#启用二进制日志

log-bin=mysql-bin

#设置不复制的数据库(选配)

binlog-ignore-db=mysql

#设置要复制的数据库(选配)

binlog-do-db=需要复制的主数据库名字(设置一个之前没有的数据库)

#设置logbin的格式

binlog_format=row

logbin格式有三种

statement   存储的是涉及到数据变化的sql语句,文件比较小,但是如果sql语句中有些特殊语句(比如随即值),就会导致数据不一致

row   记录的是数据改变后的数据,能保证数据严格一致,但是会使文件比较大

mixed  会动态调整使用statement和row

这里应用场景是对数据进行监控,所以使用row

重启Mysql服务

service mysql restart

进入Mysql,检查binlog是否生效

mysql> show variables like 'log_%';

e7e9655a6d60c8bac53e78181a767d7f.png

配置conf/canal.properties

基本所有配置都可以保持默认,但需要注意默认端口是11111,后续连接会用上

3de77353d3466121114cc15dd6be2fc9.png

配置实例配置conf/example/instance.properties

#//这个id不能跟mysql中配置的id相同!!!

canal.instance.mysql.slaveId=100

//mysql地址

canal.instance.master.address=hadoop102:3306

#连接数据库所需要的用户名和密码

canal.instance.dbUsername=root

canal.instance.dbPassword=123canal.instance.connectionCharset= UTF-8canal.instance.defaultDatabaseName=

#table regex

//要监听的数据库,用正则表达式,这里表示gmall数据库中的所有表

canal.instance.filter.regex=gmall\\..*

#table black regex

//黑名单

canal.instance.filter.black.regex=

启动服务

bin/startup.sh

bin/stop.sh

从Canal中消费数据到kafka

添加依赖

com.alibaba.otter

canal.client

1.1.2

org.apache.kafka

kafka-clients

0.11.0.0

代码实现

importjava.net.InetSocketAddressimportjava.utilimportcom.alibaba.fastjson.JSONObjectimportcom.alibaba.otter.canal.client.{CanalConnector, CanalConnectors}importcom.alibaba.otter.canal.protocol.CanalEntry.{EntryType, EventType, RowChange}importcom.alibaba.otter.canal.protocol.{CanalEntry, Message}importcom.atguigu.gmall.common.Constantimportcom.google.protobuf.ByteString/*** Author atguigu

* Date 2020/5/30 15:29*/object CanalClient {//真正的处理数据

def parseData(rowDataList: util.List[CanalEntry.RowData],

tableName: String,

eventType: CanalEntry.EventType): Unit={//计算订单总额 ,每在order_info表中插入一条数据就发送给kafka

if(tableName == "order_info" && eventType == EventType.INSERT && rowDataList != null && rowDataList.size() > 0){importscala.collection.JavaConversions._for(rowData

val result: JSONObject= newJSONObject()//一个rowData表示一行数据, 所有列组成一个json对象, 写入到Kafka中

val columnList: util.List[CanalEntry.Column] =rowData.getAfterColumnsListfor(column

val key: String = column.getName //列名

val value: String = column.getValue //列值

result.put(key, value)

}//把数据写入到kafka中. 用一个生产者

MykafkaUtil.send(Constant.ORDER_INFO_TOPIC, result.toJSONString)

}

}

}

def main(args: Array[String]): Unit={//1. 连接到canal服务器//1.1 canal服务器的地址 canal服务器的端口号

val address: InetSocketAddress = new InetSocketAddress("hadoop102", 11111)

val connector: CanalConnector={

CanalConnectors.newSingleConnector(address, destination="example", username="", password="")

}//1.2 连接到canal

connector.connect()//2. 订阅你要处理的具体表 gmall1128下所有的表

connector.subscribe("gmall.*")//3. 读取数据, 解析

while (true) {//一致监听mysql数据变化, 所以这个地方不挺//100表示最多一次拉取由于100条sql导致的数据的变化

val msg: Message = connector.get(100)

val entries: util.List[CanalEntry.Entry]=msg.getEntriesif (entries != null && entries.size() > 0) {//遍历拿到每个entry

importscala.collection.JavaConversions._for (entry

if (entry != null && entry.hasEntryType && entry.getEntryType ==EntryType.ROWDATA) {//获取storeValue. 每个entry一个

val storeValue: ByteString =entry.getStoreValue//每个storeVales一个RowChange

val rowChange: RowChange =RowChange.parseFrom(storeValue)//每个rowChange中多个RowData. 一个RowData就表示一行数据

val rowDataList: util.List[CanalEntry.RowData] =rowChange.getRowDatasList//调用处理数据的方法,在这里对每行的数据进行真正的处理

parseData(rowDataList, entry.getHeader.getTableName, rowChange.getEventType)

}

}

}else{

println("没有拉倒数据, 2s之后继续拉....")

Thread.sleep(2000)

}

}

}

}

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值