使用kafka connect结合debezium的方式采集oracle数据

环境配置:
1、kafka 2.8.0
2、debezium 1.9.0
3、oracle 11g

1、oracle环境配置

该步骤参考我的上篇文章 https://blog.csdn.net/qq_36039236/article/details/124235751?spm=1001.2014.3001.5502

本章节继续针对FAMILY.STUDENT_INFO表进行操作。

2、kafka connect配置

kafka内部集成了kafka connect, 只需要下载对应的debezium-oracle插件,配置connect-distributed.properties 配置文件即可。
debezium-oracle插件下载地址
然后配置connect-distributed.properties的plugin.path, 解压对应的插件,配置对应的插件路径即可, 另外需要下载ojdbc8.jar放到kafka的lib目录下。
配置

3、启动kafka以及kafka connect

启动命令:

# 启动zookeeper
zkServer.sh start

# 启动kafka
./bin/kafka-server-start.sh -daemon ./config/server.properties

# 启动kafka-connect
./bin/connect-distributed.sh -daemon ./config/connect-distributed.properties

查看进程:
jps
查看加载的插件:

# 获取connector插件信息
curl http://localhost:8083/connector-plugins

插件

4、创建oracle source

命令如下:

curl -H "Content-Type: application/json" -X POST -d  '{
    "name": "source333", 
    "config": {
     "connector.class" : "io.debezium.connector.oracle.OracleConnector",
     "tasks.max" : "1",
     "database.server.name" : "oracle_service",
     "database.hostname" : "localhost",
     "database.port" : "1521",
     "database.user" : "family",
     "database.password" : "zyhcdc",
     "database.dbname" : "helowin",
     "table.include.list": "family.student_info",
     "database.history.kafka.bootstrap.servers" : "localhost:9092",
     "database.history.kafka.topic": "schema-changes.inventory222",
     "event.processing.failure.handling.mode": "skip",
     "log.mining.strategy":"online_catalog",
     "database.serverTimezone":"UTC",
     "database.serverTimezone":"Asia/Shanghai"
  }
}' http://localhost:8083/connectors/

查看任务执行状态:

curl http://localhost:8083/connectors/source333/status

status
查看Kafka topic列表:

./bin/kafka-topics.sh --list --zookeeper localhost:2181/kafka28

topics

发现增加了三个topic, 其中oracle_service.FAMILY.STUDENT_INFO记录的是 FAMILY.STUDENT_INFO表的ddl变更数据,schema-changes.inventory222 记录的是 FAMILY.STUDENT_INFO表的元数据变更信息。

创建对应topic的消费者:

./bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic oracle_service.FAMILY.STUDENT_INFO --from-beginning

data

获取到了表中原有的变更记录。

下面对表执行以下操作,观察获取到的数据变化:

-- 新增一条数据
insert into student_info (sno, sname, sex)
values (29, 'zyh-test', 'm');

insert

-- 更新数据
update student_info t set t.sname='zyh666', t.sex='m' where t.sno=23;

update

-- 删除数据
delete from student_info where sno = 26;

delete
验证更改表结构,是否对采集数据产生影响:

-- 增加一个字段
ALTER TABLE student_info ADD (age integer default 22 not null);
-- 新增一条记录
insert into student_info (sno, sname, sex, age)
values (30, 'zyh-888', 'm', 18);

data

发现增加了字段之后,数据记录这里并没有获取到新字段的值,如何处理???留个问题给小伙伴下去自己探索一下,这里不再赘述,后续进行补充

验证更新字段名称,是否造成影响:

alter table student_info rename column sname to stu_name;
-- 新增一条记录
insert into student_info (sno, stu_name, sex, age)
values (31, 'zyh-999', 'm', 18);

变更

发现变更字段名称对获取变更记录并没有造成影响。

5、相关问题处理

1、Oracle JDBC 驱动版本一定要是8
如果oracle jdbc的驱动版本不对,会出现一系列的连接失败异常以及找不到对应的表异常。

2、数字类型解析到kafka格式异常
decimal类型的数字到kafka中格式出现异常
查阅官方文档 , 得知Debezium默认使用java.math.BigDecimal以二进制形式精确表示值。
1参数2
解决:连接器参数添加

"decimal.handling.mode": "string"

3、Debezium捕获Oracle数据延迟大
成功跑起来Debezium并捕获到了数据,但是发现捕获数据的延迟过大,常常需要2-5分钟后数据库变更数据才会进入kafka中。

查阅官方文档
参数
解决:连接器参数添加

"log.mining.strategy":"online_catalog"

4、Debezium时间戳相比数据库多了8小时
Debezium 默认将所有时间戳字段转换为 UTC,所以会导致时间与本地相差了8小时。搜索网络上的解决方案,通过添加以下连接器参数均无效

"database.serverTimezone":"UTC"
"database.serverTimezone":"Asia/Shanghai"

解析相关变更记录时需要注意。

总结

自此,以上操作已经全部完成了,小伙伴可以根据工作需要选择对应的解决方案,总体体验上还是觉得flink cdc更加得方便,好了,就到这里,希望感兴趣的小伙伴能够点个关注,一起交流学习~

  • 2
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 12
    评论
首先,Kafka是一个分布式流处理平台,用于在高吞吐量的情况下处理大量的实时数据流。Hive是一个基于Hadoop的数据仓库工具,用于存储和查询大规模结构化和半结构化数据。 要将Kafka写入Hive,需要使用Debezium它是一个开源的、基于事件的可信变更数据捕获(CDC)平台。Debezium可以将数据库的变更事件转换为Kafka主题中的实时流,并且可以实时监控数据库中的变动。 要实现Kafka写入Hive,首先需要配置Debezium数据库的变更事件连接到Kafka中。Debezium会以JSON格式将变更事件转换为Kafka消息,并将其写入指定的主题中。 然后,可以使用Kafka Connect来读取Kafka主题中的消息,并将其写入Hive中。Kafka ConnectKafka提供的一组工具,用于将Kafka主题与外部数据系统进行连接。 在Kafka Connect中,可以使用HDFS Connector来将Kafka消息写入Hive。HDFS Connector会将Kafka消息转换为Hive支持的格式,并将其写入Hive表中。 需要配置HDFS Connector的连接器以指定Kafka主题、Hive表和目标位置。连接器会自动将Kafka消息转换为Hive表的列,并将其写入Hive表中的对应位置。 一旦连接器配置完成并启动,Kafka中的变更事件就会实时地写入Hive表中。可以通过查询Hive表来获取Kafka中的数据,并根据需要进行分析和处理。 总而言之,要将Kafka写入Hive,可以使用Debezium数据库变更事件转换为Kafka消息,并使用Kafka Connect的HDFS Connector将Kafka消息写入Hive表中。这样就能实现将实时数据流从Kafka写入Hive的目的。
评论 12
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

雾岛与鲸

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值