测试debezium与kafka的步骤

测试debezium与kafka的步骤

1、sqlServer

注意: sqlsever 已经配置好
Navicate连接sqlserver配置信息:

ip:10.170.130.xxx
host: 1433
user: sa
password :123456
监控的表:bs_news

1、目前sqlserver配置已经配置好 监控的表无需操作,测试时只需要往表中复制上一条数据增加一条数据即可

2、postman查看kafka启动的connector状态

在这里插入图片描述

http://10.208.63.1:8083/
返回:
{"version":"2.2.2","commit":"1d348535a0a747d1","kafka_cluster_id":"9gckc_g_Q-eOFjTHSLMacA"}

http://10.208.63.1:8083/connectors/  
返回:【】

http://10.208.63.1:8083/connector-plugins 
返回:plugins下放的jar包

3、postman 提交配置

配置信息
http://10.208.63.xxx:8083/connectors
在这里插入图片描述

官方详细配置地址

{
    "name": "test-connector",
    "config": {
      "connector.class": "io.debezium.connector.sqlserver.SqlServerConnector",
      "database.hostname": "10.170.130.xxx",
      "database.port": "1433",
      "database.user": "sa",
      "database.password": "123456",
      "database.server.name": "sqlserver",
      "database.dbname": "oneJ",
      "table.whitelist": "dbo.bs_news",
      "database.history.consumer.security.protocol":"SASL_PLAINTEXT",
      "database.history.producer.security.protocol":"SASL_PLAINTEXT",
      "database.history.consumer.sasl.mechanism":"SCRAM-SHA-512",
      "database.history.producer.sasl.mechanism":"SCRAM-SHA-512",
      "database.history.consumer.sasl.jaas.config":"org.apache.kafka.common.security.scram.ScramLoginModule required username=\"admin\" password=\"Admin@123\";",
      "database.history.producer.sasl.jaas.config":"org.apache.kafka.common.security.scram.ScramLoginModule required username=\"admin\" password=\"Admin@123\";",
      "database.history.kafka.bootstrap.servers": "SASL_PLAINTEXT://10.208.63.xxx:9092",  
      "database.history.kafka.topic": "dbhistory.sqlserver"
    }
}

上述参数说明
1、name:自定义连接器名称
2、database.server.name:自定义名字(在kafka生成的topic前缀相关)
3、table.whitelist:监听的表列表
4、database.history.kafka.topic:需要存储信息的topic
5、其余为kafka连接验证配置

4、查看提交配置的运行状态

查看命令:
在这里插入图片描述

# 查看当前提交之后的状态
http://10.208.63.xxx:8083/connectors/test-connector/status

查看connector的信息
 http://10.208.63.xxx:8083/connectors/test-connector
 
 #查看connector下运行的task信息
 http://10.208.63.xxx:8083/connectors/test-connector/tasks 
 
#删除 创建的Connector任务
http://10.208.63.xxx:8083/connectors/test-connector

提交之后查看状态显示上述状态 无报错信息则为成功
否则会在下面的tasks位置显示报错详细信息

5、 运行成功之后

正确的结果:
会在kafka中自动创建一个 以 dbhistory.sqlserver 和sqlserver.dbo.tableName 的两个主题 。
消费 sqlserver.dbo.tableName 这个主题中可以看到sqlserver中追加新增的数据。否则失败
目前只能生成dbhistory.sqlserver 一个主题,sqlserver中的表无法创建主题并生产数据

6、正确产生kafkatopic的图解

在这里插入图片描述

会产生上述类似的主题
此图的kafka位置是

10.170.130.xxx
/usr/local/kafka/
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值