TDengine Kafka Connector将 Kafka 中指定 topic 的数据(批量或实时)同步到 TDengine

教程放在这里:TDengine Java Connector,官方文档已经写的很清晰了,不再赘述。
在这里插入图片描述

这里记录一下踩坑:

1.报错
java.lang.UnsatisfiedLinkError: no taos in java.library.path
	at java.lang.ClassLoader.loadLibrary(ClassLoader.java:1860)
	at java.lang.Runtime.loadLibrary0(Runtime.java:843)
	at java.lang.System.loadLibrary(System.java:1136)
	at com.taosdata.jdbc.TSDBJNIConnector.<clinit>(TSDBJNIConnector.java:30)
	at com.taosdata.jdbc.TSDBDriver.connect(TSDBDriver.java:159)
	at java.sql.DriverManager.getConnection(DriverManager.java:664)
	at java.sql.DriverManager.getConnection(DriverManager.java:208)
	at com.taosdata.kafka.connect.db.TSDBConnectionProvider.getConnection(TSDBConnectionProvider.java:35)
	at com.taosdata.kafka.connect.db.CacheProcessor.getConnection(CacheProcessor.java:40)
	at com.taosdata.kafka.connect.db.CacheProcessor.execute(CacheProcessor.java:66)
	at com.taosdata.kafka.connect.db.CacheProcessor.initDB(CacheProcessor.java:55)
	at com.taosdata.kafka.connect.db.CacheProcessor.setDbName(CacheProcessor.java:33)
	...

这是由于没有按照taos客户端,连机器内部调用了taos客户端程序去连接TDengine服务,只要安装TDengine Client即可。安装TDengine Client教程

2.报错
Caused by: java.lang.NoClassDefFoundError: Could not initialize class com.taosdata.jdbc.TSDBJNIConnector
	at com.taosdata.jdbc.TSDBDriver.connect(TSDBDriver.java:159)
	at java.sql.DriverManager.getConnection(DriverManager.java:664)
	at java.sql.DriverManager.getConnection(DriverManager.java:208)
	at com.taosdata.kafka.connect.db.TSDBConnectionProvider.getConnection(TSDBConnectionProvider.java:35)
	at com.taosdata.kafka.connect.db.CacheProcessor.getConnection(CacheProcessor.java:40)
	at com.taosdata.kafka.connect.db.CacheProcessor.execute(CacheProcessor.java:66)
	at com.taosdata.kafka.connect.db.CacheProcessor.initDB(CacheProcessor.java:55)
	at com.taosdata.kafka.connect.db.CacheProcessor.setDbName(CacheProcessor.java:33)
	at com.taosdata.kafka.connect.sink.TDengineSinkTask.bulkWriteBatch(TDengineSinkTask.java:94)
	at com.taosdata.kafka.connect.sink.TDengineSinkTask.put(TDengineSinkTask.java:85)
	at org.apache.kafka.connect.runtime.WorkerSinkTask.deliverMessages(WorkerSinkTask.java:601)
	... 11 more

这个报错是因为我部署TDengine服务的时候用的是docker的方式部署,用原生连接的方式连接TDengine,很多依赖库本地访问不了导致的报错。我们可以改用TestFul的方式去连接。

下面是官方教程中创建 Sink Connector 实例用到的配置文件

{
  "name": "TDengineSinkConnector",
  "config": {
    "connection.database": "power",
    "connection.password": "taosdata",
    "connection.url": "jdbc:TAOS://127.0.0.1:6030",
    "connection.user": "root",
    "connector.class": "com.taosdata.kafka.connect.sink.TDengineSinkConnector",
    "data.precision": "ns",
    "db.schemaless": "line",
    "key.converter": "org.apache.kafka.connect.storage.StringConverter",
    "tasks.max": "1",
    "topics": "meters",
    "value.converter": "org.apache.kafka.connect.storage.StringConverter",
    "name": "TDengineSinkConnector",
    "errors.tolerance": "all",
    "errors.deadletterqueue.topic.name": "dead_letter_topic",
    "errors.deadletterqueue.topic.replication.factor": "1",    
  },
  "tasks": [],
  "type": "sink"
}

阅读源码后,我们将其中的"connection.url": "jdbc:TAOS://127.0.0.1:6030"修改为"connection.url": "jdbc:TAOS-RS://127.0.0.1:6041?user=root&password=taosdata"

解释一下:

  • jdbc:TAOS:代表使用原生连接,jdbc:TAOS-RS代表使用REST连接。
  • 加上?user=root&password=taosdata是因为我发现改成REST连接后,connection.user配置项不生效,只好在url上直接拼接了。
  • 7
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要将HDFS集群数据拉取到Kafka topic,可以使用Kafka Connect来实现。Kafka Connect是Kafka的一个开源工具,用于连接Kafka和其他数据源,包括HDFS、JDBC、Elasticsearch等。 以下是将HDFS数据拉取到Kafka topic的操作步骤: 1. 安装Kafka Connect:可以从Kafka官网上下载和安装Kafka Connect。安装完成后,需要配置Kafka Connect的配置文件,包括Kafka集群的地址、连接器的配置等。 2. 安装HDFS连接器:Kafka Connect提供了一个HDFS连接器,用于连接HDFS和Kafka。可以从Kafka官网上下载和安装HDFS连接器,并将其添加到Kafka Connect的插件目录。 3. 配置HDFS连接器:需要在Kafka Connect的配置文件配置HDFS连接器的参数,包括HDFS集群的地址、HDFS文件的路径、Kafka topic的名称等。 4. 启动Kafka Connect:启动Kafka Connect后,它会自动加载HDFS连接器,并根据配置的参数从HDFS读取数据,并将数据发送到指定Kafka topic。 下面是一个使用HDFS连接器将HDFS数据拉取到Kafka topic的配置示例: ```ini # Kafka Connect的配置文件 bootstrap.servers=localhost:9092 # HDFS连接器的配置 key.converter=org.apache.kafka.connect.storage.StringConverter value.converter=org.apache.kafka.connect.storage.StringConverter key.converter.schemas.enable=false value.converter.schemas.enable=false connector.class=io.confluent.connect.hdfs.HdfsSinkConnector topics=hdfs-topic tasks.max=1 hdfs.url=hdfs://localhost:9000 flush.size=3 rotate.interval.ms=60000 logs.dir=/usr/local/kafka-connect/logs hadoop.home=/usr/local/hadoop format.class=io.confluent.connect.hdfs.parquet.ParquetFormat schema.compatibility=NONE ``` 在这个配置文件,我们首先指定Kafka集群的地址,然后配置了HDFS连接器的参数,包括数据的序列化器、Kafka topic的名称、HDFS集群的地址、HDFS文件的路径等。其,flush.size和rotate.interval.ms参数用于控制数据的写入频率和文件的切换频率,logs.dir参数用于指定日志文件的存储路径,hadoop.home参数用于指定Hadoop的安装路径,format.class参数用于指定数据的格式(这里使用了Parquet格式),schema.compatibility参数用于指定数据的模式兼容性。 启动Kafka Connect后,它会自动加载HDFS连接器,并从HDFS读取数据,并将数据发送到指定Kafka topic

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值