在开始之前,我想先说我对Kafka是全新的,对于Linux来说是相当新的,所以如果这最终是一个荒谬的简单答案,请善待! :)Kafka连接MySQL源
我想要做的事情的高层次想法是使用Confluent的Kafka Connect从分数或分钟基础上传输传感器数据的MySQL数据库读取,然后使用Kafka作为一个“ETL管道”即时将数据发送到数据仓库和/或MongoDB进行报告,甚至直接从我们的网络应用程序绑定到Kafka。
我使用Robin Moffatt的series以及Confluent的JDBC Source Connector Quickstart作为我的初始指南。就托管的位置而言,我使用Amazon RDS MySQL数据库和独立的AWS EC2 t2.large实例与Ubuntu 16.04.2一起运行Kafka Connect。
使用Robin的工作流程,我到了创建配置文件的地步,但我没有使用他使用的json格式。我正在使用快速入门文章的格式。
name=jdbc_source_mysql_4427_Data
connector.class=io.confluent.connect.jdbc.JdbcSourceConnector
key.converter=io.confluent.connect.avro.AvroConverter
key.converter.schema.registry.url=http://localhost:8081
value.converter=io.confluent.connect.avro.AvroConverter
value.converter.schema.registry.url=http://localhost:8081
connection.url=jdbc:my