kafka stream mysql_kafka stream 使用样例

1. war包导入

org.apache.kafka

kafka-streams

2.3.0

org.apache.kafka

kafka-clients

2.3.0

2. 代码实现

packagecom.atguigu.kafkastream;importorg.apache.kafka.common.serialization.Serde;importorg.apache.kafka.common.serialization.Serdes;importorg.apache.kafka.streams.KafkaStreams;importorg.apache.kafka.streams.StreamsBuilder;importorg.apache.kafka.streams.StreamsConfig;importorg.apache.kafka.streams.kstream.Consumed;importorg.apache.kafka.streams.kstream.KStream;importorg.apache.kafka.streams.kstream.Produced;importorg.apache.kafka.streams.processor.internals.InternalTopologyBuilder;importjava.util.Properties;public classApplication {public static voidmain(String[] args) {

String input= "abc"; //输入 topic

String output = "recommender"; //输出 topic

Properties properties= newProperties();

properties.put(StreamsConfig.APPLICATION_ID_CONFIG,"logProcessor");

properties.put(StreamsConfig.BOOTSTRAP_SERVERS_CONFIG,"hadoop1:9092");//使用Serdes类创建序列化/反序列化所需的Serde实例 Serdes类为以下类型提供默认的实现:String、Byte array、Long、Integer和Double。

Serde stringSerde =Serdes.String();

StreamsBuilder builder= newStreamsBuilder();

KStream simpleFirstStream =builder.stream(input, Consumed.with(stringSerde, stringSerde));//使用KStream.mapValues 将输入数据流以 abc: 拆分获取下标为 1 字符串

KStream upperCasedStream = simpleFirstStream.mapValues(line -> line.split("abc:")[1]);//把转换结果输出到另一个topic

upperCasedStream.to(output, Produced.with(stringSerde, stringSerde));//创建和启动KStream

KafkaStreams kafkaStreams = newKafkaStreams(builder.build(), properties);

kafkaStreams.start();

}

}

3. 测试

1)启动 2 中程序

2)启动 kafka

3)启动一个名称为 abc 的 topic 生产者

bin/kafka-topics.sh --create --zookeeper hadoop1:2181 --replication-factor 1 --partitions 1 --topic abc

4)启动一个名词为 recommender 的topic 消费者

bin/kafka-console-consumer.sh --bootstrap-server hadoop1:9092 --topic recommender

5)abc topic 中输入字符串(如:   abc:22|33|44|55)

6)recommender 中就可收到过滤后的字符串   22|33|44|55

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在 PyFlink 中使用 KafkaMySQL 需要安装相应的 Python 库。可以使用 `pip` 命令安装 `kafka-python` 和 `mysql-connector-python` 库: ``` pip install kafka-python pip install mysql-connector-python ``` 然后,可以按照以下步骤将 Kafka 中的数据写入 MySQL 数据库: 1. 导入必要的库: ```python from pyflink.common.serialization import SimpleStringSchema from pyflink.datastream import StreamExecutionEnvironment from pyflink.datastream.connectors import FlinkKafkaConsumer, FlinkJdbcSink import mysql.connector ``` 2. 创建 Flink 的 StreamExecutionEnvironment: ```python env = StreamExecutionEnvironment.get_execution_environment() ``` 3. 创建 Kafka 消费者: ```python properties = {'bootstrap.servers': 'localhost:9092', 'group.id': 'test-group'} consumer = FlinkKafkaConsumer('test-topic', SimpleStringSchema(), properties=properties) ``` 4. 从 Kafka 中读取数据: ```python stream = env.add_source(consumer) ``` 5. 将数据写入 MySQL 数据库: ```python jdbc_sink = FlinkJdbcSink( "INSERT INTO my_table (id, name) VALUES (?, ?)", connection_options={ "url": "jdbc:mysql://localhost:3306/my_database", "driver": "com.mysql.jdbc.Driver", "username": "my_username", "password": "my_password" }, statement_execute_parallelism=2, flush_on_checkpoint=True) stream.add_sink(jdbc_sink) ``` 其中,`INSERT INTO my_table (id, name) VALUES (?, ?)` 是 MySQL 的 SQL 语句,`id` 和 `name` 分别是表中的两个字段。`connection_options` 是连接 MySQL 数据库的参数,需要设置 MySQL 的 URL、驱动程序、用户名和密码。 完整的代码示例: ```python from pyflink.common.serialization import SimpleStringSchema from pyflink.datastream import StreamExecutionEnvironment from pyflink.datastream.connectors import FlinkKafkaConsumer, FlinkJdbcSink import mysql.connector env = StreamExecutionEnvironment.get_execution_environment() properties = {'bootstrap.servers': 'localhost:9092', 'group.id': 'test-group'} consumer = FlinkKafkaConsumer('test-topic', SimpleStringSchema(), properties=properties) stream = env.add_source(consumer) jdbc_sink = FlinkJdbcSink( "INSERT INTO my_table (id, name) VALUES (?, ?)", connection_options={ "url": "jdbc:mysql://localhost:3306/my_database", "driver": "com.mysql.jdbc.Driver", "username": "my_username", "password": "my_password" }, statement_execute_parallelism=2, flush_on_checkpoint=True) stream.add_sink(jdbc_sink) env.execute("Kafka to MySQL") ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值