大数据-玩转数据-Sink到Kafka

一、添加Kafka Connector依赖

pom.xml 中添加

<dependency>
    <groupId>org.apache.flink</groupId>
    <artifactId>flink-connector-kafka_${scala.binary.version}</artifactId>
    <version>${kafka.version}</version>
    </dependency>
<dependency>
    <groupId>com.alibaba</groupId>
    <artifactId>fastjson</artifactId>
    <version>1.2.75</version>
</dependency>

二、启动Kafka集群

启动zookeeper

./bin/zookeeper-server-start.sh config/zookeeper.properties

启动 kafka

./bin/kafka-server-start.sh config/server.properties

启动一个消费者

./bin/kafka-console-consumer.sh --bootstrap-server hadoop100:9092 --topic topic_sensor

三、Flink sink 到 kafka

package com.lyh.flink06;
import org.apache.flink.api.common.serialization.SimpleStringSchema;
import org.apache.flink.streaming.api.datastream.ConnectedStreams;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.functions.sink.SinkFunction;
import org.apache.flink.streaming.connectors.kafka.FlinkKafkaProducer;

public class SinkToKafka {
    public static void main(String[] args) throws Exception {
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        env.setParallelism(2);
        DataStreamSource<String> dataStreamSource = env.fromElements("a-----------------------------", "b*****************************");
        DataStreamSource<Integer> integerDataStreamSource = env.fromElements(1, 2);
        ConnectedStreams<String, Integer> datain = dataStreamSource.connect(integerDataStreamSource);
        datain.getFirstInput().addSink(new FlinkKafkaProducer<String>("hadoop100:9092","topic_sensor",new SimpleStringSchema()));
        env.execute();
    }
}

运行程序后看到消费者消费成功
在这里插入图片描述

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
数据库查询数据发送到Kafka Sink需要经过以下步骤: 1. 首先,确保数据库可以连接和查询。使用适当的数据库驱动程序和连接字符串,通过建立数据库连接,可以执行所需的查询语句。 2. 在查询数据之前,需要引入Kafka相关的依赖,以将数据发送到Kafka Sink。可以使用适当的编程语言或工具来导入所需的Kafka库。 3. 在查询数据库之后,获取结果集。将查询语句发送到数据库后,将返回符合条件的数据集。根据查询结果的数据结构和需要发送的数据格式,逐行读取结果集。 4. 对于每一行数据,进行必要的数据转换和格式化。将结果集中的每一行数据转换为适当的消息格式,如JSON、Avro等。根据Kafka Sink的要求,可能需要将某些字段进行转换或调整格式。 5. 创建Kafka Producer实例。使用适当的配置,创建一个Kafka Producer实例,以便将消息发送到Kafka Sink。 6. 将转换后的消息发送到Kafka Sink。使用创建的Kafka Producer实例,将转换后的消息发送到指定的Kafka Sink。根据需要,可以指定消息的主题、分区等属性。 7. 确认消息是否成功发送。根据Kafka Sink的返回信息,确认消息是否成功发送到Kafka。 总体而言,将数据库查询数据发送到Kafka Sink需要首先连接数据库并查询所需的数据,然后将查询结果转换为适当的消息格式,并使用Kafka Producer将消息发送到Kafka Sink。完成以上步骤后,可以通过消费者来验证数据是否正确地被发送到了Kafka Sink

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值