KafkaStream(一)

前置

启动zookeeper、kafka

zkServer.sh start
[root@cp145 data]# nohup kafka-server-start.sh /opt/soft/kafka212/config/server.properties &

创建输入输出队列

[root@cp145 eventdata]# kafka-topics.sh --create --zookeeper 192.168.153.145:2181 --topic mystreamin --partitions 1 --replication-factor 1
[root@cp145 eventdata]# kafka-topics.sh --create --zookeeper 192.168.153.145:2181 --topic mystreamout --partitions 1 --replication-factor 1
[root@cp145 eventdata]# kafka-topics.sh --zookeeper 192.168.153.145:2181 --list

在这里插入图片描述

idea再引入一个依赖

<dependency>
      <groupId>org.apache.kafka</groupId>
      <artifactId>kafka-streams</artifactId>
      <version>2.8.0</version>
</dependency>
public class MyStreamDemo {
    public static void main(String[] args) {
        Properties prop = new Properties();
        prop.put(StreamsConfig.APPLICATION_ID_CONFIG,"mystream");
        prop.put(StreamsConfig.BOOTSTRAP_SERVERS_CONFIG,"192.168.153.145:9092");
        prop.put(StreamsConfig.DEFAULT_KEY_SERDE_CLASS_CONFIG, Serdes.String().getClass());
        prop.put(StreamsConfig.DEFAULT_VALUE_SERDE_CLASS_CONFIG,Serdes.String().getClass());

        //创建流构造器
        StreamsBuilder builder = new StreamsBuilder();
        //将mystreamin数据取出,再放入到mystreamout里
        builder.stream("mystreamin").to("mystreamout");

        Topology topo = builder.build();

        KafkaStreams kafkaStreams = new KafkaStreams(topo, prop);

        kafkaStreams.start();
    }
}

操作

打开生产者mystreamin、打开消费者mystreamout(起两个窗口)

[root@cp145 eventdata]# kafka-console-producer.sh --topic mystreamin --broker-list 192.168.153.145:9092

[root@cp145 flumelogfile]# kafka-console-consumer.sh --bootstrap-server 192.168.153.145:9092 --topic mystreamout
public class MyStreamDemo {
    public static void main(String[] args) {
        Properties prop = new Properties();
        prop.put(StreamsConfig.APPLICATION_ID_CONFIG,"mystream");
        prop.put(StreamsConfig.BOOTSTRAP_SERVERS_CONFIG,"192.168.153.145:9092");
        prop.put(StreamsConfig.DEFAULT_KEY_SERDE_CLASS_CONFIG, Serdes.String().getClass());
        prop.put(StreamsConfig.DEFAULT_VALUE_SERDE_CLASS_CONFIG,Serdes.String().getClass());

        //创建流构造器
        StreamsBuilder builder = new StreamsBuilder();
        //将mystreamin数据取出,再放入到mystreamout里
        KStream<Object, Object> mystreamin = builder.stream("mystreamin");
        //mystreamin.flatMapValues().map()

        mystreamin.to("mystreamout");



        Topology topo = builder.build();

        KafkaStreams kafkaStreams = new KafkaStreams(topo, prop);

        kafkaStreams.start();
    }
}

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
Kafka Stream是一个用于处理实时数据流的库。它可以从Kafka数据源中读取数据,并进行流式计算和处理。 Kafka Stream的架构包括以下几个部分:整体架构、Processor Topology、并行模型、KTable和KStream、以及状态存储。整体架构描述了Kafka Stream的工作原理和组件之间的关系。Processor Topology定义了数据流的处理逻辑和操作流程。并行模型允许Kafka Stream根据需要调整并行度,以适应不同的处理需求。KTable和KStreamKafka Stream中两个重要的数据结构,分别用于表示实时数据流和实时表。状态存储用于存储和管理处理过程中产生的中间状态和结果。 Kafka Stream解决了流式系统中的几个关键问题:时间、窗口、Join、聚合与乱序处理以及容错。通过对时间的处理,Kafka Stream可以支持实时数据处理和窗口计算。窗口可以用来对数据进行分组和聚合。Kafka Stream还支持对不同数据流进行Join操作,并处理数据流中的乱序问题。同时,Kafka Stream具备容错能力,可以在发生故障时进行恢复和重试。 总体来说,Kafka Stream是一个强大的工具,可以实现实时数据流处理和计算。它的灵活架构、丰富的功能和可靠的容错机制使得它在流式系统中广泛应用。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [Kafka Stream](https://blog.csdn.net/zmzdmx/article/details/111301707)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值