kafka 不同topic之间传输数据

目录

一、不经过任何数据处理,直接传输文件

1.1、初始化配置

1.2、创建流构造器

1.3、 将topic  mystreamin中的数据取出,再放入到topic   streamout中

1.4、通过建造者模式,创建kafkaStreams

1.5启动程序

二、传输过程中,进行一些数据处理


一、不经过任何数据处理,直接传输文件

1.1、初始化配置

Properties prop = new Properties();
prop.put(StreamsConfig.APPLICATION_ID_CONFIG, "mystream");
prop.put(StreamsConfig.BOOTSTRAP_SERVERS_CONFIG, "192.168.91.180:9092");
prop.put(StreamsConfig.DEFAULT_KEY_SERDE_CLASS_CONFIG, Serdes.String().getClass());
prop.put(StreamsConfig.DEFAULT_VALUE_SERDE_CLASS_CONFIG, Serdes.String().getClass());

1.2、创建流构造器

StreamsBuilder builder = new StreamsBuilder();

1.3、 将topic  mystreamin中的数据取出,再放入到topic   streamout中

builder.stream("mystreamin").to("mystreamout");
上面一行相当于下面两行
KStream<Object, Object> mystreamin = builder.stream("mystreamin");
mystreamin.to("mystreamout");

1.4、通过建造者模式,创建kafkaStreams

Topology topo = builder.build();

KafkaStreams kafkaStreams = new KafkaStreams(topo, prop);

1.5启动程序

 kafkaStreams.start();

二、传输过程中,进行一些数据处理

import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.common.serialization.Serdes;
import org.apache.kafka.streams.*;
import java.util.ArrayList;
import java.util.Properties;

public class UserFriendStream {
    public static void main(String[] args) {
        Properties properties = new Properties();
        properties.put(StreamsConfig.APPLICATION_ID_CONFIG, "userfriend2");
        properties.put(StreamsConfig.BOOTSTRAP_SERVERS_CONFIG, "192.168.91.180:9092");
        properties.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, "false");
        properties.put(StreamsConfig.COMMIT_INTERVAL_MS_CONFIG, 1000);

        //earliest  latest one
        properties.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, "earliest");
        properties.put(StreamsConfig.DEFAULT_KEY_SERDE_CLASS_CONFIG, Serdes.String().getClass());
        properties.put(StreamsConfig.DEFAULT_VALUE_SERDE_CLASS_CONFIG, Serdes.String().getClass());

        StreamsBuilder builder = new StreamsBuilder();

        //主要业务逻辑处理 start
        builder.stream("user_friends_raw")
                .flatMap((key, value) -> {
                    ArrayList<KeyValue<String, String>> list = new ArrayList<>();
                    String[] fields = value.toString().split(",");
                    if (fields.length == 2) {
                        String userid = fields[0];
                        String[] friends = fields[1].split("\\s+");
                        for (String friendid : friends) {
                            System.out.println(userid + " " + friendid);
                            KeyValue<String, String> kv = new KeyValue<>(null, userid + "," + friendid);
                            list.add(kv);
                        }
                    }
                    return list;
                })
                .to("user_friends");

        //主要业务逻辑处理 end
        Topology topo = builder.build();
        KafkaStreams streams = new KafkaStreams(topo, properties);

        streams.start();
    }
}

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值