kafka Streams

1. Kafka Streams

    Kafka Streams。Apache Kafka开源项目的一个组成部分。是一个功能强大,易于使用的库。用于在Kafka上构建高可分布式、拓展性,容错的应用程序。

 

2.Kafka Streams特点

(1) 功能强大

    ① 高扩展性,弹性,容错

(2) 轻量级

    ① 无需专门的集群

    ②  一个库,而不是框架

(3) 完全集成

    ① 100%的Kafka 0.10.0版本兼容

    ② 易于集成到现有的应用程序

(4) 实时性

    ① 毫秒级延迟

    ② 并非微批处理

    ③ 窗口允许乱序数据

    ④ 允许迟到数据

 

3.为什么要有Kafka Stream

    当前已经有非常多的流式处理系统,最知名且应用最多的开源流式处理系统有Spark Streaming和Apache Storm。Apache Storm发展多年,应用广泛,提供记录级别的处理能力,当前也支持SQL on Stream。而Spark Streaming基于Apache Spark,可以非常方便与图计算,SQL处理等集成,功能强大,对于熟悉其它Spark应用开发的用户而言使用门槛低。另外,目前主流的Hadoop发行版,如Cloudera和Hortonworks,都集成了Apache Storm和Apache Spark,使得部署更容易。

既然Apache Spark与Apache Storm拥用如此多的优势,那为何还需要Kafka Stream呢?主要有如下原因。

    第一,Spark和Storm都是流式处理框架,而Kafka Stream提供的是一个基于Kafka的流式处理类库。框架要求开发者按照特定的方式去开发逻辑部分,供框架调用。开发者很难了解框架的具体运行方式,从而使得调试成本高,并且使用受限。而Kafka Stream作为流式处理类库,直接提供具体的类给开发者调用,整个应用的运行方式主要由开发者控制,方便使用和调试,

    第二,虽然Cloudera与Hortonworks方便了Storm和Spark的部署,但是这些框架的部署仍然相对复杂。而Kafka Stream作为类库,可以非常方便的嵌入应用程序中,它对应用的打包和部署基本没有任何要求。

    第三,就流式处理系统而言,基本都支持Kafka作为数据源。例如Storm具有专门的kafka-spout,而Spark也提供专门的spark-streaming-kafka模块。事实上,Kafka基本上是主流的流式处理系统的标准数据源。换言之,大部分流式系统中都已部署了Kafka,此时使用Kafka Stream的成本非常低。

    第四,使用Storm或Spark Streaming时,需要为框架本身的进程预留资源,如Storm的supervisor和Spark on YARN的node manager。即使对于应用实例而言,框架本身也会占用部分资源,如Spark Streaming需要为shuffle和storage预留内存。但是Kafka作为类库不占用系统资源。

    第五,由于Kafka本身提供数据持久化,因此Kafka Stream提供滚动部署和滚动升级以及重新计算的能力。

    第六,由于Kafka Consumer Rebalance机制,Kafka Stream可以在线动态调整并行度。

 

4.Kafka Stream数据清洗案例

(1) 需求

    实时处理单词带有”>>>”前缀的内容。例如输入”kafka>>>ximenqing”,最终处理成“ximenqing”

(2) 需求分析

 

(3) 案例实操

    ① 创建一个工程,并添加jar包

    ② 创建主类

/**
 * 主类
 */
public class Application {

    public static void main(String[] args) {

        //定义输入的topic
        String from = "first";
        String to = "second";

        //设置参数
        Properties settings = new Properties();
        settings.put(StreamsConfig.APPLICATION_ID_CONFIG,"logFilter");
        settings.put(StreamsConfig.BOOTSTRAP_SERVERS_CONFIG,"hadoop102:9092");

        StreamsConfig config = new StreamsConfig(settings);

        //创建拓图
        TopologyBuilder builder = new TopologyBuilder();

        builder.addSource("SOURCE", from)
                .addProcessor("PROCESS", new ProcessorSupplier<byte[], byte[]>() {
                    public Processor<byte[], byte[]> get() {
                        // 具体分析处理
                        return new LogProcessor();
                    }
                }, "SOURCE")
                .addSink("SINK", to, "PROCESS");
        //创建kafka stream
        KafkaStreams  stream = new KafkaStreams(builder,config);
        stream.start();
    }
}

    ③ 具体业务处理

/**
 * 具体业务处理
 */
public class LogProcessor implements Processor<byte[], byte[]> {

    private ProcessorContext context;

    public void init(ProcessorContext context) {
        this.context=context;
    }

    public void process(byte[] key, byte[] value) {

        String input = new String(value);
        if (input.contains(">>>")){
            input=input.split(">>>")[1].trim();
            context.forward("logProcessor".getBytes(),input.getBytes());
        }else {
            context.forward("logProcessor".getBytes(),input.getBytes());
        }

    }

    public void punctuate(long timestamp) {

    }

    public void close() {

    }
}

    ④ 运行程序

    ⑤ 在hadoop104上启动生产者

[luomk@hadoop104 kafka]$ bin/kafka-console-producer.sh --broker-list hadoop102:9092 --topic first
>kafka>>>luomk
>woaixuexi

    ⑥ 在hadoop102上启动消费者

[luomk@hadoop102 kafka]$ bin/kafka-console-consumer.sh -zookeeper hadoop102:2181 --topic second --consumer.config config/consumer.properties
luomk
woaixuexi

 

4.源码地址:https://github.com/luomingkui/kafka

 

 

 

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
以下是一个简单的Kafka Streams应用程序,它从一个名为“input_topic”的Kafka主题中读取字符串消息,并将它们转换为大写字符串,然后将它们写入另一个名为“output_topic”的Kafka主题中。 ```java import java.util.Properties; import org.apache.kafka.common.serialization.Serdes; import org.apache.kafka.streams.KafkaStreams; import org.apache.kafka.streams.StreamsBuilder; import org.apache.kafka.streams.kstream.Consumed; import org.apache.kafka.streams.kstream.KStream; import org.apache.kafka.streams.kstream.Produced; public class MyKafkaStreamsApp { public static void main(String[] args) { // Define Kafka Streams properties Properties props = new Properties(); props.put("bootstrap.servers", "localhost:9092"); props.put("application.id", "my-kafka-streams-app"); // Create a StreamsBuilder object StreamsBuilder builder = new StreamsBuilder(); // Create a KStream object by reading from the input topic KStream<String, String> inputStream = builder.stream( "input_topic", Consumed.with(Serdes.String(), Serdes.String()) ); // Transform each message to uppercase KStream<String, String> outputStream = inputStream.mapValues( value -> value.toUpperCase() ); // Write the transformed messages to the output topic outputStream.to( "output_topic", Produced.with(Serdes.String(), Serdes.String()) ); // Create a KafkaStreams object and start the application KafkaStreams streams = new KafkaStreams(builder.build(), props); streams.start(); } } ``` 在这个例子中,我们首先定义了一些Kafka Streams属性,然后创建了一个StreamsBuilder对象。接着,我们使用builder对象从“input_topic”读取消息,并使用mapValues()方法将消息转换为大写字符串。最后,我们使用to()方法将转换后的消息写入“output_topic”。 最后,我们创建了一个KafkaStreams对象,并启动了应用程序。当启动应用程序时,Kafka Streams将自动创建并管理所需的Kafka主题分区。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

程序员学习圈

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值