kafka 的pom文件_SpringBoot集成Kafka的步骤

本文介绍了如何在SpringBoot 2.3.4.release中集成Kafka 2.5.1,包括pom.xml配置、application.yml设置、消息体定义、发送与消费实现。通过创建一个简单的Demo,展示了使用KafkaTemplate发送消息和KafkaListener监听消费的过程。
摘要由CSDN通过智能技术生成

springboot集成kafka

本篇主要讲解springboot 如何集成kafka ,并且简单的 编写了一个demo 来测试 发送和消费功能

前言

选择的版本如下:

springboot : 2.3.4.release

spring-kafka : 2.5.6.release

kafka : 2.5.1

zookeeper : 3.4.14

本demo 使用的是 springboot 比较高的版本 springboot 2.3.4.release 它会引入 spring-kafka 2.5.6 release ,对应了版本关系中的

spring boot 2.3 users should use 2.5.x (boot dependency management will use the correct version).

spring和 kafka 的版本 关系

...

1.搭建kafka 和 zookeeper 环境

搭建kafka 和 zookeeper 环境 并且启动 它们

2.创建demo 项目引入spring-kafka

2.1 pom 文件

org.springframework.boot

spring-boot-starter-web

org.springframework.kafka

spring-kafka

com.google.code.gson

gson

2.2 配置application.yml

spring:

kafka:

bootstrap-servers: 192.168.25.6:9092 #bootstrap-servers:连接kafka的地址,多个地址用逗号分隔

consumer:

group-id: mygroup

enable-auto-commit: true

auto-commit-interval: 100ms

properties:

session.timeout.ms: 15000

key-deserializer: org.apache.kafka.common.serialization.stringdeserializer

value-deserializer: org.apache.kafka.common.serialization.stringdeserializer

auto-offset-reset: earliest

producer:

retries: 0 #若设置大于0的值,客户端会将发送失败的记录重新发送

batch-size: 16384 #当将多个记录被发送到同一个分区时, producer 将尝试将记录组合到更少的请求中。这有助于提升客户端和服务器端的性能。这个配置控制一个批次的默认大小(以字节为单位)。16384是缺省的配置

buffer-memory: 33554432 #producer 用来缓冲等待被发送到服务器的记录的总字节数,33554432是缺省配置

key-serializer: org.apache.kafka.common.serialization.stringserializer #关键字的序列化类

value-serializer: org.apache.kafka.common.serialization.stringserializer #值的序列化类

2.3 定义消息体message

/**

* @author johnny

* @create 2020-09-23 上午9:21

**/

@data

public class message {

private long id;

private string msg;

private date sendtime;

}

2.4 定义kafkasender

主要利用 kafkatemplate 来发送消息 ,将消息封装成message 并且进行 转化成json串 发送到kafka中

@component

@slf4j

public class kafkasender {

private final kafkatemplate kafkatemplate;

//构造器方式注入 kafkatemplate

public kafkasender(kafkatemplate kafkatemplate) {

this.kafkatemplate = kafkatemplate;

}

private gson gson = new gsonbuilder().create();

public void send(string msg) {

message message = new message();

message.setid(system.currenttimemillis());

message.setmsg(msg);

message.setsendtime(new date());

log.info("【++++++++++++++++++ message :{}】", gson.tojson(message));

//对 topic = hello2 的发送消息

kafkatemplate.send("hello2",gson.tojson(message));

}

}

2.5 定义kafkaconsumer

在监听的方法上通过注解配置一个监听器即可,另外就是指定需要监听的topic

kafka的消息再接收端会被封装成consumerrecord对象返回,它内部的value属性就是实际的消息。

@component

@slf4j

public class kafkaconsumer {

@kafkalistener(topics = {"hello2"})

public void listen(consumerrecord, ?> record) {

optional.ofnullable(record.value())

.ifpresent(message -> {

log.info("【+++++++++++++++++ record = {} 】", record);

log.info("【+++++++++++++++++ message = {}】", message);

});

}

}

3.测试 效果

提供一个 http接口调用 kafkasender 去发送消息

3.1 提供http 测试接口

@restcontroller

@slf4j

public class testcontroller {

@autowired

private kafkasender kafkasender;

@getmapping("sendmessage/{msg}")

public void sendmessage(@pathvariable("msg") string msg){

kafkasender.send(msg);

}

}

3.2 启动项目

监听8080 端口

kafkamessagelistenercontainer中有 consumer group = mygroup 有一个 监听 hello2-0 topic 的 消费者

3.3 调用http接口

至此 springboot集成kafka 结束 。。

以上就是springboot集成kafka的步骤的详细内容,更多关于springboot集成kafka的资料请关注萬仟网其它相关文章!

如您对本文有疑问或者有任何想说的,请点击进行留言回复,万千网友为您解惑!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值