Kafka-Java一:Spring实现kafka消息的简单发送_kafka发送对象消息(1)

最后

权威指南-第一本Docker书

引领完成Docker的安装、部署、管理和扩展,让其经历从测试到生产的整个开发生命周期,深入了解Docker适用于什么场景。并且这本Docker的学习权威指南介绍了其组件的基础知识,然后用Docker构建容器和服务来完成各种任务:利用Docker为新项目建立测试环境,演示如何使用持续集成的工作流集成Docker,如何构建应用程序服务和平台,如何使用Docker的API,如何扩展Docker。

总共包含了:简介、安装Docker、Docker入门、使用Docker镜像和仓库、在测试中使用Docker、使用Docker构建服务、使用Fig编配Docke、使用Docker API、获得帮助和对Docker进行改进等9个章节的知识。

image

image

image

image

关于阿里内部都在强烈推荐使用的“K8S+Docker学习指南”—《深入浅出Kubernetes:理论+实战》、《权威指南-第一本Docker书》,看完之后两个字形容,爱了爱了!

本文已被CODING开源项目:【一线大厂Java面试题解析+核心总结学习笔记+最新讲解视频+实战项目源码】收录

需要这份系统化的资料的朋友,可以点击这里获取

2.1、maven项目创建完成后,需要引入以下依赖

    // kafka 依赖
    <dependency>
      <groupId>org.apache.kafka</groupId>
      <artifactId>kafka-clients</artifactId>
      <version>3.4.0</version>
    </dependency>

   //  json依赖,demo中可能会用到该依赖,与kafka依赖无关
    <dependency>
      <groupId>com.alibaba</groupId>
      <artifactId>fastjson</artifactId>
      <version>2.0.10</version>
    </dependency>

2.2、创建工程目录

三、创建生产者

3.1、创建生产者,同步发送消息

3.1.1、在MyProducer中实现如下代码

package com.demo.lxb.kafka;

import com.alibaba.fastjson.JSON;
import com.demo.lxb.entiry.Order;
import org.apache.kafka.clients.producer.*;
import org.apache.kafka.common.serialization.StringSerializer;

import java.util.Properties;
import java.util.concurrent.CountDownLatch;
import java.util.concurrent.ExecutionException;

/**
 * @Description:
 * @Author: lvxiaobu
 * @Date: 2023-10-23 17:06
 **/
public class MyProducer {

    private final  static String TOPIC_NAME = "topic0921";

    public static void main(String[] args) throws ExecutionException, InterruptedException {
        Properties props = new Properties();
        // 一、设置参数
        // 配置kafka地址
        //props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,"192.168.151.28:9092"); // 单机配置
        props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,
                "192.168.151.28:9092,192.168.151.28:9092,192.168.151.28:9092"); // 集群配置
        // 配置消息 键值的序列化规则
        props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
        props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,StringSerializer.class.getName());

        // 二、声明消息对象
        // 未指定发送分区,具体撒送分区的计算公式: hash(key)%PartitionNum
        // 创建发送的消息: producerRecord
          // 参数1: 要发送的主题
          // 参数2: 消息的key值,可有可无,如果存在的话,该字段用来带入分区的计算公式
          // 参数3: value,具体的消息的内容,json格式的字符串
        ProducerRecord<String,String> producerRecord = new ProducerRecord<String, String>
                            (TOPIC_NAME,
                            "mykey",
                            "hello-kafka");
        // 三、声明消息发送者
        Producer<String,String> producer = new KafkaProducer<String,String>(props);
        // 开发发送,并返回结果和元数据
        RecordMetadata recordMetadata = producer.send(producerRecord).get();

        System.out.println("发送消息结果: " + "topic-" + recordMetadata.topic() + " | partition-"
                + recordMetadata.partition() + " | offset-" + recordMetadata.offset());
    }
}

执行main方法,结果如下:

如果多次执行main方法,会发现offset偏移量的数字会发生变化。

3.2、创建生产者,异步发送消息

3.2.1、在MyProducer2中实现如下代码

package com.demo.lxb.kafka;

import org.apache.kafka.clients.producer.*;
import org.apache.kafka.common.serialization.StringSerializer;

import java.util.Properties;
import java.util.concurrent.ExecutionException;

/**
 * @Description: kafka 异步发送消息
 * @Author: lvxiaobu
 * @Date: 2023-10-23 17:06
 **/
public class MyProducer2 {

    private final  static String TOPIC_NAME = "topic0921";

    public static void main(String[] args) throws ExecutionException, InterruptedException {
        Properties props = new Properties();
        // 一、设置参数
        // 配置kafka地址
//        props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,
//                "192.168.151.28:9092"); // 单机配置
        props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,
                "192.168.154.128:9092,192.168.154.128:9093,192.168.154.128:9094"); // 集群配置
        // 配置消息 键值的序列化规则
        props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
        props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,StringSerializer.class.getName());

        // 二、声明消息对象
        // 未指定发送分区,具体撒送分区的计算公式: hash(key)%PartitionNum
        // 创建发送的消息: producerRecord
          // 参数1: 要发送的主题
          // 参数2: 消息的key值,可有可无,如果存在的话,该字段用来带入分区的计算公式
          // 参数3: value,具体的消息的内容,json格式的字符串
        ProducerRecord<String,String> producerRecord = new ProducerRecord<String, String>
                            (TOPIC_NAME,
                            "mykey",
                            "hello-kafka2");
        // 三、声明消息发送者
        Producer<String,String> producer = new KafkaProducer<String,String>(props);
        // 异步发送消息,通过callback回调函数获取发送结果


# 写在最后

学习技术是一条慢长而艰苦的道路,不能靠一时激情,也不是熬几天几夜就能学好的,必须养成平时努力学习的习惯。所以:贵在坚持!

最后再分享的一些BATJ等大厂20、21年的面试题,把这些技术点整理成了视频和PDF(实际上比预期多花了不少精力),包含知识脉络 + 诸多细节,由于篇幅有限,上面只是以图片的形式给大家展示一部分。

![蚂蚁金服三面直击面试官的Redis三连,Redis面试复习大纲在手,不慌](https://img-blog.csdnimg.cn/img_convert/4773704fa2bc458070602c84f6e85f5f.webp?x-oss-process=image/format,png)

Mybatis面试专题

![蚂蚁金服三面直击面试官的Redis三连,Redis面试复习大纲在手,不慌](https://img-blog.csdnimg.cn/img_convert/069078322e1d2ec5df6f6cbd1b87e5fa.webp?x-oss-process=image/format,png)

MySQL面试专题

![蚂蚁金服三面直击面试官的Redis三连,Redis面试复习大纲在手,不慌](https://img-blog.csdnimg.cn/img_convert/bbea628e3b518d8ee96b08e9d04d2bea.webp?x-oss-process=image/format,png)

并发编程面试专题

> **本文已被[CODING开源项目:【一线大厂Java面试题解析+核心总结学习笔记+最新讲解视频+实战项目源码】](https://bbs.csdn.net/forums/4f45ff00ff254613a03fab5e56a57acb)收录**

**[需要这份系统化的资料的朋友,可以点击这里获取](https://bbs.csdn.net/forums/4f45ff00ff254613a03fab5e56a57acb)**

大厂Java面试题解析+核心总结学习笔记+最新讲解视频+实战项目源码】](https://bbs.csdn.net/forums/4f45ff00ff254613a03fab5e56a57acb)收录**

**[需要这份系统化的资料的朋友,可以点击这里获取](https://bbs.csdn.net/forums/4f45ff00ff254613a03fab5e56a57acb)**

  • 3
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
使用Spring Kafka发送华为云ROMA Connect Kafka消息可以按照以下步骤进行: 1. 首先,确保已经在项目中引入了Spring Kafka的依赖。可以在项目的pom.xml文件中添加以下依赖: ```xml <dependency> <groupId>org.springframework.kafka</groupId> <artifactId>spring-kafka</artifactId> <version>2.8.0</version> </dependency> ``` 2. 在Spring Boot的配置文件中,配置Kafka的连接信息。可以在application.properties或application.yml文件中添加以下配置: ```properties spring.kafka.bootstrap-servers=<kafka-bootstrap-servers> spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer spring.kafka.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer ``` 其中,`<kafka-bootstrap-servers>`是华为云ROMA Connect Kafka的bootstrap servers地址。 3. 创建一个KafkaProducer的Bean,用于发送消息。可以在Spring Boot的配置类中添加以下代码: ```java import org.apache.kafka.clients.producer.ProducerConfig; import org.apache.kafka.common.serialization.StringSerializer; import import org.springframework.context.annotation.Bean; import org.springframework.context.annotation.Configuration; import org.springframework.kafka.core.DefaultKafkaProducerFactory; import org.springframework.kafka.core.KafkaTemplate; import org.springframework.kafka.core.ProducerFactory; import java.util.HashMap; import java.util.Map; @Configuration public class KafkaConfig { @Bean public ProducerFactory<String, String> producerFactory() { Map<String, Object> configProps = new HashMap<>(); configProps.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, "<kafka-bootstrap-servers>"); configProps.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class); configProps.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class); return new DefaultKafkaProducerFactory<>(configProps); } @Bean public KafkaTemplate<String, String> kafkaTemplate() { return new KafkaTemplate<>(producerFactory()); } } ``` 其中,`<kafka-bootstrap-servers>`是华为云ROMA Connect Kafka的bootstrap servers地址。 4. 在需要发送消息的地方,注入KafkaTemplate,并使用它发送消息。可以在任何Spring管理的Bean中注入KafkaTemplate,并调用其`send()`方法发送消息。以下是一个示例: ```java import org.springframework.beans.factory.annotation.Autowired; import org.springframework.kafka.core.KafkaTemplate; import org.springframework.stereotype.Component; @Component public class KafkaMessageSender { private final KafkaTemplate<String, String> kafkaTemplate; @Autowired public KafkaMessageSender(KafkaTemplate<String, String> kafkaTemplate) { this.kafkaTemplate = kafkaTemplate; } public void sendMessage(String topic, String message) { kafkaTemplate.send(topic, message); } } ``` 在上述示例中,`KafkaMessageSender`类注入了`KafkaTemplate`,并提供了一个`sendMessage()`方法用于发送消息。 这样,你就可以使用Spring Kafka发送华为云ROMA Connect Kafka消息了。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值