3.1.1、在MyProducer中实现如下代码
package com.demo.lxb.kafka;
import com.alibaba.fastjson.JSON;
import com.demo.lxb.entiry.Order;
import org.apache.kafka.clients.producer.*;
import org.apache.kafka.common.serialization.StringSerializer;
import java.util.Properties;
import java.util.concurrent.CountDownLatch;
import java.util.concurrent.ExecutionException;
/**
- @Description:
- @Author: lvxiaobu
- @Date: 2023-10-23 17:06
**/
public class MyProducer {
private final static String TOPIC_NAME = “topic0921”;
public static void main(String[] args) throws ExecutionException, InterruptedException {
Properties props = new Properties();
// 一、设置参数
// 配置kafka地址
//props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,“192.168.151.28:9092”); // 单机配置
props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,
“192.168.151.28:9092,192.168.151.28:9092,192.168.151.28:9092”); // 集群配置
// 配置消息 键值的序列化规则
props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,StringSerializer.class.getName());
// 二、声明消息对象
// 未指定发送分区,具体撒送分区的计算公式: hash(key)%PartitionNum
// 创建发送的消息: producerRecord
// 参数1: 要发送的主题
// 参数2: 消息的key值,可有可无,如果存在的话,该字段用来带入分区的计算公式
// 参数3: value,具体的消息的内容,json格式的字符串
ProducerRecord<String,String> producerRecord = new ProducerRecord<String, String>
(TOPIC_NAME,
“mykey”,
“hello-kafka”);
// 三、声明消息发送者
Producer<String,String> producer = new KafkaProducer<String,String>(props);
// 开发发送,并返回结果和元数据
RecordMetadata recordMetadata = producer.send(producerRecord).get();
System.out.println(“发送消息结果: " + “topic-” + recordMetadata.topic() + " | partition-”
- recordMetadata.partition() + " | offset-" + recordMetadata.offset());
}
}
执行main方法,结果如下:
如果多次执行main方法,会发现offset偏移量的数字会发生变化。
3.2、创建生产者,异步发送消息
3.2.1、在MyProducer2中实现如下代码
package com.demo.lxb.kafka;
import org.apache.kafka.clients.producer.*;
import org.apache.kafka.common.serialization.StringSerializer;
import java.util.Properties;
import java.util.concurrent.ExecutionException;
/**
- @Description: kafka 异步发送消息
- @Author: lvxiaobu
- @Date: 2023-10-23 17:06
**/
public class MyProducer2 {
private final static String TOPIC_NAME = “topic0921”;
public static void main(String[] args) throws ExecutionException, InterruptedException {
Properties props = new Properties();
// 一、设置参数
// 配置kafka地址
// props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,
// “192.168.151.28:9092”); // 单机配置
props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,
“192.168.154.128:9092,192.168.154.128:9093,192.168.154.128:9094”); // 集群配置
// 配置消息 键值的序列化规则
props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,StringSerializer.class.getName());
// 二、声明消息对象
// 未指定发送分区,具体撒送分区的计算公式: hash(key)%PartitionNum
// 创建发送的消息: producerRecord
// 参数1: 要发送的主题
// 参数2: 消息的key值,可有可无,如果存在的话,该字段用来带入分区的计算公式
// 参数3: value,具体的消息的内容,json格式的字符串
ProducerRecord<String,String> producerRecord = new ProducerRecord<String, String>
(TOPIC_NAME,
“mykey”,
“hello-kafka2”);
// 三、声明消息发送者
Producer<String,String> producer = new KafkaProducer<String,String>(props);
// 异步发送消息,通过callback回调函数获取发送结果
producer.send(producerRecord, new Callback() {
public void onCompletion(RecordMetadata recordMetadata, Exception e) {
if(e != null){
System.out.println(“消息发送失败:” + e);
}
if(recordMetadata != null){
System.out.println(“发送消息结果: " + “topic-” + recordMetadata.topic() + " | partition-”
- recordMetadata.partition() + " | offset-" + recordMetadata.offset());
}
自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。
深知大多数大数据工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!
因此收集整理了一份《2024年大数据全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友。
既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上大数据开发知识点,真正体系化!
由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新
如果你觉得这些内容对你有帮助,可以添加VX:vip204888 (备注大数据获取)
录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新**
如果你觉得这些内容对你有帮助,可以添加VX:vip204888 (备注大数据获取)
[外链图片转存中…(img-9XNto2aP-1712526148329)]