Java编程 — Kafka的基本操作

Java编程操作Kafka


一、导入Maven Kafka POM依赖

<repositories><!-- 代码库 -->
    <repository>
        <id>central</id>
        <url>http://maven.aliyun.com/nexus/content/groups/public//</url>
        <releases>
            <enabled>true</enabled>
        </releases>
        <snapshots>
            <enabled>true</enabled>
            <updatePolicy>always</updatePolicy>
            <checksumPolicy>fail</checksumPolicy>
        </snapshots>
    </repository>
</repositories>

<dependencies>
  <!-- kafka客户端工具 -->
    <dependency>
        <groupId>org.apache.kafka</groupId>
        <artifactId>kafka-clients</artifactId>
        <version>2.4.1</version>
    </dependency>
    <!-- 工具类 -->
    <dependency>
        <groupId>org.apache.commons</groupId>
        <artifactId>commons-io</artifactId>
        <version>1.3.2</version>
    </dependency>
<!-- SLF桥接LOG4J日志 -->
    <dependency>
        <groupId>org.slf4j</groupId>
        <artifactId>slf4j-log4j12</artifactId>
        <version>1.7.6</version>
    </dependency>
        <!-- SLOG4J日志 -->
    <dependency>
     <groupId>log4j</groupId>
        <artifactId>log4j</artifactId>
        <version>1.2.16</version>
    </dependency>
</dependencies>
<build>
    <plugins>
        <plugin>
            <groupId>org.apache.maven.plugins</groupId>
            <artifactId>maven-compiler-plugin</artifactId>
            <version>3.7.0</version>
            <configuration>
                <source>1.8</source>
                <target>1.8</target>
            </configuration>
        </plugin>
    </plugins>
</build>

二、导入log4j.properties

将log4j.properties配置文件放到resource 文件夹中

log4j.rootLogger=INFO,stdout
log4j.appender.stdout=org.apache.log4j.ConsoleAppender 
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout 
log4j.appender.stdout.layout.ConversionPattern=%5p - %m%n

三.创建包cn.itcast.kafka,并创建KafkaProducerTest类。

四.代码开发

1.创建用于连接Kafka的Properties配置

Properties props = new Properties();
props.put("bootstrap.servers", "192.168.88.100:9092");
# 确保主分区和副本都同步 再返回结果
props.put("acks", "all");
# 序列化器 数据是以<key,value>形式进行传输 指定是以什么样的序列化的方式进行传输
props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");

2.创建生产者对象KafkaProducer

3.调用send 发送100条消息到指定 的Topic test 并且获取返回值Furture,该对象封装了返回值

4.关闭生产者

	代码示例:
public class KafkaProducerTest {
	public static void main(String[] args) {
		//1.创建用于连接Kafka的Properties配置
		Properties props = new Properties();
		props.put("bootstrap.servers", "192.168.88.100:9092");
		# 确保主分区和副本都同步 再返回结果
		props.put("acks", "all");
		# 序列化器 数据是以<key,value>形式进行传输 指定是以什么样的序列化的方式进行传输
		props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
		props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
		
		//2.创建生产者对象KafkaProducer
		KafkaProducer<String, String> producer = new KafkaProducer<String, String>(pros);
		//3.调用send 发送1-100条消息指定Topic
		for(int i = 0; i < 100; ++i) {
			try{
			//获取返回值Future 该对象封装了返回值
			Future<RecordMetadata> future = producer.send(new ProducerRecord<String, String>("test", null, i + ""));
			//调用一个Future.get()方法等待响应
			future.get();
			}catch (InterruptedException e) {
			  e.printStackTrace();
			}
		}
		//5.关闭生产者
		producer.close();
	}
	}

5.从Kafka的topic中消费消息

5.1 需求

从test Topic ,将消息都消费,并且记录的offer、key,value都打印出来

5.2 准备工作

在cn.itcast.kafka包下创建KafkaConsumerTest类

5.3 创建kafka消费者配置

Properties props = new Properties();
//连接的主机
props.setProperty("bootstrap.servers", "node1.itcast.cn:9092");
//消费者组(可以使用消费者组将若干个消费者组织到一起,共同消费kafka中的offer数据)
//每一个消费者需要制定一个消费者组,若消费者的组名是一样的,就表示这几个消费者是一个组
props.setProperty("group.id", "test");
//自动提交offer
props.setProperty("enable.auto.commit", "true");
//自动提交offer的时间间隔
props.setProperty("auto.commit.interval.ms", "1000");
//制定<key,value>反序列化的方式
props.setProperty("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
props.setProperty("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");

5.4 创建kafka消费者

5.5 订阅需要消费的主题

5.6 使用while循环 不断从主题中拉取消息

5.7 将记录(record)的offer、key、value 都打印出来

	代码示例:
public class KafkaConsumerTest {
	public static void main(String[] args) {
		//1.创建用于连接Kafka的Properties配置
		Properties props = new Properties();
		props.setProperty("bootstrap.servers", "node1.itcast.cn:9092");
		//消费者组(可以使用消费者组将若干个消费者组织到一起,共同消费kafka中的offer数据)
		//每一个消费者需要制定一个消费者组,若消费者的组名是一样的,就表示这几个消费者是一个组
		props.setProperty("group.id", "test");
		//自动提交offer
		props.setProperty("enable.auto.commit", "true");
		//自动提交offer的时间间隔
		props.setProperty("auto.commit.interval.ms", "1000");
		//制定<key,value>反序列化的方式
		props.setProperty("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
		props.setProperty("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
		
		//2.创建消费者对象KafkaConsumer
		KafkaConsumer<String, String> consumer= new KafkaConsumer<String, String>(pros);
		//3.订阅消息主题 制定消息主题从哪个topic中拉取数据
		consumer.subscribe(Array.asList('test"));
		
        kafkaConsumer.subscribe(Arrays.asList("test-topic"));

		 while(true) {
		  //4.消费者一次可以拉取一批数据
		   ConsumerRecords<String, String> consumerRecords = kafkaConsumer.poll(Duration.ofSeconds(5));
		     // 5、将记录(ConsumerRecords)的offset、key、value都打印出来
            for(ConsumerRecord<String, String> consumerRecord : consumerRecords) {
                // 主题名字
                String topic = consumerRecord.topic();
                // offset
                long offset = consumerRecord.offset();
                // key / value
                String key = consumerRecord.key();
                String value = consumerRecord.value();
 
                System.out.println("topic:" + topic + " offset:" + offset + " key:" + key + " value" + value);
            }
        }
    }

5.异步使用带有回调函数方法生产消息

如果我们想获取生产者消息是否成功,或者成功生产消息到kafka之后,执行其他一些具体的操作,这时候我们能够使用回调函数来发送消息;

需求:
在出现异常时候,能够及时打印异常信息
在发送消息成功时候,可以打印kafka的topic的名称,分区id,offset

使用匿名内部类实现Callback接口,该接口表示kafka服务器响应给客户端,会自动调用onCompletion()方法
metadata:消息元数据(属于哪个partition,哪个topic,对应的offset 是什么)
exception:这个对象封装了kafka生产消息的异常信息,如果为null,表示发送成功,如果不为空,表示消息生产失败


public class KafkaProducerTest {
	
    public static void main(String[] args) throws ExecutionException, InterruptedException {
		//创建连接kafka服务器的配置文件
		Properties props = new Properties();
        props.put("bootstrap.servers", "127.0.0.1:9092");
        props.put("acks", "all");
        props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
        props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");

		//创建kafka消息生产者对象
		kafkaProducer<String,String> kafkaProducer = new kafkaProducer<String,String>(props);

		//发送1-100条消息到指定的topic 中
        for (int i = 0; i < 100; i++) {
            // 方式1:使用同步等待方式发送消息
            // 构建一条消息ProducerRecord
//          ProducerRecord<String, String> producerRecord = new ProducerRecord<>("test-topic", null, i + "");
//          ProducerRecord<String, String> producerRecord = new ProducerRecord<>("test-topic", null, i + "");
			//调用Future.get()方法等待响应
	// 	feture.get();
//          System.out.println("第" + i + "条消息写入成功!");

		//方式二: 使用异步回调的方式发送消息
		ProducerRecord<String,String> producerRecord = new ProducerRecord<String,String>("test-topic", null, i + "");
		 kafkaProducer.send(producerRecord, new Callback() {
                @Override
                public void onCompletion(RecordMetadata recordMetadata, Exception e){
                	//判断消息是否发送成功
                	if(e == null){
                		//消息发送成功
                		//主题
                		String topic = recordMetadata.topic(); 
                		// 分区id
                        int partition = recordMetadata.partition();
                        // 偏移量
                        long offset = recordMetadata.offset();
                        System.out.println("topic:" + topic + " 分区id:" + partition + " 偏移量:" + offset);
                         // 发送失败
                        System.out.println("生产消息出现异常!");
                        // 打印异常消息
                        System.out.println(e.getMessage());
                        // 打印调用栈
                        System.out.println(e.getStackTrace());

                	}
                }
		 });
			
		}
		//关闭调用者
		kafkaProducer.close();
	}
}
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值