golang消息队列kafka

目录

1、kafka的生产者

2、kafka使用消费组方式处理数据

3、kafka消费者处理数据

4、kafka相关命令


传统的消费模型
消息队列的消息被消费了,数据则从队列里删除,并且下游的多个 consumer 都要抢这条消息。
发布/订阅模型允许消息被多个 consumer 消费,但是订阅者必须订阅所有分区
kafka为规避上面的缺点,引入了 消费组 模型。

kafka消费组模型
比如订阅了两个主题,每个主题的分区是2,则消费组启动 4 个消费实例,每个消费实例对应一个分区,这样避免了 消费实例的竞争。同时也避免了发布/订阅模型 消费实例必须订阅所有分区的问题。

1、kafka的生产者

sarama提供异步生产者(AsyncProducer)同步生产者(SyncProducer)

  • 异步生产者用管道接受信息,并且在背后异步地生产消息。异步生产者会尽可能的提高效率,是sarama推荐的选择
  • 同步生产者提供一个阻塞的方法,直到消息被确认成功生产。显然效率上肯定不如异步生产者,且在某些配置中,确认的消息仍会丢失,SyncProducer 是在 AsyncProducer 基础上加sync.WaitGroup条件限制实现的。

相关介绍:

sarama Kafka客户端生产者与消费者梳理 - 平凡键客 - 博客园

1.1、同步方式sarama.NewSyncProducer

package main

import (
	"fmt"
	"github.com/Shopify/sarama"
)

func main() {
	config := sarama.NewConfig()
	config.Producer.RequiredAcks = sarama.WaitForAll          // 发送完数据需要leader和follow都确认, 等待服务器所有副本都保存成功后的响应
	config.Producer.Partitioner = sarama.NewRandomPartitioner // 随机向partition发送消息
	// 是否等待成功和失败后的响应,只有上面的RequireAcks设置不是NoReponse这里才有用.
	config.Producer.Return.Successes = true // 成功交付的消息将在success channel返回
	config.Producer.Return.Errors = true    // 成功交付的消息将在errors channel返回
	// sasl认证
	config.Net.SASL.Enable = false
	//config.Net.SASL.User = "admin"
	//config.Net.SASL.Password = "admin"
	
	// 连接kafka
	producer, err := sarama.NewSyncProducer([]string{"192.168.103.6:9092"}, config)
	if err != nil {
		fmt.Println("producer close, err:", err)
		return
	}

	// 关闭生产者
	defer producer.Close()

	// 构造⼀个消息
	msg := &sarama.ProducerMessage{}
	msg.Topic = "ffcs"
	for i := 0; i < 20; i++ {
		msg.Value = sarama.StringEncoder(fmt.Sprintf("helloV%d kafka", i))
		// 发送消息
		pid, offset, err := producer.SendMessage(msg)
		if err != nil {
			fmt.Println("send message failed,", err)
			return
		}
		fmt.Printf("pid:%v offset:%v\n", pid, offset)
	}
}

1.2、异步方式sarama.NewASyncProducer

package main

import (
	"fmt"
	"github.com/Shopify/sarama"
	"time"
)

func main() {
	config := sarama.NewConfig()
	config.Producer.RequiredAcks = sarama.WaitForAll          // 发送完数据需要leader和follow都确认, 等待服务器所有副本都保存成功后的响应
	config.Producer.Partitioner = sarama.NewRandomPartitioner // 随机向partition发送消息
	// 是否等待成功和失败后的响应,只有上面的RequireAcks设置不是NoReponse这里才有用.
	//config.Producer.RequiredAcks = sarama.NoResponse
	config.Producer.Return.Successes = true // 成功交付的消息将在success channel返回
	config.Producer.Return.Errors = true    // 成功交付的消息将在errors channel返回
	// sasl认证
	config.Net.SASL.Enable = false
	//config.Net.SASL.User = "admin"
	//config.Net.SASL.Password = "admin"

	// 连接kafka
	producer, err := sarama.NewAsyncProducer([]string{"192.168.103.6:9092"}, config)
	if err != nil {
		fmt.Println("producer close, err:", err)
		return
	}

	// 关闭生产者
	defer producer.Close()

	//循环判断哪个通道发送过来数据.
	fmt.Println("start goroutine")
	go func(p sarama.AsyncProducer) {
		for {
			select {
			case <-p.Successes():
				fmt.Println("success")
			case fail := <-p.Errors():
				fmt.Println("err: ", fail.Err)
			}
		}
	}(producer)

	// 构造⼀个消息
	msg := &sarama.ProducerMessage{}
	msg.Topic = "ffcs"
	
	for i := 0; i < 20; i++ {
		msg.Value = sarama.StringEncoder(fmt.Sprintf("helloo00000000oV%d kafka", i))
		// 发送消息
		producer.Input() <- msg
	}
	time.Sleep(10 * time.Second)
}

2、kafka使用消费组方式处理数据

package main

import (
	"context"
	"fmt"
	"github.com/Shopify/sarama"
	"log"
	"sync"
)

type Consumer struct {
	Hosts        []string
	Topics       []string
	GroupID      string
	ConsumerName string
}

func main() {
	// 消费者consumer1
	consumer := &Consumer{
		Hosts:        []string{"192.168.103.6:9092"},
		Topics:       []string{"ffcs"},
		GroupID:      "topicname-group",
		ConsumerName: "consumer1",
	}

	wg := &sync.WaitGroup{}
	wg.Add(1)
	go startConsumer(consumer)
	wg.Wait()
}

// 实现  github.com/Shopify/sarama/consumer_group.go/ConsumerGroupHandler  这个接口
// Setup 执行在 获得新 session 后 的第一步, 在 ConsumeClaim() 之前
func (consumer *Consumer) Setup(_ sarama.ConsumerGroupSession) error {
	return nil
}

// Cleanup 执行在 session 结束前, 当所有 ConsumeClaim goroutines 都退出时
func (consumer *Consumer) Cleanup(_ sarama.ConsumerGroupSession) error { return nil }

// ConsumeClaim kafka具体的消费逻辑
func (consumer *Consumer) ConsumeClaim(session sarama.ConsumerGroupSession, claim sarama.ConsumerGroupClaim) error {
	for message := range claim.Messages() {
		log.Printf("ConsumerName:%s Message claimed: value = %s, topic = %s,partition=%d\n", consumer.ConsumerName, string(message.Value), message.Topic, message.Partition)
		// 将消息标记为已使用
		session.MarkMessage(message, "")
		//session.Commit()
	}
	return nil
}

func startConsumer(consumer *Consumer) {
	config := sarama.NewConfig()
	config.Version = sarama.V0_11_0_2
	// 是否等待成功和失败后的响应,只有上面的RequireAcks设置不是NoReponse这里才有用.
	//config.Producer.RequiredAcks = sarama.NoResponse
	config.Producer.Return.Successes = true // 成功交付的消息将在success channel返回
	config.Producer.Return.Errors = true    // 成功交付的消息将在errors channel返回
	//config.Consumer.Offsets.AutoCommit.Enable = false // 禁用主动提交,改为手动, 需要执行MarkMessage(msg,"")与Commit()
	config.Consumer.Offsets.AutoCommit.Enable = true // 开启主动提交,须要手动调用MarkMessage(msg,"")
	config.Net.SASL.Enable = false
	//config.Net.SASL.User = "admin"
	//config.Net.SASL.Password = "admin"

	consumerGroup, err := sarama.NewConsumerGroup(consumer.Hosts, consumer.GroupID, config)
	if err != nil {
		fmt.Printf("NewConsumerGroup create consumer error %s\n", err.Error())
		return
	}

	//go func() {
	//	for err := range consumerGroup.Errors() {
	//		fmt.Println("consumerGroup errors : ", err)
	//	}
	//}()

	for {
		// 启动kafka消费组模式,消费的逻辑在上面的 ConsumeClaim 这个方法里
		if err := consumerGroup.Consume(context.Background(), consumer.Topics, consumer); err != nil {
			fmt.Printf("Error from consumer: %v\n", err)
		}
	}
}

3、kafka消费者处理数据

package main

import (
	"fmt"
	"github.com/Shopify/sarama"
	"sync"
)

func main() {
	config := sarama.NewConfig()
	config.Version = sarama.V0_11_0_2
	config.Consumer.Return.Errors = true
	config.Consumer.Offsets.AutoCommit.Enable = true
	config.Net.SASL.Enable = false
	//config.Net.SASL.User = "admin"
	//config.Net.SASL.Password = "admin"

	consumer, err := sarama.NewConsumer([]string{"192.168.103.6:9092"}, config)
	if err != nil {
		fmt.Printf("consumer_test create consumer error %s\n", err.Error())
		return
	}

	partitionList, err := consumer.Partitions("ffcs") // 根据topic取到所有的分区
	if err != nil {
		fmt.Printf("fail to get list of partition:err%v\n", err)
		return
	}
	defer consumer.Close()
	// 没有配置groupID的消费者, 当服务重启后会消费历史的数据
	kafkaConsumer := sync.WaitGroup{}
	for partition := range partitionList {
		kafkaConsumer.Add(1)
		go kafkaConsumerMsg(consumer, partition, kafkaConsumer)
	}
	kafkaConsumer.Wait()
}

func kafkaConsumerMsg(consumer sarama.Consumer, partition int, kafkaConsumer sync.WaitGroup) {
	defer kafkaConsumer.Done()
	// sarama.OffsetOldest消费历史数据、sarama.OffsetNewest重新接收新的消费数据
	partitionConsumer, err := consumer.ConsumePartition("ffcs", int32(partition), sarama.OffsetOldest) // 针对每个分区创建一个分区消费者
	if err != nil {
		fmt.Printf("try create partition_consumer error %s\n", err.Error())
		return
	}
	defer partitionConsumer.Close()
	for {
		select {
		case msg := <-partitionConsumer.Messages(): // 阻塞直到有值发送过来,然后再继续等待
			fmt.Printf("msg offset: %d, partition: %d, timestamp: %s, value: %s\n",
				msg.Offset, msg.Partition, msg.Timestamp.String(), string(msg.Value))
			//time.Sleep(1 * time.Second)
		case err := <-partitionConsumer.Errors():
			fmt.Printf("err :%s\n", err.Error())
		}
	}
}

4、kafka相关命令

4.1 Topic 相关
创建名为 test 的 Topic。

bin/kafka-topics.sh -zookeeper localhost:2181 --create --partitions 5 --replication-factor 1 --topic test

–partitions:分区数

–replication-factor:副本数

查询 Topic 列表

bin/kafka-topics.sh --list --zookeeper localhost:2181

删除名为 test 的 Topic

bin/kafka-topics.sh --delete --zookeeper localhost:2181  --topic test

配置 delete.topic.enable 为 true,这样才能删除 topic

查询 Topic 的信息

bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic test

如果未指定 topic 则输出所有 topic 的信息

4.2 消息相关
生产者发送消息

bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test

消费者查询消息

bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test --from-beginning --group t1

–from-beginning:表示从头开始接收数据

–group:指定消费者组

查询名为 test 的 Topic 的消息。

bin/kafka-run-class.sh kafka.tools.GetOffsetShell --broker-list localhost:9092 --topic test --time -1

bin/kafka-run-class.sh kafka.tools.GetOffsetShell --broker-list localhost:9092 --topic test --time -2

–time-1 表示要获取指定 topic 所有分区当前的最大位移(历史总消息数),–time-2 表示获取当前最早位移(被消费的消息数),两个命令的输出结果相减便可得到所有分区当前的消息总数。

输出示例:test:0:3

第一个数字0表示分区,第二个数字3表示偏移量。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
[第一例 留言板][第二例 gRPC使用例子][第三例 基于go-micro做服务注册和服务发现][第四例 聊天室][第五例 工具库][第六例 原生sql操作][第七例 sqlx操作][第八例 Redis数据库(gomodule/redigo)][第九例 Redis消息队列][第十例 Redis集群连接][十一例 Zookeeper操作][十二例 Kafka操作][十三例 NSQ操作][十四例 二分查找][十五例 交换排序 - 冒泡排序][十六例 插入排序 - 直接插入排序][十七例 插入排序 - 希尔排序][十八例 交换排序 - 快速排序][十九例 算法求解应用][二十例 pprof性能分析][二一例 CPU信息采集][二二例 Heap信息采集][二三例 Http信息采集][二四例 单元测试(功能测试)][二五例 基准测试(压力测试/性能测试)][二六例 gdb调试][二七例 json序列化和反序列化][二八例 protobuf序列化和反序列化][二九例 包管理工具 go vendor][三十例 包管理工具 go mod][三一例 zip压缩][三二例 交叉编译][三三例 线上环境部署][三四例 实现固定周期维护][三五例 聊天室(精简版)][三六例 并发安全字典][三七例 导出Excel表格][三八例 导出CSV表格][三九例 聊天室(高并发)][四十例 JWT (Json Web Token)][四一例 雪花算法生成 Id][四二例 对称加密 AES][四三例 非对称加密 RSA][四四例 签名算法 SHA1][四五例 数据库操作 gorm][四六例 数据库操作 gorm 集合][四七例 RSA(MD5WithRSA 算法)签名和验签方式][四八例 线上部署脚本][四九例 Elasticsearch][五十例 对象池]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值