Exactly Once与常见消息队列事务原理

消息投递三种语义

消息投递概念一般用来描述流处理。流处理(streaming process),有时也被称为事件处理(event processing),可以被简洁地描述为对于一个无限的数据或事件序列的连续处理。一个流,处理应用可以由一个有向图,通常是一个有向无环图(DAG)来表达。每条边表示一个数据或事件流,而每个顶点表示使用应用定义好的逻辑来处理来自相邻边的数据或事件的算子。Sources消费外部数据/事件并将其注入到应用当中,Operator流处理中的具体逻辑/算子。

at-most-once 最多一次

在这里插入图片描述
类比UDP协议,不关心消息是否成功,只发送一次,“尽力而为”。

at-least-once 至少一次

在这里插入图片描述
数据/事件被保证会被应用中的所有算子至少处理一遍。消息第一次投递在算子2处理出现失败,会对数据/事件会被重放或重传; 二次重试处理超时,再次进行数据重放,结果是第二次和第三次重放最终的结果都是成功的。

exactly-once 精确一次

无论发生任何故障,都会确保数据/事件只被算子处理一次。实现exactly-once有两种典型的机制:

分布式快照/状态检查点(checkpointing)

在这里插入图片描述
机制里,流处理的每个应用算子都会周期性的checkpoint。如果发生故障,流处理中的应用算子会回滚到到最近一次全局一致处。在回滚过程中,所有的处理都会停止。流程会从最近一致处开始。

基于at-least-once去重

在这里插入图片描述
这种机制会为每个算子维护一份事务日志,来记录哪些数据/事件处理过了。

事务

事务是将多个操作当做一个操作,保证这个操作的原子性。事务成功则所有子操作全部成功,失败则所有子操作全部失败。
事务四特性(ACID):

  • Atomicity(原子性):一个事物是一个不可分割的整体,要么全成功,要么全失败;
  • Consistency(一致性):事务执行前后,数据状态要保持一致。商品A卖出1件,那么对应的库存也应该减1件;
  • Isolation(隔离性):多个事务并发执行,互不干扰;
  • Durablity(持久性):事务一旦提交,不能回滚。

本地事务

本地事务即局部事务。单机内,处理一组数据逻辑,这组操作要么全部成功,要么全部失败。比如:在同一数据库多次执行多条sql语句。本地事务不支持跨机器、跨数据库场景。

分布式事务

分布事务的解决方案有多种,2PC、TCC、本地消息表(异步确保)、Seata 2PC(改进)、MQ事务消息。本次重点说说MQ事务消息。

2PC

2PC(Two-phase commit protocol)二段式提交,是一种强一致性设计。2PC引入了一个协调者的角色,用来管理各参与者的提交和回滚,两个阶段分别是指准备和提交。
准备阶段协调着给参与者发送准备指令,即参与者需要完成除了提交之外的所有逻辑;
提交阶段如果参与者都反馈准备完成,那么协调者会向参与者发起提交事务指令。如果参与者反馈准备异常,那就发送回滚指令。
在这里插入图片描述

事务消息

流处理模式中,只有消息B被成功生产消息A才会被标识为已消费。
在这里插入图片描述

Kafka

Kafka的基本原理之前有文章介绍过,这里不再赘述原理
在这里插入图片描述

幂等实现

幂等即对接口多次调用的结果均一致。消息在处理失败时会进行重试,产生重复的消息。为实现幂等,Kafka引入了sequenceNumber(序列号)和producerID(PID)两个概念,其中PID对用户来说完全透明。每个生产者初始化时都会被分配一个PID。消息发送到每个分区都有一个唯一对应的从0开始自增的序列号,每发送一条消息就会将<PID,topic+partition>对应值+1。Broker的内部维护着对应的序列号,收到的消息只有序列号比Broker的序列号大1时,这条消息才会被接收。如果写入消息的序列号<Broker中的序列号,那么消息是重复消息,会被丢弃;如果消息系列号>Broker序列号+1,那么说明消息可能乱序,会抛出错误。

因为sequenceNumber是针对<PID,topic+partition>维度的,所以只能保证单个生产者会话中的单分区的幂等。

事务实现

事务实现建立在幂等之上。且事务支持跨分区,使用场景分为两种:

  • 生产者发送多条消息封装在一个事务中,多条消息要么全部发送成功、要么全部发送失败;
  • read-process-write模式,将消息写入和消息消费封装在一个事务中,即将消息的生产、消费、提交消费位移当做原子操作。在流处理场景下,上游产生消息写入kafka,经过处理后被其他服务成功消费,并更新消费进度。
事务特性和保证方式

Kafka通过事务可以保证跨生产者会话的消息幂等发送,以及跨生产者会话的事务恢复。

生产者角度
  • transactionID唯一对应一个PID,transactionID由用户填写,PID由系统生成
  • 为了保证有相同transactionID的新生产者能替换掉旧生产者,在创建消费者时,系统分配PID的同时也会分配producerEpoch。同一transactionID新增一个生产者,则对应的PID的producerEpoch+1
    同一个transactionID最多只能对应一个有效的生产者,即producerEpoch值最大。当某个生产者实例宕机,新的生产者实例可以保证任何未完成的旧事务要么成功commit,要么被终止abort。这样新的实例可以从正常的工作状态开始。
消费者角度
  • Kafka并不能保证已提交的事务中所有消息都能够被消费(如消费者可以访问任意offset的消息,可能存在消息遗漏)
  • 消费端参数IsolationLevel,支持两种事务隔离级别。ReadUncommitted:消费端可以收到未提交事务的消息;ReadCommitted:只能收到成功commit的消息。kafka会缓存这些消息直到CommitTxn或者AbortTxn。
终止TransactionID

Transaction Coordinator会周期性遍历PID和transactionID映射关系,如果transactionID没有正在进行中的事务,并且上一个事务的结束时间与现在时间差过大就会将这个删除。

代码示例
package kafka

import (
	"fmt"

	"github.com/Shopify/sarama"
)

var (
	version = ""
)

// NewTxnProducer 新增事务Producer
func NewTxnProducer(brokers []string) (*sarama.AsyncProducer, error) {
	version, err := sarama.ParseKafkaVersion(version)
	if err != nil {
		fmt.Printf("Error parsing Kafka version: %v", err)
		return nil, err
	}

	config := sarama.NewConfig()
	config.Version = version
	// 幂等
	config.Producer.Idempotent = true
	config.Producer.Return.Errors = false
	// 等待所有副本提交成功
	config.Producer.RequiredAcks = sarama.WaitForAll
	// 选择要发送消息的分区,默认为散列
	config.Producer.Partitioner = sarama.NewRoundRobinPartitioner
	// 每次重试之间等待集群稳定的时间
	config.Producer.Transaction.Retry.Backoff = 10
	// 事务中用于识别生产者的实例
	config.Producer.Transaction.ID = "txn_producer"
	// 一个连接在发送阻塞之前,允许有多少个未完成的请求(默认为5)。
	config.Net.MaxOpenRequests = 1

	producer, err := sarama.NewAsyncProducer(brokers, config)
	if err != nil {
		fmt.Printf("NewAsyncProducer err: %v", err)
		return nil, err
	}

	return &producer, nil
}

// SendMessage 发送消息
func SendMessage(producer sarama.AsyncProducer, msg string) error {

	// 开始事务
	err := producer.BeginTxn()
	if err != nil {
		fmt.Printf("BeginTxn err: %v", err)
		return err
	}

	// 发送消息
	producerMessage := &sarama.ProducerMessage{
		Topic: "topic",
		Key:   nil,
		Value: sarama.StringEncoder(msg),
	}
	producer.Input() <- producerMessage

	// 提交事务
	err = producer.CommitTxn()
	if err != nil {
		fmt.Printf("CommitTxn err: %v,msg: %s", err, msg)

		if producer.TxnStatus()&sarama.ProducerTxnFlagFatalError != 0 {
			fmt.Printf("need to recreate producer")
			return err
		}

		if producer.TxnStatus()&sarama.ProducerTxnFlagAbortableError != 0 {
			err = producer.AbortTxn()
			if err != nil { // retry
				fmt.Printf("Producer: unable to abort transaction: %+v", err)
				return err
			}

		}

		// 再次尝试提交
		err = producer.CommitTxn()
		if err != nil {
			fmt.Printf("CommitTxn err: %v,msg: %s", err, msg)
			return err
		}
	}

	return nil
}

Pulsar

Pulsar基础之前的文章有介绍过,这里不再赘述原理
在这里插入图片描述

Pulsar事务支持端到端的流处理,即保证数据写入后不丢失、数据不会被重复处理。使用事务需要Pulsar 2.8.0 或更高版本,目前事务API仅支持JAVA客户端。

基本概念
  • Transaction coordinator 事务管理器,作用域在整个事务处理周期。如处理超时事务将其置为失效。
  • Transaction Log,事务日志,用来存放事务处理相关的元数据。如果事务管理器中途宕机,可以通过事务日志中的数据恢复。
  • Transaction buffer,事务缓存,存储未提交的事务消息。一个事务在未提交之前用户是不可见的,事务提交后会将消息发送到对应的消息分区。如果消息过期或者手动abort,消息会从缓存中删除。
  • Transaction ID ,事务ID,长度是128位,高16位是对应的事务管理器序列号,后面位均为标识事务的自增位。有了事务ID能够轻松的定义事务事务问题。
  • Pending acknowledge state​,挂起确认状态。在消息被确定提交之前,其他的事务无法更改这条消息的状态。
事务实现

在这里插入图片描述

  • 开启事务,申请事务ID:客户端通过coordinator获取事务ID,服务器会将事务ID进行记录。
  • 发送事务消息:提前把将要发送到分区的消息记录在Transaction Log中,确保消息不被丢失、利于管理。再将消息按照普通流程写入对应Broker(Produce)并持久化到Data Log。
  • 新增订阅:新增一个Consumer来订阅Producer,订阅信息通过coordinator记录在Transaction Log,并将订阅结果告知Producer。客户端把新增订阅告知Broker(ACK),并持久化在Pending ack log中。
  • 结束事务:客户端通过coordinator发起结束事务的请求,并在Transaction Log中进行记录。coordinator分别告知Broker(ACK)、Broker(Produce)要提交事务,两个Broker会将当前的数据保存在Log中。

coordinator事务操作的proxy,任何事务相关的请求都要经过coordinator。事务的每步操作都会有Log记录并且有对应的状态。这样可以保证执行事务过程中的任何步骤、任何模块宕机消息都不会丢失,详细的日志也为重启提供了完整的数据。

RocketMQ

RocketMQ基础之前的文章有介绍过,这里不再赘述原理
在这里插入图片描述

事务实现

在这里插入图片描述

  1. 客户端Producer发送事务消息
  2. 收到服务器返回的确认消息。此时消息是半事务消息,消息处于不可投递状态
  3. 执行本地事务逻辑
  4. 客户端Producer根据本地事务执行状态向服务器请求commit或rollback,
    - 服务端确认结果commit,半事务消息转为可投递,并进行投递
    - 服务端确认结果rollback:回滚事务,将半事务消息清除
  5. 如因其他情况,服务端迟迟没有收到客户端请求或服务端收到的请求数据异常,在一段时间后,服务端会对客户端Producer发起回查。
代码示例
package rocketmq

import (
	"context"
	"fmt"
	"sync"
	"sync/atomic"
	"time"

	rocketmq "github.com/apache/rocketmq-client-go/v2"
	"github.com/apache/rocketmq-client-go/v2/primitive"
	"github.com/apache/rocketmq-client-go/v2/producer"
)

// DemoListener 测试demo使用
type DemoListener struct {
	localTrans       *sync.Map
	transactionIndex int32
}

// NewDemoListener 创建事务检查对象
func NewDemoListener() *DemoListener {
	return &DemoListener{
		localTrans: new(sync.Map),
	}
}

// CheckLocalTransaction 检查本地事务
func (dl *DemoListener) CheckLocalTransaction(msg *primitive.MessageExt) primitive.LocalTransactionState {
	fmt.Printf("%v msg transactionID : %v\n", time.Now(), msg.TransactionId)
	v, existed := dl.localTrans.Load(msg.TransactionId)
	if !existed {
		fmt.Printf("unknow msg: %v, return Commit", msg)
		return primitive.CommitMessageState
	}

	// 校验本地事务状态
	state := v.(primitive.LocalTransactionState)
	switch state {
	case 1:
		fmt.Printf("checkLocalTransaction COMMIT_MESSAGE: %v\n", msg)
		return primitive.CommitMessageState
	case 2:
		fmt.Printf("checkLocalTransaction ROLLBACK_MESSAGE: %v\n", msg)
		return primitive.RollbackMessageState
	case 3:
		fmt.Printf("checkLocalTransaction unknow: %v\n", msg)
		return primitive.UnknowState
	default:
		fmt.Printf("checkLocalTransaction default COMMIT_MESSAGE: %v\n", msg)
		return primitive.CommitMessageState
	}
}

// ExecuteLocalTransaction 执行本地事务逻辑
// msg: 事务消息
// return: 本地事务状态
func (dl *DemoListener) ExecuteLocalTransaction(msg *primitive.Message) primitive.LocalTransactionState {
	nextIndex := atomic.AddInt32(&dl.transactionIndex, 1)
	fmt.Printf("nextIndex: %v for transactionID: %v\n", nextIndex, msg.TransactionId)
	status := nextIndex % 3
	dl.localTrans.Store(msg.TransactionId, primitive.LocalTransactionState(status+1))

	fmt.Printf("dl")
	return primitive.UnknowState
}

// NewRocketmqTxnProducer 新增事务Producer
func NewRocketmqTxnProducer() (rocketmq.TransactionProducer, error) {
	producer, err := rocketmq.NewTransactionProducer(
		NewDemoListener(),
		producer.WithNsResolver(primitive.NewPassthroughResolver([]string{"127.0.0.1:9876"})),
		producer.WithRetry(1),
	)
	if err != nil {
		fmt.Printf("NewTransactionProducer err: %v", err)
		return nil, err
	}
	return producer, nil
}

// SendRocketmqMessage 发送消息
func SendRocketmqMessage(producer rocketmq.TransactionProducer, topic, msg string) error {
	result, err := producer.SendMessageInTransaction(
		context.Background(), primitive.NewMessage(topic, []byte(msg)))
	if err != nil {
		fmt.Printf("SendMessageInTransaction err: %v,result: %s", err, result.String())
		return err
	}

	err = producer.Shutdown()
	if err != nil {
		fmt.Printf("Shutdown err: %v", err)
		return err
	}

	return nil
}

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
Kafka是一个分布式的基于发布订阅模式的消息队列,主要用于大数据实时处理。在Kafka中,消息是以topic进行分类的,生产者生产消息,消费者消费消息都是面向topic的。[2] 在Kafka 0.11版本之后,引入了幂等性机制,配合acks=-1的at least once语义,实现了从producer到broker的exactly once语义。这意味着Kafka能够提供精确一次交付的功能,保证消息不会被重复处理。 此外,Kafka有效地支持精确一次交付。对于Kafka Streams中的数据传输和处理,事务性生产者/消费者是可用的。而对于其他目的地系统的精确一次交付,通常需要与Kafka进行合作。Kafka提供了偏移量,这使得实现精确一次交付成为可能。默认情况下,Kafka保证至少进行一次传递,并且允许用户通过禁用生产者的重试并在消费者中提交偏移来实现最多一次传递的语义。 综上所述,Kafka消息队列原理主要包括基于发布订阅模式的分类消息、幂等性机制、精确一次交付等特性。<span class="em">1</span><span class="em">2</span><span class="em">3</span><span class="em">4</span> #### 引用[.reference_title] - *1* *2* *3* [kafka基本原理](https://blog.csdn.net/khuangliang/article/details/107776046)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *4* [消息队列之-Kafka原理讲解](https://blog.csdn.net/wanglei_storage/article/details/82692413)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值