分布式事务解决方案 Seata 的原理个人理解以及 demo 配置

官方文档:https://seata.io/zh-cn/docs/user/quickstart.

原理部分

个人理解:

TC是全局事务管理机制,负责Xid的产生和管理下面各个服务
TM负责全局事务的发起,简单的来说就是调用带有全局事务注解的接口,调用这个接口就是TM

RM是被调用方,执行本地事务


TM先发送一个请求给TC,TC产生唯一ID XID号给TM,TM之后代理修改RPC框架的连接的请求,让其之后调用其他服务时携带XID到RM中。
RM拿到XID后产生一个branchIdId,开始执行本地事务,默认机制是首先会把本地事务里的数据都用全局锁(默认不可读等级)锁定住(涉及Seata的全局事务隔离等级),其他全局事务拿不到全局锁就无法操作这些数据,进入阻塞状态,通过不简单的循环反复尝试拿到全局锁,超时则直接全局回滚(同一全局事务情况呢?根据行锁机制,应该也是需要排队等的),之后RM执行自己的业务逻辑代码,并且把所有改变的数据都通过undo_log进行记录。
记录的内容主要是XId(表明自己是哪个全局事务里的),branchId表明自己是全局事务里的哪个RM分支,然后就是json数据保存 修改前和修改后的数据,这个保存的临时数据undo_log可以直接看到。
本地业务走完了,就会提交本地事务,此时数据库里的数据已经改变,其他RM可以读到改后的数据,但是其他TX因为没有释放全局锁无法读取,各个RM先后执行完本地事务,相继提交,如果有任何一个RM发生了错误,会根据Xid,branchId锁定undo_log里的日志并且进行数据恢复,恢复到操作之前的状态后释放全局锁,其他TX可以进行读取,如果没有发生错误,就执行全局事务提交。


之前有个问题:就是这个全局锁,全局事务B能否读取到全局事务A里的数据?
这个是一个疑问,如果可以,那么全局事务B可能会读到A的还没提交的数据,因为A可能
之后又进行了回滚,导致B一开始读到的数据就是错的,全局事务A里的各个服务竞争锁这点没什么,反正出错了都会恢复,但是全局事务B的却不一定会回滚
看了官方文档,官方是以两个全局事务进行举例的,那么我可以理解成:这个全局锁是用作全局事务的,同一全局事务里的各个服务他们之间通过行锁进行先后操作

 

所以用一句话来概括就是:Seata实现原理是sql反补

以MySql为例子,5.7版本后支持分布式锁,Seata在此原来就有的行锁机制上,又添加完善了全局锁,

然后引入了全局事务的事务隔离级别(之前是本地事务隔离级别),这个针对的是各个全局服务之间的隔离关系,和同一个全局事务里无关。

 

简单实现

最近项目微服务之间需要加入分布式事务,总结一下现有的技术,可以大致分为:cap为原理的LCN,Seata;base原理的MQ解决方案。

结合本项目,因为互相调用的接口比较多,而且接口数量比较多,更偏向与对业务的0侵入类型的,LCN目前停止维护,Seata由阿里大厂集成,成了主流。

Seata官网上有源码,可以直接引入项目中,这里我为了节省项目结构直接用服务端Release版了,这里记录一下刚配置好的方法。

下载地址:https://github.com/seata/seata/releases/tag/v1.1.0

装的时候确保JAVA环境正确,之前我的JRE放错位置了导致后来客户端连不上服务端。

下载完解压,主要需要修改的是conf目录下的两个配置文件:file.confi和registry.conf

file.conf配置方法:

------------------------------------------------------------------------------------------------------------------------------------------------------------------------
## transaction log store, only used in seata-server
store {
  ## store mode: file、db
  mode = "db"

  ## file store property
  file {
    ## store location dir
    dir = "sessionStore"
    # branch session size , if exceeded first try compress lockkey, still exceeded throws exceptions
    maxBranchSessionSize = 16384
    # globe session size , if exceeded throws exceptions
    maxGlobalSessionSize = 512
    # file buffer size , if exceeded allocate new buffer
    fileWriteBufferCacheSize = 16384
    # when recover batch read size
    sessionReloadReadSize = 100
    # async, sync
    flushDiskMode = async
  }

  ## database store property
  db {
    ## the implement of javax.sql.DataSource, such as DruidDataSource(druid)/BasicDataSource(dbcp) etc.
    datasource = "dbcp"
    ## mysql/oracle/h2/oceanbase etc.
    dbType = "mysql"
    driverClassName = "com.mysql.jdbc.Driver"
    url = "jdbc:mysql://127.0.0.1:3306/seata?useUnicode=true&characterEncoding=UTF-8"
    user = "root"
    password = "root"
    minConn = 1
    maxConn = 10
    globalTable = "global_table"
    branchTable = "branch_table"
    lockTable = "lock_table"
    queryLimit = 100
  }
}

------------------------------------------------------------------------------------------------------------------------------------------------------------------------

红色部分是需要注意的,另外需要在上面url里的数据库创建三个表,目前我还没搞懂这表示干嘛的,应该是当做中间件数据存储用的吧。

sql语句:

-- -------------------------------- The script used when storeMode is 'db' --------------------------------
-- the table to store GlobalSession data
CREATE TABLE IF NOT EXISTS `global_table`
(
    `xid`                       VARCHAR(128) NOT NULL,
    `transaction_id`            BIGINT,
    `status`                    TINYINT      NOT NULL,
    `application_id`            VARCHAR(32),
    `transaction_service_group` VARCHAR(32),
    `transaction_name`          VARCHAR(128),
    `timeout`                   INT,
    `begin_time`                BIGINT,
    `application_data`          VARCHAR(2000),
    `gmt_create`                DATETIME,
    `gmt_modified`              DATETIME,
    PRIMARY KEY (`xid`),
    KEY `idx_gmt_modified_status` (`gmt_modified`, `status`),
    KEY `idx_transaction_id` (`transaction_id`)
) ENGINE = InnoDB
  DEFAULT CHARSET = utf8;

-- the table to store BranchSession data
CREATE TABLE IF NOT EXISTS `branch_table`
(
    `branch_id`         BIGINT       NOT NULL,
    `xid`               VARCHAR(128) NOT NULL,
    `transaction_id`    BIGINT,
    `resource_group_id` VARCHAR(32),
    `resource_id`       VARCHAR(256),
    `branch_type`       VARCHAR(8),
    `status`            TINYINT,
    `client_id`         VARCHAR(64),
    `application_data`  VARCHAR(2000),
    `gmt_create`        DATETIME(6),
    `gmt_modified`      DATETIME(6),
    PRIMARY KEY (`branch_id`),
    KEY `idx_xid` (`xid`)
) ENGINE = InnoDB
  DEFAULT CHARSET = utf8;

-- the table to store lock data
CREATE TABLE IF NOT EXISTS `lock_table`
(
    `row_key`        VARCHAR(128) NOT NULL,
    `xid`            VARCHAR(96),
    `transaction_id` BIGINT,
    `branch_id`      BIGINT       NOT NULL,
    `resource_id`    VARCHAR(256),
    `table_name`     VARCHAR(32),
    `pk`             VARCHAR(36),
    `gmt_create`     DATETIME,
    `gmt_modified`   DATETIME,
    PRIMARY KEY (`row_key`),
    KEY `idx_branch_id` (`branch_id`)
) ENGINE = InnoDB
  DEFAULT CHARSET = utf8;

另外,在接口调用的每个业务数据库下也要建立一个表undo_log

CREATE TABLE `undo_log` (
  `id` bigint(20) NOT NULL AUTO_INCREMENT,
  `branch_id` bigint(20) NOT NULL,
  `xid` varchar(100) NOT NULL,
  `context` varchar(128) NOT NULL,
  `rollback_info` longblob NOT NULL,
  `log_status` int(11) NOT NULL,
  `log_created` datetime NOT NULL,
  `log_modified` datetime NOT NULL,
  `ext` varchar(100) DEFAULT NULL,
  PRIMARY KEY (`id`),
  UNIQUE KEY `ux_undo_log` (`xid`,`branch_id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8;

 

registry.conf配置:

------------------------------------------------------------------------------------------------------------------------------------------------------------------------

registry {
  # file 、nacos 、eureka、redis、zk、consul、etcd3、sofa
  type = "eureka"

  nacos {
    serverAddr = "localhost"
    namespace = ""
    cluster = "default"
  }
  eureka {

    #这里用哪个就配置哪个,对应服务注册中心、
    serviceUrl = "http://localhost:9091/eureka"

   #这里最好统一命名一下,下面要用
    application = "seata-server"
    weight = "1"
  }
  redis {
    serverAddr = "localhost:6379"
    db = "0"
  }
  zk {
    cluster = "default"
    serverAddr = "127.0.0.1:2181"
    session.timeout = 6000
    connect.timeout = 2000
  }
  consul {
    cluster = "default"
    serverAddr = "127.0.0.1:8500"
  }
  etcd3 {
    cluster = "default"
    serverAddr = "http://localhost:2379"
  }
  sofa {
    serverAddr = "127.0.0.1:9603"
    application = "default"
    region = "DEFAULT_ZONE"
    datacenter = "DefaultDataCenter"
    cluster = "default"
    group = "SEATA_GROUP"
    addressWaitTime = "3000"
  }
  file {
    name = "file.conf"
  }
}

config {
  # file、nacos 、apollo、zk、consul、etcd3
  type = "file"

  nacos {
    serverAddr = "localhost"
    namespace = ""
    group = "SEATA_GROUP"
  }
  consul {
    serverAddr = "127.0.0.1:8500"
  }
  apollo {
    app.id = "seata-server"
    apollo.meta = "http://192.168.1.204:8801"
    namespace = "application"
  }
  zk {
    serverAddr = "127.0.0.1:2181"
    session.timeout = 6000
    connect.timeout = 2000
  }
  etcd3 {
    serverAddr = "http://localhost:2379"
  }
  file {
    name = "file.conf"
  }
}
 

------------------------------------------------------------------------------------------------------------------------------------------------------------------------

我这里只注册到了eruka里,所以只配了eruka部分

直接在bin目录下打开cmd窗口,seata-server.bat 命令运行,打开eruka发现注册成功,默认端口8091

 

下面是客户端,调用方和被调用方都得引入这些依赖

<dependency>
            <groupId>com.alibaba.cloud</groupId>
            <artifactId>spring-cloud-alibaba-seata</artifactId>
            <version>2.2.0.RELEASE</version>
            <exclusions>
                <exclusion>
                    <artifactId>seata-spring-boot-starter</artifactId>
                    <groupId>io.seata</groupId>
                </exclusion>
            </exclusions>
        </dependency>

        <!--阿里分布式事务-->
        <dependency>
            <groupId>io.seata</groupId>
            <artifactId>seata-spring-boot-starter</artifactId>
            <version>1.1.0</version>
        </dependency>

 

客户端的配置文件如下,seata相关要注意数据的位置。

spring:
  cloud:
    alibaba:
      seata:
        #注意这个tx_groupa名字,和下面要对着
        tx-service-group: tx_groupa

#阿里分布式事务配置
seata:
  service:
    vgroup-mapping:
      #这里的组名tx_groupa就是上面已经配置过的
      # seata-server 对应的就是register.conf里的application选项的内容
      tx_groupa: seata-server
    grouplist:
      #这里对应的就是上面的seata-server,后面的是seata服务的IP地址和端口号
      seata-server: 127.0.0.1:8091
    enable-degrade: false
    disable-global-transaction: false

两个客户端都加入依赖后,在需要加上分布式事务管理的接口方法上面加入

@GlobalTransactional(rollbackFor = Exception.class)

注解即可,亲测可用。

 

  • 3
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值