【Redis】深入解析 Redis 事务:特性、操作及其与 MySQL 事务的区别


Redis 事务

什么是事务

Redis 的事务和 MySQL 的事务概念上是类似的. 都是把⼀系列操作绑定成⼀组. 让这⼀组能够批量执⾏.

回顾 MySQL 事务:

  • 原子性:把多个操作打包成一个整体了
  • 一致性:事务执行之前和之后,数据都不能离谱
  • 持久性:事务中做出的修改都会存硬盘
  • 隔离性:事务并发执行涉及到的一些问题

但是注意体会 Redis 的事务和 MySQL 事务的区别:

  • 弱化的原⼦性:redis 没有 “回滚机制”,只能做到这些操作 “批量执⾏”,不能做到 “⼀个失败就恢复到初始状态”,也就是不保证全部执行成功,其中有失败的就失败了,不理会。
  • 不保证⼀致性:不涉及 “约束”,也没有回滚。MySQL 的⼀致性体现的是运⾏事务前和运⾏后,结果都是合理有效的,不会出现中间⾮法状态。
  • 不需要隔离性:也没有隔离级别,因为不会并发执⾏事务(redis 单线程处理请求)。
  • 不需要持久性:是保存在内存的。是否开启持久化,是 redis-server ⾃⼰的事情,和事务⽆关。

因此,Redis 的事务的功能相⽐于 MySQL 来说,是弱化很多的、只能保证事务中的这⼏个操作是 “连续的”,不会被别的客⼾端 “加塞”,仅此⽽已。

就官方角度而言,也不太认为他们自己是具有原子性的,可能更加认同原子性更贴合 MySQL 的那种设定,也就是 MySQL 这种才算事务。

Redis 事务本质上是在服务器上搞了⼀个 “事务队列”。每次客⼾端在事务中进⾏⼀个操作,都会把命令先发给服务器,放到 “事务队列” 中,这是保证不被插队(但是并不会⽴即执⾏)

⽽是会在真正收到 EXEC 命令之后,才真正执⾏队列中的所有操作。此时 Redis 主线程就会把事务的所有操作都执行完,再处理其他客户端的操作

问:Redis 的事务为什么不设计得和 MySQL 一样强大呢?

答:MySQL 的事务是付出了很大的代价。空间上要花费更多的空间来存储更多的数据;时间上也要有更大的执行开销。正是因为这些问题,Redis 才有上场的机会,Redis 实现了 MySQL 的事务的话就失去了本身的优势。

Redis 事务的应用场景:相比 MySQL 的事务其实应用场景没那么多。Redis 如果是按照集群模式部署,是不支持事务的。

事务操作

MULTI

multi

开启⼀个事务. 执⾏成功返回 OK.

实例

127.0.0.1:6379> MULTI
OK

EXEC

exec

真正执⾏事务.

实例

127.0.0.1:6379> MULTI
OK
127.0.0.1:6379> set k1 1
QUEUED
127.0.0.1:6379> set k2 2
QUEUED
127.0.0.1:6379> set k3 3
QUEUED
127.0.0.1:6379> EXEC
1) OK
2) OK
3) OK

每次添加⼀个操作,都会提⽰ “QUEUED”,说明命令已经进⼊客⼾端的队列了。

真正执⾏ EXEC 的时候,客⼾端才会真正把上述操作发送给服务器.

此时就可以获取到上述 key 的值了.

127.0.0.1:6379> get k1
"1"
127.0.0.1:6379> get k2
"2"
127.0.0.1:6379> get k3
"3"

DISCARD

discard

放弃当前事务。此时直接清空事务队列。之前的操作都不会真正执⾏到。

实例

127.0.0.1:6379> MULTI
OK
127.0.0.1:6379> set k1 1
QUEUED
127.0.0.1:6379> set k2 2
QUEUED
127.0.0.1:6379> DISCARD
OK

127.0.0.1:6379> get k1
(nil)
127.0.0.1:6379> get k2
(nil)

当开启事务,并且给服务器发送若干命令之后,此时服务器重启,效果相当于 discard

WATCH

watch

在执⾏事务的时候,如果某个事务中修改的值,被别的客⼾端修改了,此时就容易出现数据不⼀致的问题。watch 必须搭配事务使用,并且是在 multi 之前使用

实例

# 客⼾端1 先执⾏
127.0.0.1:6379> MULTI
OK
127.0.0.1:6379> set key 100
QUEUED

# 客⼾端2 再执⾏
127.0.0.1:6379> set key 200
OK

# 客⼾端1 最后执⾏
127.0.0.1:6379> EXEC
1) OK

此时,key 的值是多少呢??

从输⼊命令的时间看,是客⼾端1 先执⾏的 set key 100。客⼾端2 后执⾏的 set key 200

但是从实际的执⾏时间看,是客⼾端2 先执⾏的,客⼾端1 后执⾏的

127.0.0.1:6379> get key 
"100"

这个时候,其实就容易引起歧义.

因此,即使不保证严格的隔离性,⾄少也要告诉⽤⼾,当前的操作可能存在⻛险.

watch 命令就是⽤来解决这个问题的。watch 在该客⼾端上监控⼀组具体的 key

当开启事务的时候,如果对 watch 的 key 进⾏修改,就会记录当前 key 的 “版本号”. (版本号是个简单的整数,每次修改都会使版本变⼤。服务器来维护每个 key 的版本号情况)

在真正提交事务的时候,如果发现当前服务器上的 key 的版本号已经超过了事务开始时的版本号,就会让事务执⾏失败。(事务中的所有操作都不执⾏)

实例

客⼾端1 先执⾏

127.0.0.1:6379> watch k1 # 开始监控 k1
OK
127.0.0.1:6379> MULTI
OK
127.0.0.1:6379> set k1 100 # 进⾏修改,从服务器获取 k1 的版本号是 0. 记录 k1 的版本
QUEUED
127.0.0.1:6379> set k2 1000 
QUEUED

只是⼊队列,但是不提交事务执⾏

客⼾端2 再执⾏

127.0.0.1:6379> set k1 200 # 修改成功,使服务器端的 k1 的版本号 0 -> 1
OK

客⼾端1 再执⾏

127.0.0.1:6379> EXEC # 真正执⾏修改操作,此时对⽐版本发现,客⼾端的 k1 的版本
(nil)

127.0.0.1:6379> get k1
"200"

127.0.0.1:6379> get k2
(nil)

此时说明事务已经被取消了. 这次提交的所有命令都没有执⾏

UNWATCH

unwatch

取消对 key 的监控.

相当于 WATCH 的逆操作. 此处不做演⽰。

WATCH 的实现原理

watch 的实现,类似于一个“乐观锁”

乐观锁,悲观锁不是指一个具体的锁,而是指某一类锁的特性

  • 乐观锁:加锁之前,预期后续锁冲突的概率比较低(乐观锁,防君子不防小人)
  • 悲观锁:加锁之前,预期后续锁冲突的概率比较高

锁冲突:两个线程针对同一个锁枷锁,一个能加锁成功,另一个就只能阻塞等待

对于锁冲突概率高或低,接下来要做的工作是不一样的,两者应对场景不一样

Java 的 synchronized 可以在悲观/乐观之间自适应,实际上是一种悲观锁的实现,因为它总是假设有并发冲突发生。当一个线程尝试获取锁而锁被占用时,该线程并不会立即进入阻塞状态。相反,它会进行几次“自旋”,在某种程度上接近乐观锁的行为(尝试不阻塞线程)

Redis 的 watch 相当于是基于 版本号,来实现了“乐观锁”

当执行 watch key 时就会给这个 key 安排一个版本号,这个版本号可以理解成一个“整数”,每次修改时,版本号都会“变大”。在执行事务中命令的时候就会判定这个 key 的版本号和最初 watch 的时候记录的版本号是否一致。如果一致说明没有被别的客户端修改,才会真正执行事务的操作;如果不一致说明被别的客户端修改,就会直接丢弃事务的操作,然后返回一个 nil。

这样的设定类似 CAS 的 ABA 问题

Redis 的 lua脚本,也能起到类似于事务的效果。官网上说,事务这里的任何能实现的效果,都可以用 lua脚本代替。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值