springboot使用redis实现消息队列功能,redis使用list和stream实现消息队列功能,redis实现消息队列的风险点分析_redis stream springboot(1)

最后

我想问下大家当初选择做程序员的初衷是什么?有思考过这个问题吗?高薪?热爱?

既然入了这行就应该知道,这个行业是靠本事吃饭的,你想要拿高薪没有问题,请好好磨练自己的技术,不要抱怨。有的人通过培训可以让自己成长,有些人可以通过自律强大的自学能力成长,如果你两者都不占,还怎么拿高薪?

架构师是很多程序员的职业目标,一个好的架构师是不愁所谓的35岁高龄门槛的,到了那个时候,照样大把的企业挖他。为什么很多人想进阿里巴巴,无非不是福利待遇好以及优质的人脉资源,这对个人职业发展是有非常大帮助的。

如果你也想成为一名好的架构师,那或许这份Java核心架构笔记你需要阅读阅读,希望能够对你的职业发展有所帮助。

中高级开发必知必会:

本文已被CODING开源项目:【一线大厂Java面试题解析+核心总结学习笔记+最新讲解视频+实战项目源码】收录

需要这份系统化的资料的朋友,可以点击这里获取

使用list实现消息队列其实有一些坑的,这里我们慢慢剖析里面的坑并加以改进。

使用list基本实现消息队列

List 本身就是按先进先出的顺序对数据进行存取的,所以,如果使用 List 作为消息队列保存消息的话,就已经能满足消息保序的需求了。

生产者可以使用 LPUSH 命令把要发送的消息依次写入 List,而消费者则可以使用 RPOP 命令,从 List 的另一端按照消息的写入顺序,依次读取消息并进行处理。

1.消费者使用while(true)不断的尝试获取消息。

while(true) {
    Object o = redisTemplate.opsForList().rightPop("list:topic");
    if(o != null){
        System.out.println(o);
    }
    System.out.println("消费者尝试获取消息");
}

2.生产者发送消息。

redisTemplate.opsForList().leftPush("list:topic", "我是订阅消息");

3.提出问题

在生产者往 List 中写入数据时,List 并不会主动地通知消费者有新消息写入,如果消费者想要及时处理消息,就需要在程序中不停地调用 RPOP 命令(比如使用一个 while(true) 循环)。如果有新消息写入,RPOP 命令就会返回结果,否则,RPOP 命令返回空值,再继续循环。

所以,即使没有新消息写入 List,消费者也要不停地调用 RPOP 命令,这就会导致消费者程序的 CPU 一直消耗在执行 RPOP 命令上,带来不必要的性能损失。

解决方案请继续往下看。

阻塞式消费,避免性能损失

Redis 提供了 BRPOP 命令。BRPOP 命令也称为阻塞式读取,客户端在没有读到队列数据时,自动阻塞,直到有新的数据写入队列,再开始读取新数据。和消费者程序自己不停地调用 RPOP 命令相比,这种方式能节省 CPU 开销。

1.消费者优化:

使用list阻塞式读取可以阻塞式读取list中的消息,避免while(true)不断的访问redis。

while(true) {
    // 阻塞3秒钟
    Object o = redisTemplate.opsForList().rightPop("list:topic", 3000, TimeUnit.MINUTES);
    if(o != null){
        System.out.println(o);
    }
    System.out.println("消费者尝试获取消息");
}

2.提出问题

使用while(true)总感觉并不是很优雅,有什么更好的方式可以替换while(true)呢?

解决方案请继续往下看。

替换while(true)

可以使用线程池来替换while(true)。

1.消费者优化

// 带有定时功能的线程池
ScheduledExecutorService scheduler =  Executors.newScheduledThreadPool(1);

ScheduledFuture<?> scheduleTask =  scheduler.scheduleWithFixedDelay(() -> {
    // 阻塞3秒钟
    Object o = redisTemplate.opsForList().rightPop("list:topic", 3, TimeUnit.SECONDS);
    if(o != null){
        System.out.println(o);
    }
    System.out.println("消费者尝试获取消息");
    System.out.println(Thread.currentThread().getName() + "111" + new Date());
}, 1, 1,  TimeUnit.SECONDS);//1秒初始化之后执行一次,以后每1秒执行一次(频率可以适当调节)

2.提出问题

list如何解决消息重复读取问题?

虽然说list只能读取一次,但是谁都无法保证生产者因为某种原因 会不会重复的生产相同的消息。

所以,基于redis的list,消费者只能自己本身来实现消息的幂等。

解决方案请继续往下看。

实现消息幂等

消息队列要能给每一个消息提供全局唯一的 ID 号;另一方面,消费者程序要把已经处理过的消息的 ID 号记录下来。

当收到一条消息后,消费者程序就可以对比收到的消息 ID 和记录的已处理过的消息 ID,来判断当前收到的消息有没有经过处理。如果已经处理过,那么,消费者程序就不再进行处理了。这种处理特性也称为幂等性,幂等性就是指,对于同一条消息,消费者收到一次的处理结果和收到多次的处理结果是一致的。

所以,该设计与redis本身无关,需要生产者与消费者达成一致协议,每一条消息生成一个唯一ID,用来判断重复消费问题。

保证消息可靠性

设想这样一个场景:
消费者收到消息之后,还没有处理完毕,消费者宕机了怎么办?

如果是Rabbitmq、Kafka这种消息队列,是有ack机制的,但是redis的list是没有这种机制的,怎么处理?

List 类型提供了 BRPOPLPUSH 命令,这个命令的作用是让消费者程序从一个 List 中读取消息,同时,Redis 会把这个消息再插入到另一个 List(可以叫作备份 List)留存。这样一来,如果消费者程序读了消息但没能正常处理,等它重启后,就可以从备份 List 中重新读取消息并进行处理了。

// 带有定时功能的线程池
ScheduledExecutorService scheduler =  Executors.newScheduledThreadPool(1);

ScheduledFuture<?> scheduleTask =  scheduler.scheduleWithFixedDelay(() -> {
    // 阻塞3秒钟,并生成备份
    Object o = redisTemplate.opsForList().rightPopAndLeftPush("list:topic", "list:topic:back",  3, TimeUnit.SECONDS);
    if(o != null){
        System.out.println(o);
    }
    System.out.println("消费者尝试获取消息");
    System.out.println(Thread.currentThread().getName() + "111" + new Date());
}, 1, 1,  TimeUnit.SECONDS);//1秒初始化之后执行一次,以后每1秒执行一次(频率可以适当调节)

但是以上要手动实现备份中哪些已经消费,哪些未被消费,实现起来还是比较麻烦的。。。

redis中有一种数据类型——stream,可以完美实现消息队列。

基于stream的消息队列解决方案(redis消息队列终极解决方案)

关于stream基本用法请移步:redis中stream数据结构使用详解——redis最适合做消息队列的数据结构

stream可以完美实现消息保序、自动生成消息唯一id、同时对消息的可靠性也有保障,提供了ack机制。

springboot使用stream实现消息队列

1.生产者不断生产消息

Random random = new Random();
Map<String, String> content = new HashMap<>();
content.put("id", "1");
content.put("name", "zhangsan");
content.put("age", String.valueOf(random.nextInt(1000)));
redisTemplate.opsForStream().add("stream:topic", content);

2.工具类

public String createGroup(String key, String group){
    return redisTemplate.opsForStream().createGroup(key, group);
}

public String addMap(String key, Map<String, String> value){
    return redisTemplate.opsForStream().add(key, value).getValue();
}

public String addRecord(Record<String, Object> record){
    return redisTemplate.opsForStream().add(record).getValue();
}

public Long ack(String key, String group, String... recordIds){
    return redisTemplate.opsForStream().acknowledge(key, group, recordIds);
}

public Long del(String key, String... recordIds){
    return redisTemplate.opsForStream().delete(key, recordIds);
}

3.创建消费者1

此处为了简化,直接使用匿名内部类定义了个bean,实际开发时可以单独定义一个类。

/\*\*
 \* 消费者A
 \*/
@Bean
public StreamListener consumer1(RedisStreamUtil redisStreamUtil){
    return new StreamListener<String, MapRecord<String, String, String>>() {
        @Override
        public void onMessage(MapRecord<String, String, String> message) {
            String stream = message.getStream();
            RecordId id = message.getId();
            Map<String, String> map = message.getValue();
            System.out.println("[自动ack] group:[group-a] consumerName:[{consumer1}] 接收到一个消息 stream:[{"+stream+"}],id:[{"+id+"}],value:[{"+map+"}]");
            redisStreamUtil.ack(stream, "group-a", id.getValue());
            redisStreamUtil.del(stream, id.getValue());
        }
    };
}

4.创建消费者2

/\*\*
 \* 消费者B
 \*/
@Bean
public StreamListener consumer2(RedisStreamUtil redisStreamUtil){
    return new StreamListener<String, MapRecord<String, String, String>>() {
        @Override
        public void onMessage(MapRecord<String, String, String> message) {
            String stream = message.getStream();
            RecordId id = message.getId();
            Map<String, String> map = message.getValue();
            System.out.println("[不自动ack] group:[group-b] consumerName:[{consumer2}] 接收到一个消息 stream:[{"+stream+"}],id:[{"+id+"}],value:[{"+map+"}]");
            redisStreamUtil.del(stream, id.getValue());
        }
    };
}

5.配置消费者组

此处也做了部分简化,实际开发可以适当调整

@Bean(initMethod = "start", destroyMethod = "stop")
public StreamMessageListenerContainer<String, MapRecord<String, String, String>> streamMessageListenerContainer(StreamListener consumer1, StreamListener consumer2) {
    AtomicInteger index = new AtomicInteger(1);
    int processors = Runtime.getRuntime().availableProcessors();
    ThreadPoolExecutor executor = new ThreadPoolExecutor(processors, processors, 0, TimeUnit.SECONDS,
            new LinkedBlockingDeque<>(), r -> {
        Thread thread = new Thread(r);
        thread.setName("async-stream-consumer-" + index.getAndIncrement());
        thread.setDaemon(true);
        return thread;
    });

    StreamMessageListenerContainer.StreamMessageListenerContainerOptions<String, MapRecord<String, String, String>> options =
            StreamMessageListenerContainer.StreamMessageListenerContainerOptions
                    .builder()
                    // 一次最多获取多少条消息
                    .batchSize(3)
                    // 运行 Stream 的 poll task
                    .executor(executor)
                    // Stream 中没有消息时,阻塞多长时间,需要比 `spring.redis.timeout` 的时间小
                    .pollTimeout(Duration.ofSeconds(3))
                    // 获取消息的过程或获取到消息给具体的消息者处理的过程中,发生了异常的处理
                    //.errorHandler(new StreamErrorHandler())
                    .build();

    StreamMessageListenerContainer<String, MapRecord<String, String, String>> streamMessageListenerContainer =
            StreamMessageListenerContainer.create(redisTemplate.getConnectionFactory(), options);

    // 独立消费
    String streamKey = "stream:topic";

    // 消费者也可以直接使用new的方式创建出来,但是此处为了简化,直接注入了

    // 消费组A,自动ack
    // 从消费组中没有分配给消费者的消息开始消费
    streamMessageListenerContainer.receiveAutoAck(Consumer.from("group-a", "consumer-a"),
            StreamOffset.create(streamKey, ReadOffset.lastConsumed()), consumer1);

    // 消费组B,不自动ack
    streamMessageListenerContainer.receive(Consumer.from("group-b", "consumer-a"),
            StreamOffset.create(streamKey, ReadOffset.lastConsumed()), consumer2);

    return streamMessageListenerContainer;
}

5.测试一下

(1)先手动创建出队列、消费者组

127.0.0.1:6379> xadd stream:topic * id 0 name test
"1663116545477-0"
127.0.0.1:6379> xgroup create stream:topic group-a 0-0
OK
127.0.0.1:6379> xgroup create stream:topic group-b 0-0
OK

(2)生产者发送多个消息

(3)消费者进行消费

[自动ack] group:[group-a] consumerName:[{consumer1}] 接收到一个消息 stream:[{stream:topic}],id:[{1663117003190-0}],value:[{{name=zhangsan, id=1, age=937}}]
[不自动ack] group:[group-b] consumerName:[{consumer2}] 接收到一个消息 stream:[{stream:topic}],id:[{1663117003190-0}],value:[{{name=zhangsan, id=1, age=937}}]

[自动ack] group:[group-a] consumerName:[{consumer1}] 接收到一个消息 stream:[{stream:topic}],id:[{1663117006145-0}],value:[{{name=zhangsan, id=1, age=97}}]
[不自动ack] group:[group-b] consumerName:[{consumer2}] 接收到一个消息 stream:[{stream:topic}],id:[{1663117006145-0}],value:[{{name=zhangsan, id=1, age=97}}]

[自动ack] group:[group-a] consumerName:[{consumer1}] 接收到一个消息 stream:[{stream:topic}],id:[{1663117007311-0}],value:[{{name=zhangsan, id=1, age=539}}]
[不自动ack] group:[group-b] consumerName:[{consumer2}] 接收到一个消息 stream:[{stream:topic}],id:[{1663117007311-0}],value:[{{name=zhangsan, id=1, age=539}}]

[自动ack] group:[group-a] consumerName:[{consumer1}] 接收到一个消息 stream:[{stream:topic}],id:[{1663117007934-0}],value:[{{name=zhangsan, id=1, age=905}}]
[不自动ack] group:[group-b] consumerName:[{consumer2}] 接收到一个消息 stream:[{stream:topic}],id:[{1663117007934-0}],value:[{{name=zhangsan, id=1, age=905}}]


5.未自动ack的消息,会放在pending队列中

127.0.0.1:6379> xpending stream:topic group-a - + 5
(empty array)
127.0.0.1:6379> xpending stream:topic group-b - + 5
1) 1) "1663117003190-0"
   2) "consumer-a"
   3) (integer) 54462
   4) (integer) 1
2) 1) "1663117006145-0"
   2) "consumer-a"
   3) (integer) 51507
   4) (integer) 1
3) 1) "1663117007311-0"
   2) "consumer-a"
   3) (integer) 50341
   4) (integer) 1
4) 1) "1663117007934-0"
   2) "consumer-a"
   3) (integer) 49718
   4) (integer) 1

在SpringBoot中重新消费Redis Stream中未ACK的消息

消费组从stream中获取到消息后,会分配给自己组中其中的一个消费者进行消费,消费者消费完毕,需要给消费组返回ACK,表示这条消息已经消费完毕了。

当消费者从消费组获取到消息的时候,会先把消息添加到自己的pending消息列表,当消费者给消费组返回ACK的时候,就会把这条消息从pending队列删除。(每个消费者都有自己的pending消息队列)

消费者可能没有及时的返回ACK。例如消费者消费完毕后,宕机,没有及时返回ACK,此时就会导致这条消息占用2倍的内存(stream中保存一份, 消费者的的pending消息列表中保存一份)

1.遍历消费者的pending列表,读取到未ACK的消息,直接进行ACK

遍历消费组的pending消息情况,再遍历每个消费者的pending消息id列表,再根据id,直接去stream读取这条消息,进行消费Ack。

import java.time.Duration;
import java.util.List;
import java.util.Map;

import org.junit.Test;
import org.junit.runner.RunWith;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.boot.test.context.SpringBootTest;
import org.springframework.boot.test.context.SpringBootTest.WebEnvironment;
import org.springframework.data.domain.Range;
import org.springframework.data.redis.connection.stream.Consumer;
import org.springframework.data.redis.connection.stream.MapRecord;
import org.springframework.data.redis.connection.stream.PendingMessages;
import org.springframework.data.redis.connection.stream.PendingMessagesSummary;
import org.springframework.data.redis.connection.stream.RecordId;
import org.springframework.data.redis.core.StreamOperations;
import org.springframework.data.redis.core.StringRedisTemplate;
import org.springframework.test.context.junit4.SpringRunner;

import io.springboot.jwt.SpringBootJwtApplication;

@RunWith(SpringRunner.class)
@SpringBootTest(classes = SpringBootJwtApplication.class, webEnvironment = WebEnvironment.RANDOM_PORT)
public class RedisStreamTest {
	
	private static final Logger LOGGER = LoggerFactory.getLogger(RedisStreamTest.class);
	
	@Autowired
	private StringRedisTemplate stringRedisTemplate;
	
	@Test
	public void test() {
		StreamOperations<String, String, String> streamOperations = this.stringRedisTemplate.opsForStream();
		
		// 获取group-b中的pending消息信息,本质上就是执行XPENDING指令
		PendingMessagesSummary pendingMessagesSummary = streamOperations.pending("stream:topic", "group-b");
		
		// 所有pending消息的数量
		long totalPendingMessages = pendingMessagesSummary.getTotalPendingMessages();
		
		// 消费组名称
		String groupName= pendingMessagesSummary.getGroupName();
		
		// pending队列中的最小ID
		String minMessageId = pendingMessagesSummary.minMessageId();
		
		// pending队列中的最大ID
		String maxMessageId = pendingMessagesSummary.maxMessageId();
		
		LOGGER.info("消费组:{},一共有{}条pending消息,最大ID={},最小ID={}", groupName, totalPendingMessages, minMessageId, maxMessageId);
		

		// 每个消费者的pending消息数量
		Map<String, Long> pendingMessagesPerConsumer = pendingMessagesSummary.getPendingMessagesPerConsumer();
		
		pendingMessagesPerConsumer.entrySet().forEach(entry -> {
			
			// 消费者
			String consumer = entry.getKey();
			// 消费者的pending消息数量
			long consumerTotalPendingMessages = entry.getValue();
			
			LOGGER.info("消费者:{},一共有{}条pending消息", consumer, consumerTotalPendingMessages);
			
			if (consumerTotalPendingMessages > 0) {
				// 读取消费者pending队列的前10条记录,从ID=0的记录开始,一直到ID最大值
				PendingMessages pendingMessages = streamOperations.pending("stream:topic", Consumer.from("group-b", consumer), Range.closed("0", "+"), 10);
				
				// 遍历所有Opending消息的详情


# **Java高频面试专题合集解析:**

![阿里Java岗面试百题:Spring 缓存 JVM 微服务 数据库 RabbitMQ等](https://img-blog.csdnimg.cn/img_convert/6e266f80b5855d8dfcad0e3c9e9660c1.webp?x-oss-process=image/format,png)

当然在这还有更多整理总结的Java进阶学习笔记和面试题未展示,其中囊括了**Dubbo、Redis、Netty、zookeeper、Spring cloud、分布式、高并发等架构资料和完整的Java架构学习进阶导图!**

![阿里Java岗面试百题:Spring 缓存 JVM 微服务 数据库 RabbitMQ等](https://img-blog.csdnimg.cn/img_convert/58bca9a750bd1b89f015d48031042d87.webp?x-oss-process=image/format,png)

**更多Java架构进阶资料展示**

![阿里Java岗面试百题:Spring 缓存 JVM 微服务 数据库 RabbitMQ等](https://img-blog.csdnimg.cn/img_convert/1b7a7e773867bab63ecf153375f5728a.webp?x-oss-process=image/format,png)

![阿里Java岗面试百题:Spring 缓存 JVM 微服务 数据库 RabbitMQ等](https://img-blog.csdnimg.cn/img_convert/98f37338203a351eb96627977102ea06.webp?x-oss-process=image/format,png)

![阿里Java岗面试百题:Spring 缓存 JVM 微服务 数据库 RabbitMQ等](https://img-blog.csdnimg.cn/img_convert/9b4c97b6c1978192cad0bb9f749b1e65.webp?x-oss-process=image/format,png)

> **本文已被[CODING开源项目:【一线大厂Java面试题解析+核心总结学习笔记+最新讲解视频+实战项目源码】](https://bbs.csdn.net/forums/4f45ff00ff254613a03fab5e56a57acb)收录**

**[需要这份系统化的资料的朋友,可以点击这里获取](https://bbs.csdn.net/forums/4f45ff00ff254613a03fab5e56a57acb)**

这还有更多整理总结的Java进阶学习笔记和面试题未展示,其中囊括了**Dubbo、Redis、Netty、zookeeper、Spring cloud、分布式、高并发等架构资料和完整的Java架构学习进阶导图!**

[外链图片转存中...(img-GSp84Ntr-1715467662166)]

**更多Java架构进阶资料展示**

[外链图片转存中...(img-J1iQofKa-1715467662166)]

[外链图片转存中...(img-cJ4XCaag-1715467662167)]

[外链图片转存中...(img-BNFO0u81-1715467662167)]

> **本文已被[CODING开源项目:【一线大厂Java面试题解析+核心总结学习笔记+最新讲解视频+实战项目源码】](https://bbs.csdn.net/forums/4f45ff00ff254613a03fab5e56a57acb)收录**

**[需要这份系统化的资料的朋友,可以点击这里获取](https://bbs.csdn.net/forums/4f45ff00ff254613a03fab5e56a57acb)**

  • 29
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值