Stream基础篇-Stream入门应用

Spring Cloud Stream是什么?
Spring Cloud Stream是一个用来为微服务应用构建消息驱动能力的框架。它可以基于Spring Boot来创建独立的、可用于生产的Spring应用程序。它通过使用Spring Integration来连接消息代理中间件以实现消息事件驱动的微服务应用。简单的说,Spring Cloud Stream本质上就是整合了Spring Boot和Spring Integration,实现了一套轻量级的消息驱动的微服务框架。通过使用Spring Cloud Stream,可以有效地简化开发人员对消息中间件的使用复杂度,让系统开发人员可以有更多的精力关注于核心业务逻辑的处理。由于Spring Cloud Stream基于Spring Boot实现,所以它秉承了Spring Boot的优点,实现了自动化配置的功能帮忙我们可以快速的上手使用,其主要包含以下核心概念和内容:
Spring Cloud Stream的应用模型
绑定抽象
持久化发布/订阅支持
消费组
消息分区
可插拔绑定api 应用模型
应用模型
应用通过Spring Cloud Stream插入的input和output通道与外界交流。通道通过指定中间件的Binder实现与外部代理连接。
在这里插入图片描述
绑定抽象
Binder绑定器是Spring Cloud Stream中一个非常重要的概念。在没有绑定器这个概念的情况下,我们的Spring Boot应用要直接与消息中间件进行信息交互的时候,由于各消息中间件构建的初衷不同,它们的实现细节上会有较大的差异性,这使得我们实现的消息交互逻辑就会非常笨重,因为对具体的中间件实现细节有太重的依赖,当中间件有较大的变动升级、或是更换中间件的时候,我们就需要付出非常大的代价来实施。
通过定义绑定器作为中间层,完美地实现了应用程序与消息中间件细节之间的隔离。通过向应用程序暴露统一的Channel通道,使得应用程序不需要再考虑各种不同的消息中间件实现。当我们需要升级消息中间件,或是更换其他消息中间件产品时,我们要做的就是更换它们对应的Binder绑定器而不需要修改任何Spring Boot的应用逻辑。这一点在上一章实现消息总线时,从RabbitMQ切换到Kafka的过程中,已经能够让我们体验到这一好处。
目前版本的Spring Cloud Stream为主流的消息中间件产品RabbitMQ和Kafka提供了默认的Binder实现。
持久化发布/订阅支持
应用间通信遵照发布-订阅模型,消息通过共享主题进行广播。下图所示,显示了交互的Spring Cloud Stream 应用的典型布局。
在这里插入图片描述
在Spring Cloud Stream中的消息通信方式遵循了发布-订阅模式,当一条消息被投递到消息中间件之后,它会通过共享的Topic主题进行广播,消息消费者在订阅的主题中收到它并触发自身的业务逻辑处理。这里所提到的Topic主题是Spring Cloud Stream中的一个抽象概念,用来代表发布共享消息给消费者的地方。在不同的消息中间件中,Topic可能对应着不同的概念,比如:在RabbitMQ中的它对应了Exchange、而在Kakfa中则对应了Kafka中的Topic。
消费组
由于发布-订阅模型使得共享主题的应用之间连接更简便,创建给定应用的不同实例来进行弹性扩张的能力也同样重要。如果存在多个应用实例,那么同一应用的不同实例便会成为相互竞争的消费者,其中应该只有一个实例处理给定消息。
Spring Cloud Stream通过消费组的概念给这种情况进行建模。每一个单独的消费者可以使用spring.cloud.stream.bindings.input.group属性来指定一个组名字。下图中展示的消费者们,这一属性被设置为spring.cloud.stream.bindings.input.group=hdfsWrite或者spring.cloud.stream.bindings.input.group=average。
在这里插入图片描述
所有订阅给定目标的组都会收到发布消息的一个拷贝,但是每一个组内只有一个成员会收到该消息。默认情况下,当我们没有为应用指定消费组的时候,Spring Cloud Stream会为其分配一个独立的匿名消费组。所以,如果同一主题下所有的应用都没有指定消费组的时候,当有消息被发布之后,所有的应用都会对其进行消费,因为它们各自都属于一个独立的组中。 一般来说,将应用绑定到给定目标的时候,最好指定一个消费,并且每一个通道均需要独立设定一个消费组。 这样可以防止应用实例收到重复的消息。(除非存在重复收到的需求,如刷新所有实例的配置)。
持久性
与Spring Cloud Stream中的可选应用模型一样,消费者组订阅是持久的。也就是说,一个绑定的实现确保组的订阅者是持久的,一旦组中至少有一个成员创建了订阅,这个组就会收到消息,即使组中所有的应用都被停止了,组仍然会收到消息。
注:自然情况下,匿名订阅者是非持久化的。对于某些绑定实现(如rabbitmq),可以创建非持久化(non-durable)组订阅。
消息分区
Spring Cloud Stream支持在给定应用程序的多个实例之间对数据进行分区。在分区方案中,每个topic均可以被构建为多个分区。一个或者多个生产者应用实例给多个消费者应用实例发送消息并确保相同特征的数据被同一消费者实例处理。
Spring Cloud Stream为分区提供了通用的抽象实现,用来在消息中间件的上层实现分区处理,所以它对于消息中间件自身是否实现了消息分区并不关心,这使得Spring Cloud Stream为不具备分区功能的消息中间件也增加了分区功能扩展。(如具备分区特性的kafka或者不带分区的特性的rabbitmq)。

分区是有状态处理中的一个关键概念,无论是性能还是一致性的原因,分区都是至关重要的,当生产者将消息数据发送给多个消费者实例时,保证拥有共同特征的消息数据始终是由同一个消费者实例接收和处理。。例如,在时间窗平均计算示例中,来自任何给定传感器的所有测量值都由相同应用程序实例处理是很重要的。
注:要设置分区处理方案,您必须配置数据生成和数据消耗两端。
在这里插入图片描述
本章概要
1、工程结构说明;
2、构建消费者工程实例;
3、自定义Channel;
4、生产者另一种实现;

工程结构说明
1、主要构建如下两个模块:

其中receiver也就是我们常说的消费者,sender自然就是生产者。。本小节主要例子将集中在receiver工程实现。

2、在父pom.xml中添加如下主要依赖:

<project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
<java.version>1.8</java.version>

org.springframework.boot spring-boot-starter-parent 1.5.6.RELEASE
<dependency>
    <groupId>org.springframework.boot</groupId>
    <artifactId>spring-boot-starter-test</artifactId>
    <scope>test</scope>
</dependency>

<dependency>
    <groupId>org.springframework.boot</groupId>
    <artifactId>spring-boot-starter-logging</artifactId>
</dependency>
org.springframework.cloud spring-cloud-dependencies Dalston.SR5 pom import

构建消费者工程实例
stream-receiver工程实现如下:

1、在pom.xml中添加如下依赖:

org.springframework.cloud
spring-cloud-starter-stream-rabbit

其等价使用spring-cloud-stream-binder-rabbit依赖。

2、新建一个启动类,作为一个普通的springboot项目:
package com.cloud.shf.stream;
@SpringBootApplication
public class ReceiverApp {
public static void main(String[] args) {
SpringApplication.run(ReceiverApp.class, args);
}
}
3、SpringCloudStream已经预定义了Sink、Source、Processor,具体如下
{@link org.springframework.cloud.stream.messaging.Processor},
{@link org.springframework.cloud.stream.messaging.Source},
{@link org.springframework.cloud.stream.messaging.Sink}
采用Sink作为默认的消息订阅通道,定义如下:
package com.cloud.shf.stream.sink;
@EnableBinding(value = {Sink.class})
public class SinkReceiver {
@StreamListener(Sink.INPUT)
public void receive(Object payload) {
LOGGER.info(“Received from default channel : {}”, payload.toString());
}
}
Note:
将@EnableBinding注解至spring应用的一个配置类中,即可将spring应用变成Spring Cloud Stream应用。@EnableBinding注解本身就包含@Configuration注解,并且会触发Spring Cloud Stream基本配置;
将Sink.class作为@EnableBinding注解的参数,其指定了需要绑定的目标接口;
@StreamListener注解中描述具体监听的通道名称;

4、在application.properties文件中添加如下rabbitmq配置:
#configure rabbitmq
spring.rabbitmq.host=localhost
spring.rabbitmq.port=5672
spring.rabbitmq.username=soul
spring.rabbitmq.password=123456

5、通过单元测试,实现消息的生产者:
package com.cloud.shf.stream;
@RunWith(SpringRunner.class)
@EnableBinding(value = {ReceiverAppTest.SinkSender.class})
public class ReceiverAppTest {
@Autowired
private SinkSender sinkSender;

@Test
public void sinkSenderTester() {
    sinkSender.output().send(MessageBuilder.withPayload("produce a message to " + Sink.INPUT + " channel").build());
}

public interface SinkSender {
    @Output(Sink.INPUT)
    MessageChannel output();
}

}
Note:
如上生产者定义主要参考org.springframework.cloud.stream.messaging.Source定义:
public interface Source {
String OUTPUT = “output”;
@Output(Source.OUTPUT)
MessageChannel output();
}
为了与接收消息的通道一致,故修改@Output注解参数为Sink.INPUT;

6、启动服务,可以看到如下log,声明了一个queue,并添加了订阅者:

7、查看rabbitmq控制台的Queus页签中存在上述队列:
8、并执行单元测试可以看到如下log信息:

小节,以上即实现了一个最简单的demo示例。

自定义Channel
上一小节采用默认预定义的Sink已经实现了消息的消费,并模拟Source定义了消息的生产者,同理,本小节将参考源代码SInk设计,实现自定义Channel的消息处理。

1、首先简单看下Sink的定义:
public interface Sink {
String INPUT = “input”;
@Input(Sink.INPUT)
SubscribableChannel input();
}
Note:
其通道名称定义为input;
@Input注解表示输入通道,当前应用将接收消息;对应的@Output注解表示输出通道,当前应用将发送消息;注解参数表示通道的名称,如果不提供名称,则当前注解方法名即作为通道名称;
必须以SubscribableChannel作为返回类型;

2、参考Sink的定义,自定义如下,通道名称为myInput:
package com.cloud.shf.stream.sink;
public interface MySink {
String CHANNEL = “myInput”;
@Input(MySink.CHANNEL)
SubscribableChannel input();
}
3、在@EnableBinding注解中加入当前定义的MySink接口:
package com.cloud.shf.stream.sink;
@EnableBinding(value = {Sink.class, MySink.class})
public class SinkReceiver {
@StreamListener(MySink.CHANNEL)
public void myReceive(Object payload) {
LOGGER.info(“Received from {} channel : {}”, MySink.CHANNEL, payload.toString());
}
}
Note:
必须在@EnableBinding注解加入新定义的消费消息接口,否则无法被注册;

4、添加单元测试如下:
package com.cloud.shf.stream;
@RunWith(SpringRunner.class)
@EnableBinding(value = {ReceiverAppTest.SinkSender.class,
ReceiverAppTest.MySinkSender.class})
public class ReceiverAppTest {
@Autowired
private MySinkSender mySinkSender;
@Test
public void mySinkSenderTester() {
mySinkSender.output().send(MessageBuilder.withPayload(“produce a message to " + MySink.CHANNEL + " channel”).build());
}
public interface MySinkSender {
@Output(MySink.CHANNEL)
MessageChannel output();
}
}
Note:
必须在@EnableBinding注解加入新定义的生产消息接口,否则无法被注册;
返回类型必须为MessageChannel;

5、启动服务,可以看到如下log:

6、队列中新增消息队列:

7、执行单元测试后,可以看到接收到如下消息:

小节:以上即实现了自定义消息通道,比较简单。。

生产者另一种实现
上述两个小节中的生产者均通过直接注入定义的生产接口获取MessageChannel实例,然后发送消息,其实也可以直接注入MessageChannel实例来完成消息的发送,本小节将实现模拟。

1、在MySink继续添加如下两个通道定义:
package com.cloud.shf.stream.sink;
public interface MySink {
String OUTPUT1_CHANNEL=“OutPut-1”;
String OUTPUT2_CHANNEL=“OutPut-2”;

@Input(OUTPUT1_CHANNEL)
SubscribableChannel input1();

@Input(OUTPUT2_CHANNEL)
SubscribableChannel input2();

}

2、在SinkReceiver添加如下对两个通道的监听实现:
@StreamListener(MySink.OUTPUT1_CHANNEL)
public void myReceive1(Object payload) {
LOGGER.info(“Received from {} channel : {}”, MySink.OUTPUT1_CHANNEL, payload.toString());
}

@StreamListener(MySink.OUTPUT2_CHANNEL)
public void myReceive2(Object payload) {
LOGGER.info(“Received from {} channel : {}”, MySink.OUTPUT2_CHANNEL, payload.toString());
}

3、在单元测试中继续添加新增通道生产逻辑:
@RunWith(SpringRunner.class)
@EnableBinding(value = {ReceiverAppTest.SinkSender.class,
ReceiverAppTest.MySinkSender.class,
ReceiverAppTest.MyOutputSource.class})
public class ReceiverAppTest {
@Resource(name = MySink.OUTPUT1_CHANNEL)
private MessageChannel send1;

@Resource(name = MySink.OUTPUT2_CHANNEL)
private MessageChannel send2;

@Test
public void myOutputSourceTester() {
    send1.send(MessageBuilder.withPayload("produce a message to " + MySink.OUTPUT1_CHANNEL + " channel").build());
    send2.send(MessageBuilder.withPayload("produce a message to " + MySink.OUTPUT2_CHANNEL + " channel").build());
}

public interface MyOutputSource {
    @Output(MySink.OUTPUT1_CHANNEL)
    MessageChannel output1();

    @Output(MySink.OUTPUT2_CHANNEL)
    MessageChannel output2();
}

}
Note:
直接注入MessageChannel实例,并采用通道名称;

4、执行单元测试:

小节:通过注入生产接口然后获取MessageChannel实例,其实与直接注入MessageChannel是一样的,特别注意直接注入MessageChannel时,必须设定@Resource的name与生产接口定义中@Output中的名称保持一致。
————————————————
版权声明:本文为CSDN博主「帅天下」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/songhaifengshuaige/article/details/79253182

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
【2021年,将Spring全家桶系列课程进行Review,修复顺序等错误。进入2022年,将Spring的课程进行整理,整理为案例精讲的系列课程,并新增高级的Spring Security等内容,通过手把手一步步教你从零开始学会应用Spring,课件将逐步进行上传,敬请期待】 本课程是Spring案例精讲课程的第四部分Spring Cloud,Spring案例精讲课程以真实场景、项目实战为导向,循序渐进,深入浅出的讲解Java网络编程,助力您在技术工作中更进一步。 本课程聚焦Spring Cloud的核心知识点:注册中心、服务提供者与消费者、服务的调用OpenFeign、Hystrix监控、服务网关gateway、消息驱动的微服务Spring Cloud Stream、分布式集群、分布式配置中心的案例介绍, 快速掌握Spring Cloud的核心知识,快速上手,为学习及工作做好充足的准备。 由于本课程聚焦于案例,即直接上手操作,对于Spring的原理等不会做过多介绍,希望了解原理等内容的需要通过其他视频或者书籍去了解,建议按照该案例课程一步步做下来,之后再去进一步回顾原理,这样能够促进大家对原理有更好的理解。【通过Spring全家桶,我们保证你能收获到以下几点】 1、掌握Spring全家桶主要部分的开发、实现2、可以使用Spring MVC、Spring Boot、Spring Cloud及Spring Data进行大部分的Spring开发3、初步了解使用微服务、了解使用Spring进行微服务的设计实现4、奠定扎实的Spring技术,具备了一定的独立开发的能力  【实力讲师】 毕业于清华大学软件学院软件工程专业,曾在Accenture、IBM等知名外企任管理及架构职位,近15年的JavaEE经验,近8年的Spring经验,一直致力于架构、设计、开发及管理工作,在电商、零售、制造业等有丰富的项目实施经验  【本课程适用人群】如果你是一定不要错过!  适合于有JavaEE基础的,如:JSP、JSTL、Java基础等的学习者没有基础的学习者跟着课程可以学习,但是需要补充相关基础知识后,才能很好的参与到相关的工作中。 【Spring全家桶课程共包含如下几门】 

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值