文章目录
DataHub 类似于传统大数据解决方案中 Kafka 的角色,提供了一个数据队列功能。
DataHub 除了供了一个缓冲的队列作用。同时由于 DataHub 提供了各种与其他阿里云
上下游产品的对接功能,所以 DataHub 又扮演了一个数据的分发枢纽工作。
datahub提供了开发者生产和消费的sdk,在平时的开发中往往会写很多重复的代码,我们可以利用springboot为我们提供的自定义starter的方式,模仿springboot官方的starter组件实现方式,来封装一个更高效简单易用的starter组件,实现开箱即用。
本文仅提供核心思路实现供学习使用,应根据自己所在公司开发习惯做定制开发
1. 功能介绍
1.无需关心DataHub底层如何操作,安心编写业务代码即可进行数据的获取和上传,
2.类似RabbitMQ的starter,通过注解方式,Listener和Handler方式进行队列消费
3.支持游标的上次记忆功能
<dependency>
<artifactId>cry-starters-projects</artifactId>
<groupId>cn.com.cry.starters</groupId>
<version>2022-1.0.0</version>
</dependency>
2.快速开始
2.1 启动客户端
配置阿里云DataHub的endpoint以及AK信息
aliyun:
datahub:
# 开启功能
havingValue: true
#是否为私有云
isPrivate: false
accessId: xxx
accessKey: xxx
endpoint: xxx
#连接DataHub客户端超时时间
conn-timeout: 10000
启动SpringBoot,你会发现datahub客户端已经启动完毕
2.2 获取DataHub客户端
DatahubClient datahubClient=DataHubTemplate.getDataHubClient();
2.3 写数据
public int write(@RequestParam("id") Integer shardId) {
List<Student> datas = new ArrayList<>();
for (int i = 0; i < 10; i++) {
Student s = new Student();
s.setAge(i);
s.setName("name-" + i);
s.setAddress("address-" + i);
datas.add(s);
}
int successNumbers = DataHubTemplate.write("my_test", "student", datas, shardId);
return successNumbers;
}
以上示例代码表示往 projectName为my_test, topicName为student, shardId 为N的hub里写数据,并且返回插入成功的条数
2.4 读数据
读数据开发的逻辑类似RabbitMq的starter,使用@DataHubListener和@DataHubHandler处理器注解进行使用
@Component
@DataHubListener(projectName = "my_test")
public class ReadServiceImpl {
@DataHubHandler(topicName = "student", shardId = 0, cursorType = CursorTypeWrapper.LATEST)
public void handler(Message message) {
System.out.println("读取到shardId&