kafka控制台模拟消费_Knative 实战:基于 Kafka 实现消息推送

668dfd8e694c8529f7bd4c602831541a.png

作者 | 元毅 阿里云智能事业群高级开发工程师

导读:当前在 Knative 中已经提供了对 Kafka 事件源的支持,那么如何基于 Kafka 实现消息推送呢?本文作者将以阿里云 Kafka 产品为例,给大家解锁这一新的姿势。

背景

消息队列 for Apache Kafka 是阿里云提供的分布式、高吞吐、可扩展的消息队列服务。消息队列 for Apache Kafka 广泛用于日志收集、监控数据聚合、流式数据处理、在线和离线分析等大数据领域,已成为大数据生态中不可或缺的部分。

结合 Knative 中提供了 KafkaSource 事件源的支持, 可以方便的对接 Kafka 消息服务。

另外也可以安装社区 Kafka 2.0.0 及以上版本使用。

在阿里云上创建 Kafka 实例

创建 Kafka 实例

登录https://kafka.console.aliyun.com, 选择【购买实例】。由于当前 Knative 中 Kafka 事件源支持 2.0.0 及以上版本,在阿里云上创建 Kafka 实例需要选择包年包月、专业版本进行购买,购买之后升级到 2.0.0 即可。

17205cd35e1118cdb50b0d231adde65a.png

部署实例并绑定 VPC

购买完成之后,进行部署,部署时设置 Knative 集群所在的 VPC 即可:

6d349b3031e9edc3d2f6a76bdd2a299f.png

创建 Topic 和 Consumer Group

接下来我们创建 Topic 和消费组。

进入【Topic 管理】,点击 创建 Topic, 这里我们创建名称为 demo 的 topic:

837d7264e13d3c3a5de1d675033ea295.png

进入【Consumer Group 管理】,点击 创建 Consumer Group, 这里我们创建名称为 demo-consumer 的消费组:

7a79732cdda3905d8be2e855542e8bc8.png

部署 Kafka 数据源

部署 Kafka addon 组件

登录容器服务控制台,进入【Knative 组件管理】,部署 Kafka addon 组件。

ed602422cd6e50377c27bca34174e841.png

创建 KafkaSource 实例

首先创建用于接收事件的服务 event-display:

apiVersion: serving.knative.dev/v1
kind: Service
metadata:
 name: event-display
spec:
 template:
 spec:
 containers:
 - image: registry.cn-hangzhou.aliyuncs.com/knative-sample/eventing-sources-cmd-event_display:bf45b3eb1e7fc4cb63d6a5a6416cf696295484a7662e0cf9ccdf5c080542c21d

接下来创建 KafkaSource:

apiVersion: sources.eventing.knative.dev/v1alpha1
kind: KafkaSource
metadata:
 name: alikafka-source
spec:
 consumerGroup: demo-consumer
 # Broker URL. Replace this with the URLs for your kafka cluster,
 # which is in the format of my-cluster-kafka-bootstrap.my-kafka-namespace:9092.
 bootstrapServers: 192.168.0.6x:9092,192.168.0.7x:9092,192.168.0.8x:9092
 topics: demo
 sink:
 apiVersion: serving.knative.dev/v1alpha1
 kind: Service
 name: event-display

说明:

  • bootstrapServers: Kafka VPC 访问地址
  • consumerGroup: 设置消费组
  • topics:设置 Topic

创建完成之后,我们可以查看对应的实例已经运行:

[root@iZ2zeae8wzyq0ypgjowzq2Z ~]# kubectl get pods
NAME READY STATUS RESTARTS AGE
alikafka-source-k22vz-db44cc7f8-879pj 1/1 Running 0 8h

验证

在 Kafka 控制台,选择 topic 发送消息,注意这里的消息格式必须是 json 格式:

9d7f893306abfb30cce1331e8f1dbd98.png

我们可以看到已经接收到了发送过来的 Kafka 消息:

[root@iZ2zeae8wzyq0ypgjowzq2Z ~]# kubectl logs event-display-zl6m5-deployment-6bf9596b4f-8psx4 user-container
☁️ CloudEvent: valid ✅
Context Attributes,
 SpecVersion: 0.2
 Type: dev.knative.kafka.event
 Source: /apis/v1/namespaces/default/kafkasources/alikafka-source#demo
 ID: partition:7/offset:1
 Time: 2019-10-18T08:50:32.492Z
 ContentType: application/json
 Extensions: 
 key: demo
Transport Context,
 URI: /
 Host: event-display.default.svc.cluster.local
 Method: POST
Data,
 {
 "key": "test"
 }

小结

结合阿里云 Kafka 产品,通过事件驱动触发服务(函数)执行,是不是简单又高效。这样我们利用 Knative 得以把云原生的能力充分释放出来,带给我们更多的想象空间。欢迎对 Knative 感兴趣的一起交流。

实操视频演示链接:https://v.qq.com/x/page/d3013wzs3tp.html

作者简介:元毅,阿里云容器平台高级开发工程师,负责阿里云容器平台 Knative 相关工作。

欢迎加入 Knative 交流群

bafeed8e2f926981c2961448b76a5b61.png
“ 阿里巴巴云原生微信公众号(ID:Alicloudnative)关注微服务、Serverless、容器、Service Mesh等技术领域、聚焦云原生流行技术趋势、云原生大规模的落地实践,做最懂云原生开发者的技术公众号。”
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值