kafka依赖_K8S环境快速部署Kafka(K8S外部可访问)

如何快速部署,拉勾IT课小编为大家分解

  1. 借助Helm,只需少量操作即可部署kafka;
  2. kafka和zookeeper对存储都有需求,若提前准备了StorageClass,存储一事则变得十分简单

接下来的实战之前,请您准备好:K8S、Helm、NFS、StorageClass;

操作


3. 找到configurationOverrides,下图两个黄框中的内容原本是注释的,请删除注释符号,另外,如果您之前设置过跨网络访问kafka,就能理解下面写入K8S宿主机IP的原因了:


4. 接下来设置数据卷,找到persistence,按需要调整大小,再设置已准备好的storageclass的名称:

100f1e4afe35b6bb4c8138c191cf9749.png


5. 再设置zookeeper的数据卷:


6. 设置完成,开始部署,先创建namespace,执行:kubectl create namespace kafka-test
7. 在kafka目录下执行:helm install --name-template kafka -f values.yaml . --namespace kafka-test
8. 如果前面的配置没有问题,控制台提示如下所示:

92751c1789e79040cd2ecb38cf0561ec.png


9. kafka启动依赖zookeeper,整个启动会耗时数分钟,期间可见zookeeper和kafka的pod逐渐启动:


10. 查看服务:kubectl get services -n kafka-test,如下图红框所示,通过宿主机IP:31090、宿主机IP:31091、宿主机IP:31092即可从外部访问kafka:


11. 查看kafka版本:kubectl exec kafka-0 -n kafka-test -- sh -c 'ls /usr/share/java/kafka/kafka_*.jar' ,如下图红框所示,scala版本2.11,kafka版本2.0.1:

cfb04b6b24d77adc2c82d161e5d741d8.png
  1. kafka启动成功后,咱们来验证服务是否正常;

对外暴露zookeeper

  1. 为了远程操作kafka,有时需要连接到zookeeper,所以需要将zookeeper也暴露出来;
  2. 创建文件zookeeper-nodeport-svc.yaml,内容如下:

apiVersion: v1
kind: Service
metadata:
name: zookeeper-nodeport
namespace: kafka-test
spec:
type: NodePort
ports:
- port: 2181
nodePort: 32181
selector:
app: zookeeper
release: kafka

  1. 执行命令:kubectl apply -f zookeeper-nodeport-svc.yaml
  2. 查看服务,发现已经可以通过宿主机IP:32181访问zookeeper了,如下图:

验证kafka服务

找一台电脑安装kafka包,就能通过里面自带的命令远程连接和操作K8S的kafka了


2. 下载后解压,进入目录kafka_2.11-2.0.1/bin
3. 查看当前topic:

./kafka-topics.sh --list --zookeeper 192.168.50.135:32181

如下图,空空如也:


4. 创建topic:

./kafka-topics.sh --create --zookeeper 192.168.50.135:32181 --replication-factor 1 --partitions 1 --topic test001

如下图,创建成功后再查看topic终于有内容了:


5. 查看名为test001的topic:

./kafka-topics.sh --describe --zookeeper 192.168.50.135:32181 --topic test001

144de0afb6c45e4ce4ac8aedc681dcfc.png


6. 进入创建消息的交互模式:

./kafka-console-producer.sh --broker-list 192.168.50.135:31090 --topic test001

进入交互模式后,输入任何字符串再输入回车,就会将当前内容作为一条消息发送出去:


7. 再打开一个窗口,执行命令消费消息:

./kafka-console-consumer.sh --bootstrap-server 192.168.50.135:31090 --topic test001 --from-beginning


8. 再打开一个窗口,执行命令查看消费者group:

./kafka-consumer-groups.sh --bootstrap-server 192.168.50.135:31090 --list

如下图可见groupid等于console-consumer-21022


9. 执行命令查看groupid等于console-consumer-21022的消费情况:

./kafka-consumer-groups.sh --group console-consumer-21022 --describe --bootstrap-server 192.168.50.135:31090

如下图所示:


远程连接kafka体验基本功能完毕,查看、收发消息都正常,证明本次部署成功;

kafkacat连接

  1. kafkacat是个客户端工具,我这里是在MacBook Pro上用brew安装的;
  2. 我这里K8S服务器IP是192.168.50.135,因此执行此命令查看kafka信息:kafkacat -b 192.168.50.135:31090 -L,如下图,可以看到broker信息,以及topic信息(一个是test001,还有一个是consumer的offset),把端口换成31091和31092会连接到另外两个broker,也能得到相同信息:

清理资源

本次实战创建了很多资源:rbac、role、serviceaccount、pod、deployment、service,下面的脚本可以将这些资源清理掉(只剩NFS的文件没有被清理掉):

helm del --purge kafka
kubectl delete service zookeeper-nodeport -n kafka-test
kubectl delete storageclass managed-nfs-storage
kubectl delete deployment nfs-client-provisioner -n kafka-test
kubectl delete clusterrolebinding run-nfs-client-provisioner
kubectl delete serviceaccount nfs-client-provisioner -n kafka-test
kubectl delete role leader-locking-nfs-client-provisioner -n kafka-test
kubectl delete rolebinding leader-locking-nfs-client-provisioner -n kafka-test
kubectl delete clusterrole nfs-client-provisioner-runner
kubectl delete namespace kafka-test

至此,K8S环境部署和验证kafka的实战就完成了,希望能给您提供一些参考

要在Kubernetes上部署Kafka并通过Web界面访问,可以遵循以下步骤: 1. 创建一个Kafka集群的YAML文件,定义Kafka集群的服务和部署对象。如下所示: ``` apiVersion: v1 kind: Service metadata: name: kafka labels: app: kafka spec: ports: - name: kafka port: 9092 protocol: TCP targetPort: 9092 - name: jmx port: 7203 protocol: TCP targetPort: 7203 selector: app: kafka --- apiVersion: apps/v1 kind: Deployment metadata: name: kafka spec: replicas: 3 selector: matchLabels: app: kafka template: metadata: labels: app: kafka spec: containers: - name: kafka image: wurstmeister/kafka:2.13-2.7.0 ports: - containerPort: 9092 - containerPort: 7203 env: - name: KAFKA_ADVERTISED_HOST_NAME valueFrom: fieldRef: fieldPath: status.podIP - name: KAFKA_CREATE_TOPICS value: "test:2:3" - name: KAFKA_ZOOKEEPER_CONNECT value: "zookeeper:2181" ``` 上述YAML文件中,定义了一个Kafka集群的服务和部署对象,使用了wurstmeister/kafka的镜像,同时配置了Kafka的参数,包括`KAFKA_ADVERTISED_HOST_NAME`、`KAFKA_CREATE_TOPICS`和`KAFKA_ZOOKEEPER_CONNECT`等。 2. 创建一个Kafka Manager的YAML文件,定义Kafka Manager的服务和部署对象。如下所示: ``` apiVersion: v1 kind: Service metadata: name: kafka-manager labels: app: kafka-manager spec: ports: - name: http port: 9000 protocol: TCP targetPort: 9000 selector: app: kafka-manager --- apiVersion: apps/v1 kind: Deployment metadata: name: kafka-manager spec: replicas: 1 selector: matchLabels: app: kafka-manager template: metadata: labels: app: kafka-manager spec: containers: - name: kafka-manager image: hlebalbau/kafka-manager:latest ports: - containerPort: 9000 env: - name: ZK_HOSTS value: "zookeeper:2181" ``` 上述YAML文件中,定义了一个Kafka Manager的服务和部署对象,使用了hlebalbau/kafka-manager的镜像,同时配置了Zookeeper的地址和端口。 3. 在Kubernetes上部署Kafka集群和Kafka Manager。使用`kubectl apply -f`命令部署上述两个YAML文件。 4. 访问Kafka Manager的Web界面。使用`kubectl get service`命令查看Kafka Manager的服务IP地址和端口,然后在浏览器中输入`http://<kafka-manager-ip>:<kafka-manager-port>`来访问Kafka Manager的Web界面。在Kafka Manager的Web界面中,可以查看Kafka集群的状态、管理topic、查看消费者组等。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值