apiVersion: v1
kind: Service
metadata:
name: kafka-service
labels:
app: kafka
spec:
type: NodePort
ports:
- port: 9092
name: kafka-port
targetPort: 9092
nodePort: 30092
protocol: TCP
selector:
app: kafka
kind: Deployment
apiVersion: extensions/v1beta1
metadata:
name: kafka-deployment
spec:
replicas: 1
selector:
matchLabels:
name: kafka
template:
metadata:
labels:
name: kafka
app: kafka
spec:
containers:
- name: kafka
image: wurstmeister/kafka
imagePullPolicy: IfNotPresent
ports:
- containerPort: 9092
env:
- name: KAFKA_ADVERTISED_PORT
value: “9092”
- name: KAFKA_ADVERTISED_HOST_NAME
value: “[kafka的service的clusterIP]”
- name: KAFKA_ZOOKEEPER_CONNECT
value: [zookeeper的service的clusterIP]:2181
- name: KAFKA_BROKER_ID
value: “1”
clusterIP通过kubectl get svc进行查看。KAFKA_ZOOKEEPER_CONNECT的值也可以改为zookeeper-service:2181。
3.创建后,需要对服务进行测试。参考了https://blog.csdn.net/boling_cavalry/article/details/78309050的方法。
在此之前,针对虚拟化的Kafka,需要先执行下面的命令以进入容器:
kubectl exec -it [Kafka的pod名称] /bin/bash
进入容器后,Kafka的命令存储在opt/kafka/bin目录下,用cd命令进入:
cd opt/kafka/bin
后面的操作就跟上面的博客中写的类似了。针对单节点Kafka,需要将同一个节点作为生产者和消费者。执行命令如下:
kafka-console-producer.sh --broker-list [kafka的service的clusterIP]:9092 --topic test
运行正常的话,下方会出现>标记以提示输入消息。这样这个终端就成为了生产者。
另外打开一个linux终端,执行相同的命令进入容器。这次将这个终端作为消费者。注意,上面的博客中写