Python-kafka操作

0. kafka的特点

消息系统的特点:生存者消费者模型,先入先出(FIFO)

• 高性能:单节点支持上千个客户端,高吞吐量

  1. 零拷贝技术
  2. 分布式存储
  3. 顺序读顺序写
  4. 批量读批量写

• 持久性:消息直接持久化在普通磁盘上,且性能好

• 分布式:数据副本冗余、流量负载均衡、可扩展

• 灵活:消息长时间持久化+Client维护消费状态

1.配置windows环境

window环境:

  1. 需在C:\Windows\System32\drivers\etc\hosts 中添加 ip+节点名(如 192.168.23.200 test-kafka)
  2. 先后开启消费者、生产者程序
    在这里插入图片描述在这里插入图片描述
    代码如下:

2. producer 向broker发送消息

bootstrap_servers是kafka集群地址信息,下面事项主题 test-kafka 发送一条消息,send发送消息是异步的,会马上返回,因此我们要通过阻塞的方式等待消息发送成功(或者flush()也可以,flush会阻塞知道所有log都发送成功),否则消息可能会发送失败,但也不会有提示

关于上面这个可以通过删除send之后的语句试试,会发现broker不会收到消息,然后在send后加上time.sleep(5)之后,会看到broker收到消息。

# -*- coding: utf-8 -*-
import time
from kafka import KafkaProducer
from kafka.errors import KafkaError
topic = 'test-kafka'
producer = KafkaProducer(bootstrap_servers=["ip:端口"])
for i in range(10):
    future = producer.send(topic, bytes(i), partition=0)
    print("send" + str(i))
    try:
        record_metadata = future.get(timeout=10)
        # 阻塞等待发送成功之后,会看到返回插入记录的信息:
        # 里面包括了插入log的主题、分区等信息
        print(record_metadata)
    except KafkaError as e:
        print(e)
    time.sleep(1)
producer.close()

格式化发送的信息

import json
from kafka import KafkaProducer
producer = KafkaProducer(
			bootstrap_servers=["test-kafka:30005"]
			)
msg_dict = {
    "interval": 10,
    "producer": {
        "name": "producer 1",
        "host": "10.10.10.1",
        "user": "root",
        "password": "root"
    },
    "cpu": "33.5%",
    "mem": "77%",
    "msg": "Hello kafka"
}
msg = json.dumps(msg_dict)
producer.send('test-kafka', bytes(msg, encoding='utf-8'), partition=0)
producer.close()
print("success")

创建producer的时候可以通过value_serializer指定格式化函数,比如我们数据是个dict,可以指定格式化函数,将dict转化为byte:

优点:将格式化之后的信息发送给broker,不用每次发送的时候都自己格式化。

import json

producer = KafkaProducer(
    bootstrap_servers=[
        bootstrap_servers=["test-kafka:30005"]
    ],
    value_serializer=lambda m: json.dumps(m).encode('ascii')
)
msg_dict = {
    "interval": 10,
    "producer": {
        "name": "producer 1",
        "host": "10.10.10.1",
        "user": "root",
        "password": "root"
    },
    "cpu": "33.5%",
    "mem": "77%",
    "msg": "Hello kafka"
}
future = producer.send("user-event",msg_dict)

3. consumer 消费数据

from kafka import KafkaConsumer

consumer = KafkaConsumer("test-kafka",bootstrap_servers=["test-kafka:30005"])
print(consumer)
for msg in consumer:
    recv = "%s:%d:%d: key=%s value=%s" % (msg.topic, msg.partition, msg.offset, msg.key, msg.value)
    print(recv)

4. group_id 解释

topic到group质检是发布订阅的通信方式,即一条topic会被所有的group消费,属于一对多模式;group到consumer是点对点通信方式,属于一对一模式。

不使用group的话,启动10个consumer消费一个topic,这10个consumer都能得到topic的所有数据,相当于这个topic中的任一条消息被消费10次。

使用group的话,连接时带上groupid,topic的消息会分发到10个consumer上,每条消息只被消费1次

不加group_id 时开启两次相同的消费逻辑

from kafka import KafkaConsumer

consumer = KafkaConsumer("test-kafka",
                         bootstrap_servers=["test-kafka:30005"],
                         )
print(consumer)
for msg in consumer:
    recv = "%s:%d:%d: key=%s value=%s" % (msg.topic, msg.partition, msg.offset, msg.key, msg.value)
    print(recv)

在这里插入图片描述
添加group_id时:

from kafka import KafkaConsumer

consumer = KafkaConsumer("test-kafka",
                         bootstrap_servers=["test-kafka:30005"],
                         group_id='123456'
                         )
print(consumer)
for msg in consumer:
    recv = "%s:%d:%d: key=%s value=%s" % (msg.topic, msg.partition, msg.offset, msg.key, msg.value)
    print(recv)

在这里插入图片描述
当开启左方第二个消费者时,数据只能被消费一次。

5. 遇到的bug

kafka连接报错 kafka.errors.NoBrokersAvailable: NoBrokersAvailable
问题:
  本地windows系统远程连接kafka报错,kafka.errors.NoBrokersAvailable: NoBrokersAvailable。
解决:
  hosts文件需要修改,找到windows系统中的hosts文件,位置在C:\Windows\System32\drivers\etc\hosts,在里面加上如下格式内容:
    IP地址1 节点名1 如 192.168.23.200 test-kafka
    IP地址2 节点名2

参考:https://www.cnblogs.com/iforever/p/9130983.html

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Kafka 是一个高性能、分布式的消息队列,常用于处理大量的实时数据。Python-Kafka 是 Python 语言的 Kafka 客户端库,提供了丰富的 API 接口,可以方便地对 Kafka 进行操作。下面是一个 Python-Kafka 的实战案例: 1. 安装 Python-Kafka 库 使用 pip 安装 Python-Kafka 库: ``` pip install kafka-python ``` 2. 创建 Kafka 生产者 使用 Python-Kafka 库创建 Kafka 生产者,代码如下: ```python from kafka import KafkaProducer producer = KafkaProducer(bootstrap_servers=['localhost:9092']) for i in range(10): producer.send('test', b'message {}'.format(i)) producer.close() ``` 上述代码创建了一个 Kafka 生产者,并向名称为“test”的主题发送了 10 条消息。 3. 创建 Kafka 消费者 使用 Python-Kafka 库创建 Kafka 消费者,代码如下: ```python from kafka import KafkaConsumer consumer = KafkaConsumer('test', bootstrap_servers=['localhost:9092']) for msg in consumer: print(msg) consumer.close() ``` 上述代码创建了一个 Kafka 消费者,并订阅了名称为“test”的主题。当 Kafka 生产者向该主题发送消息时,消费者将接收到消息并打印出来。 4. 手动提交消费偏移量 默认情况下,Kafka 消费者会自动提交消费偏移量,但在某些情况下需要手动提交。例如,在消费者处理消息之前需要进行一些预处理或验证操作时,可以先手动提交偏移量,再进行处理。代码如下: ```python from kafka import KafkaConsumer consumer = KafkaConsumer('test', bootstrap_servers=['localhost:9092'], enable_auto_commit=False) for msg in consumer: print(msg) consumer.commit() consumer.close() ``` 上述代码创建了一个 Kafka 消费者,并禁用了自动提交消费偏移量的功能。在每次处理完消息后,需要手动提交偏移量。 5. 多线程消费 在实际应用中,可能需要启用多个消费者线程来提高消息处理效率。可以使用 Python 的 threading 模块创建多个线程,每个线程创建一个 Kafka 消费者来消费消息。代码如下: ```python from kafka import KafkaConsumer import threading def consume(): consumer = KafkaConsumer('test', bootstrap_servers=['localhost:9092']) for msg in consumer: print(msg) consumer.close() threads = [] for i in range(4): t = threading.Thread(target=consume) threads.append(t) t.start() for t in threads: t.join() ``` 上述代码创建了 4 个消费者线程,每个线程创建一个 Kafka 消费者并消费消息。这样可以提高消息处理效率。 以上就是一个简单的 Python-Kafka 实战案例,通过该案例可以了解如何使用 Python-Kafka 库创建 Kafka 生产者和消费者,以及如何手动提交消费偏移量和使用多线程消费。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值