KAFKA---34

安装kafka版本: kafka_2.11-1.1.0.tgz

kafka解压在opt目录下(opthadoop用户下的目录)

因为zookeeper.properties注释实在太多,所以我通过grep命令查找到kafka非注释的字符串,并把它追加到 zk.properties


cat zookeeper.properties | grep -v '#'  >> zk.properties  通过这个命令将追加到zk.properties中


修改文件的路径为你zk的路径


回到kafka的目录下 输入命令 启动zookeeper      bin/zookeeper-server-start.sh config/zk.properties


启动完成zookeeper后,另起一个渠道,zookeeper相同,筛选一下server.properties并把它追加到kafka1.properties


我们需要

启动kafka服务器(broker


创建主题


查看你的主题有哪些


生产者在主题里放入消息


消费者接受消息:


flume连接kafka(新建一个文件,我是a4 cp过来 在添加了sink里的那一段):


启动flume

./bin/flume-ng agent -c conf -f conf/a5.conf -n a5 -Dflume.root.logger=INFO,console

在接收目录里添加文件,kafka就可以接受到内容,如果传进文件没自动生成后缀为COMPLETED,flume就会报错而kafka也接收不到。


在pcharm里写消费者和生产者,通过xftp传到虚拟机里。

pcharm里面需要在线安装kafka:


直接点+号




这样我们pcharm里面的kafka就安装完成了。

我们在pcharm里面写上生产者和消费者的代码,通过xftp传到根目录下:

生产者:
from kafka import KafkaProducer
from kafka.errors import KafkaError
import json

producer=KafkaProducer(
    bootstrap_servers='localhost:9092')
while True:
    msg=input("输入消息或bye退出")
    if 'bye'==msg:
        print("欢迎使用")
        break
    producer.send("cctv1",msg.encode())
    producer.flush()

消费者:
from kafka import KafkaConsumer
consumer = KafkaConsumer("cctv1",
                         bootstrap_servers='localhost:9092')
for msg in consumer:
    print(msg.value.decode())

但是我们在虚拟机里面也是要安装kafka的。命令: pip install kafka


通过命令python3 文件名:就可以运行该Python文件了


我们在生产者里的数据,消费者就可以接收的了。


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值