websocket 获取ip_Spark+Kafka+WebSocket+eCharts实时分析-完全记录(1)

本系列内容:

  1. Kafka环境搭建与测试
  2. Python生产者/消费者测试
  3. Spark接收Kafka消息处理,然后回传到Kafka
  4. Flask引入消费者
  5. WebSocket实时显示

版本:

spark-2.4.3-bin-hadoop2.7.tgz

kafka_2.11-2.1.0.tgz

------------------------第1小节:Kafka环境搭建与测试---------------------------

1.Kafka环境搭建与测试

步骤01:解压kafka

tar -zvxf kafka_2.11-2.1.0.tgz -C /usr/local

步骤02:重命名文件夹

cd /usr/local

mv kafka_2.11-2.1.0 /usr/local/kafka

步骤03:配置broker,修改如下文件:

/usr/local/kafka/config/server.properties

将listeners和advertised.listeners节点修改如下,将localhost配置为IP,因为后面需要在windows上写程序连接broker。

如图所示:

c150c3dd2841b9ab9c1ebb060d2f48c6.png

2.测试

步骤01:进入kafka目录

cd /usr/local/kafka

步骤02:打开新窗口,启动:zk server

./bin/zookeeper-server-start.sh config/zookeeper.properties

步骤03:打开新窗口,启动:kafka broker

./bin/kafka-server-start.sh config/server.properties

步骤04:打开新窗口,创建主题:--replication-factor:副本因子,设置副本个数 --partitions:分区数

./bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic bigdata

步骤05:显示主题列表

./bin/kafka-topics.sh --list --zookeeper localhost:2181

步骤06:打开新窗口,启动生产者

./bin/kafka-console-producer.sh --broker-list localhost:9092 --topic bigdata

在命令行中输入:hello

步骤07:启动消费者:--from-beginning 表示获取消费者启动前生产者发出的消息

./bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic bigdata --from-beginning

可以看到窗口中接收到了hello

注意:以上步骤,已经打开了4个shell窗口,在操作期间需要记住那个窗口启动了什么服务

如图所示:

1e7bb9c426292c5f7a8527781de8566e.png
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值