大数据-玩转数据-Spark Streaming Kafka数据流(python版)

本文介绍了如何在大数据环境中使用Spark Streaming的Python版本与Kafka进行数据流处理。内容包括Spark与Kafka的集成配置,解决jar包版本不匹配问题,以及创建和消费Kafka topic的步骤。
摘要由CSDN通过智能技术生成

大数据-玩转数据-Spark Streaming Kafka数据流(python版)

一、Spark融合Kafka

[root@hadoop1 jars]# cd /home/hadoop/spark/jars
[root@hadoop1 jars]# mkdir kafka

根据原安装的spark及scala版本
下载 spark-streaming-kafka-0-8_2.11-2.4.0.jar*(该版本不适合,后面进行了更换,spark官网下载jar包地址:https://search.maven.org/search?q=g:org.apache.spark%20AND%20v:2.1.0) 到 新建的kafka目录
拷贝kafka/libs下所有包到新建的kafka目录

[root@hadoop1 kafka]# cp /home/hadoop/kafka/libs/* /home/hadoop/spark/jars/kafka/

修改spark配置文件

[root@hadoop1 kafka]# cd /home/hadoop/spark/conf/
[root@hadoop1 conf]# vi spark-env.sh

看是否包含 spark 和 cafka 的jar包

export SPARK_DISK_CLASSPASS=$(/home/hadoop/apps/hadoop-2.10.1/bin/hadoop classpath):$(/home/hadoop/hbase/bin/hbase classpath):/home/hadoop/spark/jars/hbase/*:/home/hadoop
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值