SparkStreaming学习札记3-2020-2-14--SparkStreaming实时流处理项目实战

第11章 Spark Streaming整合Flume&Kafka打造通用流处理基础

1.日志到flume环节

编写flume配置文件streaming.conf

进入flume目录

 cd /home/hadoop/app/apache-flume-1.6.0-cdh5.7.0-bin/conf

启动

flume-ng agent --conf $FLUME_HOME/conf --conf-file $FLUME_HOME/conf/streaming.conf --name agent1 -Dflume.root.logger=INFO,console

 

2.flume到Kafka环节

进入zookeeper目录

cd /home/hadoop/app/zookeeper-3.4.5-cdh5.7.0/bin/

启动zookeeper

./zkServer.sh start

 

启动Kafka

进入目录

cd /home/hadoop/app/kafka_2.11-0.9.0.0/bin


./kafka-server-start.sh -daemon /home/hadoop/app/kafka_2.11-0.9.0.0/config/server.properties

查看有哪些topic

./kafka-topics.sh  --list --zookeeper hadoop000:2181

创建topic

./kafka-topics.sh --create --zookeeper hadoop000:2181 --replication-factor 1 --partitions 1 --topic streamingtopic

启动flume

flume-ng agent --conf $FLUME_HOME/conf --conf-file $FLUME_HOME/conf/streaming2.conf --name agent1 -Dflume.root.logger=INFO,console

3.kafka到Spark Streaming环节

生产:

./kafka-console-producer.sh --broker-list localhost:9090 --topic kafka_streaming_topic

消费监控:

./kafka-console-consumer.sh --zookeeper hadoop000:2181 --topic kafka_streaming_topic

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值